On a beaucoup écrit sur le déploiement des applications gourmandes en calculs sur les données EC2/S3, mais je voudrais savoir, quel est le flux de travail typique pour le développement de ces applications?Workflow pour le développement de applications gourmandes en calculs sur EC2 amazon/S3
Disons que j'ai un 1 To de données de séries chronologiques pour commencer et j'ai réussi à enregistrer ce sur S3. Comment écrire des applications et faire des analyses de données interactives pour construire des modèles d'apprentissage automatique, puis écrire de grands programmes pour les tester? En d'autres termes, comment va-t-on mettre en place un environnement de dev dans une telle situation? Dois-je démarrer une instance EC2, développer un logiciel dessus et sauvegarder mes modifications, et arrêter chaque fois que je veux travailler?
En général, je lance R ou Pylab, lire les données de mes lecteurs locaux et faire mon analyse. Ensuite, je crée des applications basées sur cette analyse et je laisse libre cours à ces données.
Sur EC2, je ne suis pas sûr de pouvoir le faire. Les personnes conservent-elles les données localement pour l'analyse et n'utilisent EC2 que lorsqu'elles ont de gros travaux de simulation à exécuter?
Je suis très curieux de savoir ce que les autres font, en particulier start-ups qui ont toute leur infrastructure basée sur EC2/S3.
Merci pour le partage. Donc, fondamentalement, vous garderez une copie locale (hors amazon) des données et développerez également localement (hors amazon) mais courrez des expériences sur amazon? – signalseeker
Nos affaires ne sont pas des expériences, mais c'est ce que nous faisons essentiellement. Une partie de l'application comprend de très grandes tables et règles fiscales. Nous les conservons dans notre propre réseau et transmettons les mises à jour à Amazon chaque fois que les tarifs ou les règles changent (généralement minuit à la fin de chaque mois). –