Mon application Python fait beaucoup de demandes HTTP en utilisant le module urllib2
. Cette application peut être utilisée sur des réseaux très peu fiables où les latences peuvent être faibles et où les paquets perdus et les timeouts réseau peuvent être très courants. Est-il possible de surcharger une partie du module urllib2
afin que chaque requête soit réessayée un nombre X de fois avant de déclencher des exceptions? Est-ce que quelqu'un a vu quelque chose comme ça? Puis-je y parvenir sans modifier l'ensemble de l'application et en créant simplement un wrapper sur le module urllib2
. Ainsi, tout code effectuant des requêtes à l'aide de ce module utilise automatiquement la fonctionnalité de nouvelle tentative.Faire urllib réessayer plusieurs fois
Merci. La modification de parties d'une bibliothèque n'est jamais une bonne idée.
Aucune des réponses résout le problème de la pendaison téléchargement, même si on peut juste donner un délai raisonnable pour urlopen – lispmachine