J'ai besoin d'utiliser cURL en PHP pour faire des milliers de requêtes cURL à une API. Mon plan actuel est de les faire en parallèle avec les fonctions curl_multi_(). Fondamentalement, exécuter simultanément toutes les demandes de cURL en parallèle.Ouverture de milliers de poignées cURL sans problèmes? (PHP)
J'ai entendu dire que vous pouvez rencontrer des problèmes de mémoire en ouvrant trop de poignées, ce qui peut entraîner des erreurs fatales. Comment peut éviter cela et toujours faire mes demandes d'URL aussi vite que possible?
Si j'ai besoin de limiter le nombre de demandes cURL à faire à la fois, à quoi bon # définir la limite? Contexte: Je suis en ce moment sur un hébergement partagé avec Godaddy, ce qui me convient parfaitement avec les requêtes cURL, bien que je ne l'ai pas testé avec des milliers de requêtes parallèles. Dans le futur, je serai sur un Rackspace Cloud Site qui peut gérer une charge modeste.
Cet énorme nombre de requêtes cURL est une chose une fois par an, et ne fait pas partie des opérations quotidiennes du site.
Votre point que je repenser cette méthode sonne vrai. D'une certaine manière, il n'est pas strictement nécessaire pour moi d'utiliser l'API. Je vais accepter votre réponse pour ceux qui en bénéficieraient en plus de moi-même. – babonk
Bon - c'est juste un cas typique de «diviser pour régner» - divisez le travail en différents petits travaux, puis concentrez-vous sur l'exécution efficace de ce tas de tâches. Si vous deviez le faire tous les jours, vous pourriez mettre à l'échelle la solution que je décris jusqu'à un certain nombre de machines, de récupération et de traitement, dans un rapport que vous auriez à déterminer par essais et erreurs. – timdev