J'ai besoin de votre aide et je veux des conseils en tant que développeur point de vue que les gens courent comme des sites comme copyscape.com basiquement ils cherchent des copies de données sur internet entier je veux savoir comment ils sont recherche et faire le catalogue de tous les sites Web à partir de l'Internet même comme google comme google fait l'index du site à partir d'Internetrechercher des copies de données de partout sur internet
veuillez me guider comment ils cherchent des données de partout sur Internet comment il est possible de garder une trace de chaque site Web sur internet comment Google sait qu'il y a un nouveau site sur Internet d'où les robots savent que le nouveau site est lancé donc en bref je veux savoir comment puis-je développer un site dans lequel je peux rechercher des copies de données partout sur internet sans sortir en fonction de toute tierce partie api plzzz des conseils moi j'espère que vous me aider
grâce
Je commencerais avec environ 450 000+ serveurs à votre disposition ... http://www.datacenterknowledge.com/archives/2009/05/14/whos-got-the-most-web-servers/ –
question est trop ambigu/ambitieux - "s'il vous plaît aidez-moi à être google" n'est pas une bonne question de programmation. Demandez quelque chose de plus spécifique - quelles ressources avez-vous? Quelle tâche spécifique avez-vous en tête? Pourquoi google? En outre, ne marquez pas "protection contre la copie". – tucuxi