je dois avoir le contrôle sur ce que les URL sont autorisés à indexer. Pour ce faire, je souhaite autoriser Google à indexer uniquement les URL répertoriées dans mes sitemap (s), et interdire à Google d'indexer quoi que ce soit d'autre.Comment peut robots.txt interdire toutes les URL, à l'exception des URL qui sont
Easiest façon de résoudre c'est s'il y a un moyen de configurer robots.txt pour tout désavouer:
User-agent: *
Disallow:/
Et en même temps autoriser chaque URL répertoriée dans:
Sitemaps: sitemap1.xml
Sitemaps: sitemap2.xml
peuvent robots.txt être configurés pour le faire? Ou existe-t-il d'autres solutions de contournement?
agréable et simple. Merci beaucoup, ça va me coûter beaucoup d'heures pour mettre en œuvre comme je le veux, donc je ferais mieux de commencer :)) – Joakim