J'ai actuellement un site communautaire que je gère et qui est composé de 15 pages php. Il n'est actuellement pas très dynamique, n'utilisant que php pour includes/templates.Migration d'un site PHP existant pour utiliser la réécriture d'URL (Pretty URL's)
Actuellement, aucun contenu n'est généré via une chaîne de requête. Les pages ne suivent pas une convention de dénomination standard et il existe de nombreux liens entrants.
Je cherche à développer le site (et commencer à utiliser des chaînes de requête pour construire des pages) mais avant de le faire, je veux changer pour utiliser de jolies URL. Dans cet esprit, j'ai quelques questions cependant. 1) Est-il préférable de diriger toutes les demandes vers une page de réécriture d'url attraper d'abord toute demande aux pages .php et les passer pour garder les liens existants puis une déclaration de cas géante pour chacune des 15 pages enfin la réécrire l'url de nouvelles pages car celles-ci suivront un format défini?
2) Comment puis-je empêcher les doublons dans google après avoir mis à jour mon sitemap.xml ou va-t-il supprimer les anciennes pages?
Merci
Est-ce que les ajouter à robots.txt effectivement supprimer les entrées existantes si? – John
Selon Google, oui. Source: http://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=35302 – WhyNotHugo