Eviter le duplicate content

Fermé
jerryone3 Messages postés 55 Date d'inscription dimanche 21 décembre 2008 Statut Membre Dernière intervention 19 juin 2014 - 13 août 2012 à 16:00
jerryone3 Messages postés 55 Date d'inscription dimanche 21 décembre 2008 Statut Membre Dernière intervention 19 juin 2014 - 13 août 2012 à 16:11
Bonjour !

je cherche à éviter l'indexation par les moteurs de recherche de duplicate content sur mon site. J'ai ainsi une page qui contient un moteur de recherche me permettant d'accéder à des résultats en fonction de la recherche de l'internaute, et des landing réécrites avec du url Rewriting qui conduisent vers ces mêmes résultats.

Je souhaite donc empêcher les moteurs de recherche d'indexer les pages de recherche et conserver donc uniquement les landing à l'indexation.

J'ai plusieurs pistes mais aucune certitude... Header PHP qui modifie le statut de la page en 301 quand ça vient du moteur de recherche ? utiliser le fichier robot.txt ? Les meta ? Il me semble que c'est déprécié... je ne sais pas trop.

Comment faire ?

Merci d'avance !
A voir également:

2 réponses

tidjool Messages postés 102 Date d'inscription mercredi 19 avril 2006 Statut Membre Dernière intervention 16 août 2012 7
13 août 2012 à 16:06
Salut,
Perso, j'utiliserai un fichier robot.txt à la racine de ton site.
0
jerryone3 Messages postés 55 Date d'inscription dimanche 21 décembre 2008 Statut Membre Dernière intervention 19 juin 2014 1
13 août 2012 à 16:11
Oui, en excluant une page précisée dans le fichier, mais cela ne risque t-il pas de désindexer également les pages de landing, que je souhaite conserver visibles par les robots ?
0