Eviter le duplicate content

jerryone3 Messages postés 58 Statut Membre -  
jerryone3 Messages postés 58 Statut Membre -
Bonjour !

je cherche à éviter l'indexation par les moteurs de recherche de duplicate content sur mon site. J'ai ainsi une page qui contient un moteur de recherche me permettant d'accéder à des résultats en fonction de la recherche de l'internaute, et des landing réécrites avec du url Rewriting qui conduisent vers ces mêmes résultats.

Je souhaite donc empêcher les moteurs de recherche d'indexer les pages de recherche et conserver donc uniquement les landing à l'indexation.

J'ai plusieurs pistes mais aucune certitude... Header PHP qui modifie le statut de la page en 301 quand ça vient du moteur de recherche ? utiliser le fichier robot.txt ? Les meta ? Il me semble que c'est déprécié... je ne sais pas trop.

Comment faire ?

Merci d'avance !
A voir également:

2 réponses

tidjool Messages postés 107 Statut Membre 7
 
Salut,
Perso, j'utiliserai un fichier robot.txt à la racine de ton site.
0
jerryone3 Messages postés 58 Statut Membre 1
 
Oui, en excluant une page précisée dans le fichier, mais cela ne risque t-il pas de désindexer également les pages de landing, que je souhaite conserver visibles par les robots ?
0