Comment bloquer le crawl d'une catégorie ?

JJ.Coltrane Messages postés 41 Date d'inscription   Statut Membre Dernière intervention   -  
JJ.Coltrane Messages postés 41 Date d'inscription   Statut Membre Dernière intervention   -
Bonjour,

J'ai un paquet d'articles en Noindex sur mon blog, je voudrais les regrouper dans une catégorie « archives », puis bloquer le crawl de tous les articles de cette catégorie.

J'ai donc pensé à ajouter cette ligne dans mon fichier robots.txt : Disallow: /category/archives.

Mais j'ai un doute : est-ce que ce code va bloquer le crawl de tous les articles contenus dans cette catégorie, ou seulement le crawl de la page category/archives ?

Merci d'avance.

A voir également:

1 réponse

bg62 Messages postés 23733 Date d'inscription   Statut Modérateur Dernière intervention   2 409
 
NOTA: " category/archives " ne peut pas être une page ( *.html, *.php ... ) mais sous-dossier dans ce cas.
tu as toutes les indications ici :
https://www.commentcamarche.net/contents/1268-robots-txt
:)
voir également :
http://robots-txt.com/

1
JJ.Coltrane Messages postés 41 Date d'inscription   Statut Membre Dernière intervention   2
 
Hmmm, donc le code pour bloquer l'acces des robots à tous les articles de la catégorie "archives" serait : Disallow: /category/archives/.
0