URL canonique et Duplicate Content
Résolu
law_man
Messages postés
39
Statut
Membre
-
bg62 Messages postés 26230 Statut Modérateur -
bg62 Messages postés 26230 Statut Modérateur -
Bonjour à toutes et à tous,
Petite question: mon site, agentbocaboca.com, comprend plusieurs contenus dupliqués:
J'ai pour commencer 3 sous répertoires, /france, /belgique, et /suisse.
J'ai aussi acheté .fr, .be .ch et .eu, qui sont redirigés en 301 vers /france, /belgique, /suisse.
.eu va sur la page d'accueil du .com, qui permet de choisir la langue.
Ces trois répertoires contiennent le même site, seuls les logos changent.
En plus de cela, dans le répertoire /france, je vais être amené à avoir des centaines de sous répertoires avec nouveau répétition de ce site (site dupliqué pour l'usage personnel de chaque utilisateur du site)
Pour éviter le duplicate content, j'ai un robot.txt qui interdit d'indexer /belgique et /suisse, et qui se met à jour automatiquement pour interdire l'indexation de tout nouveau sous répertoire qui serait créé dans/france (ex : /france/utilisateur1/, 2/.....). J'ai aussi une balise noindex pour chaque page de /belgique, /suisse, et de chaque sous répertoire utilisateur.
En gros, seules les pages contenues dans /france seront amenées à être indexées.
Le problème est que les suisses et les belges qui vont vouloir trouver mon site vont tomber sur la page france, et les sites miroirs perso de mes utilisateurs ne pourront pas non plus être trouvés par recherche (uniquement le site principal France).
L'URL canonique peut-elle m'être utile dans ce cas?
Pour vous donner un exemple, dans mes sites utilisateurs figurent les coordonnées de l'utilisateur. Si les pages ne sont pas indexées, forcément, personne ne tombera jamais sur sa page en faisant une recherche. Si j'utilise l'URL canonique, sa page pourra-t-elle être trouvée sans que Google considère que c'est du duplicate content? De même pour Belgique et Suisse bien sûr...
Si je n'ai pas été assez clair, n'hésitez pas à me faire repréciser.
Amicalement,
Antoine Canal
Petite question: mon site, agentbocaboca.com, comprend plusieurs contenus dupliqués:
J'ai pour commencer 3 sous répertoires, /france, /belgique, et /suisse.
J'ai aussi acheté .fr, .be .ch et .eu, qui sont redirigés en 301 vers /france, /belgique, /suisse.
.eu va sur la page d'accueil du .com, qui permet de choisir la langue.
Ces trois répertoires contiennent le même site, seuls les logos changent.
En plus de cela, dans le répertoire /france, je vais être amené à avoir des centaines de sous répertoires avec nouveau répétition de ce site (site dupliqué pour l'usage personnel de chaque utilisateur du site)
Pour éviter le duplicate content, j'ai un robot.txt qui interdit d'indexer /belgique et /suisse, et qui se met à jour automatiquement pour interdire l'indexation de tout nouveau sous répertoire qui serait créé dans/france (ex : /france/utilisateur1/, 2/.....). J'ai aussi une balise noindex pour chaque page de /belgique, /suisse, et de chaque sous répertoire utilisateur.
En gros, seules les pages contenues dans /france seront amenées à être indexées.
Le problème est que les suisses et les belges qui vont vouloir trouver mon site vont tomber sur la page france, et les sites miroirs perso de mes utilisateurs ne pourront pas non plus être trouvés par recherche (uniquement le site principal France).
L'URL canonique peut-elle m'être utile dans ce cas?
Pour vous donner un exemple, dans mes sites utilisateurs figurent les coordonnées de l'utilisateur. Si les pages ne sont pas indexées, forcément, personne ne tombera jamais sur sa page en faisant une recherche. Si j'utilise l'URL canonique, sa page pourra-t-elle être trouvée sans que Google considère que c'est du duplicate content? De même pour Belgique et Suisse bien sûr...
Si je n'ai pas été assez clair, n'hésitez pas à me faire repréciser.
Amicalement,
Antoine Canal
A voir également:
- URL canonique et Duplicate Content
- Url - Guide
- Duplicate cleaner free - Télécharger - Divers Utilitaires
- Awesome duplicate photo finder - Télécharger - Divers Utilitaires
- Auslogics duplicate file finder - Télécharger - Nettoyage
- Easy duplicate finder - Télécharger - Nettoyage