E.preventDefault & clocking SEO - référencement Google

Fermé
klourenco Messages postés 4 Date d'inscription mercredi 20 septembre 2017 Statut Membre Dernière intervention 21 septembre 2017 - 20 sept. 2017 à 14:13
klourenco Messages postés 4 Date d'inscription mercredi 20 septembre 2017 Statut Membre Dernière intervention 21 septembre 2017 - 21 sept. 2017 à 15:27
Bonjour,

Nous avons un site très volumineux. Nous souhaitons indexer environs 50 000 pages.

Nous voulons que les pages soient toutes dans l'index de Google et accessibles.

Nous voulons également que si un user arrive sur la première page, lorsqu'il essaye de cliquer sur le lien de la seconde page dans notre pagination (bas de page de la première), qu'il ne puisse y accéder que si il s'inscrit. Il peut néanmoins accéder à la seconde page sans être inscrit via les résultats de recherche de Google.

Dans cette optique j'ai ajouté un e.preventDefault() sur le lien menant à la seconde page.

Je ne doute pas de la capacité de Google a suivre ce lien, néanmoins que me pose la question au niveau des pénalités, est-ce que Google pourrait considérer cela comme une tentative de cloaking ?

Personnelement je dirais que non, mais je suis pas sûr à 100%, merci pour vos avis sur la question.

Kevin.
A voir également:

1 réponse

elgazar Messages postés 5841 Date d'inscription mercredi 30 octobre 2013 Statut Membre Dernière intervention 17 mars 2021 1 322
20 sept. 2017 à 18:22
Bonjour

pour que google indexe toutes les pages, il faut qu'il ait accès à ces pages donc il faudrait que ta page ait un comportement différent suivant si c'est un visiteur ou un moteur qui arrive sur le site ce qui est la définition du cloaking






--
Avec un ordinateur, on peut faire plus rapidement des choses qu’on n’aurait pas eu besoin de faire sans ordinateur.
0
klourenco Messages postés 4 Date d'inscription mercredi 20 septembre 2017 Statut Membre Dernière intervention 21 septembre 2017
20 sept. 2017 à 22:57
C est bien plus complique que ça, car que ce soit un visiteur qui click sur le lien ou google cela donnera le même résultat : " veillez vous inscrire"

Par contre que ce soit l utilisateur qui accède ou google à la page directement ( avec l'url ) on ne le bloque pas

Le comportement n'est donc pas différent, je me pose la question plutôt de savoir :

" si google connait le lien, va t'il quand même le suivre et l'indexer même si il sait que le bouton de ce lien est bloqué ? "
0
elgazar Messages postés 5841 Date d'inscription mercredi 30 octobre 2013 Statut Membre Dernière intervention 17 mars 2021 1 322 > klourenco Messages postés 4 Date d'inscription mercredi 20 septembre 2017 Statut Membre Dernière intervention 21 septembre 2017
21 sept. 2017 à 09:41
google va considérer tes 50000 pages comme autant de pages orphelines ce qui va surement poser un problème pour l'indexation car si avoir quelques pages orphelines peut passer sur l'ensemble du site, je doute qu'il considère d'un bon oeil que la totalité du site le soit .

a mon avis, c'est ton approche qui n'est pas bonne, au lieu de bloquer les liens vers les pages suivantes (les liens c'est le sang d'internet), tu devrais bloquer l'affichage de tout ou d'une partie du contenu des pages suivantes quand le visiteur n'est pas inscrit , bref ce sera plus ou moins l'équivalent des "restrict content" comme le pratique les journaux en ligne

ainsi tes pages ne seront plus orphelines puisque il y aura un lien entre elles,(voir même un menu) tes pages seront mieux indexées (si tu laisses quelques lignes hors restrict content) et le résultat sera au final le même, pour voir le contenu le visiteur devra s'inscrire
0
klourenco Messages postés 4 Date d'inscription mercredi 20 septembre 2017 Statut Membre Dernière intervention 21 septembre 2017
21 sept. 2017 à 10:23
"google va considérer tes 50000 pages comme autant de pages orphelines"

Ta réponse finale est donc : utilisation de e.preventDefault sur un lien -> Google considère que c'est un lien menant vers une page orpheline ?

Ta solution est judicieuse, mais elle ne s'adapte pas à mon cas :
"ainsi tes pages ne seront plus orphelines puisque il y aura un lien entre elles" --> il y à déjà un lien entre elles, le maillage est donc bien construit.

Le but des journaux en ligne est que la personne ne puisse voir leurs articles en entier. Là ou moi au contraire je veux que l'utilisateur qui arrive via Google vois la page de manière intégrale pour qu'elle puisse répondre à son besoin. Les autres liens sont des compléments au cas où cela ne suffirait pas.

Pour ma part, je pense que le but de Google est d'avoir du contenu à crawler pour pouvoir répondre au besoin premier de l'utilisateur à savoir : du contenu de qualité qui répond à son besoin de recherche.

Je ne vois donc pas pourquoi il ne se dit pas simplement : "si cette url est correct et affiche un résultat similaire pour moi ou pour l'utilisateur je l'index"

Car je le rappel, ici le e.preventDefault() en js n'est effectif que lorsque l'utilisateur essaye de cliquer sur le lien d'une autre page ( en y accédant directement dans sa barre d'url il n'aura aucun problème)

Si on en croit cette page :

https://webmasters.stackexchange.com/questions/82183/does-e-preventdefault-on-link-prevent-the-page-from-being-crawled

J'ai à priori raison de penser que le crawl ce passera très bien, mais le sujet date de 2015, je ne voudrais pas me tromper en ce qui concerne l'indexation.

Merci en tout cas pour ton retour je vais continuer mes tests.
0
elgazar Messages postés 5841 Date d'inscription mercredi 30 octobre 2013 Statut Membre Dernière intervention 17 mars 2021 1 322 > klourenco Messages postés 4 Date d'inscription mercredi 20 septembre 2017 Statut Membre Dernière intervention 21 septembre 2017
Modifié le 21 sept. 2017 à 13:00
les robots actuels lisent le javascript et c'est bien le problème car on ne parle pas d'un menu javascript qui pointerait vers des pages , ce javascript sera lu sans problème et google indexera les pages normalement

ton problème est légèrement différent puisque tu impose une action (inscription) aux visiteurs pour lire les liens alors que le robot les lira sans problème ce qui, a mon avis, sera considéré comme du cloaking du coup tu te retrouveras avec des pages qui ne seront pointés que par des liens pénalisés voir avec des liens non pris en compte (suivant la pénalité) ce qui les rendra de facto orphelines ce qui ne les empêcheras pas d'être indexées mais par contre leur positionnement risque d'en prendre un sacré coup

cela dit je peux me tromper, ce ne serait pas la première fois ☺
0
klourenco Messages postés 4 Date d'inscription mercredi 20 septembre 2017 Statut Membre Dernière intervention 21 septembre 2017
21 sept. 2017 à 15:27
Ton raisonnement est parfaitement logique et c'est exactement ce pourquoi je ne suis pas sûr :/

Je vais tenter le coup, espérons seulement que si pénalité y à, qu'elle ne s'appliquerons que aux nouvelles pages et non à l'ensemble du site !

Merci beaucoup en tout cas :)
0