Comment se débarraser dezs bots sur un site ?
Résolu
Utilisateur anonyme
-
Utilisateur anonyme -
Utilisateur anonyme -
Bonjour,
J'ai un site (http://www.expomatique.org). depuis quelques temps, des bots viennent dessus (j'ai regarder dans la base de données et j'ai constater que il y avait des bots).
Comment faire pour s'en débarrasser ?
Cdt.
Lepetitwindows56
J'ai un site (http://www.expomatique.org). depuis quelques temps, des bots viennent dessus (j'ai regarder dans la base de données et j'ai constater que il y avait des bots).
Comment faire pour s'en débarrasser ?
Cdt.
Lepetitwindows56
A voir également:
- Comment se débarraser dezs bots sur un site ?
- Site de telechargement - Accueil - Outils
- Site comme coco - Accueil - Réseaux sociaux
- Quel site remplace coco - Accueil - Réseaux sociaux
- Site x - Guide
- Site pour vendre des objets d'occasion - Guide
6 réponses
pourquoi veut tu te debarasser de bots ?
la pluparts servent a indexer ton site dans les moteurs de recherche.
et ceux qui sont nefaste, recherchent simplement des failles de securité
donc sit ton site est bien codé et correctement sécurisé,
il n'y a pas de raison que sa pose des problemes.
mais bon
si après sa tu veut toujours interdire les robots pour une raison x ou y
il y a des methodes pour sa
tu peut creer un fichier "robot.txt" a la racine de ton site et dedans tu ecrit :
User-agent: *
Disallow: /
mais cette methode n'est pas parfaite car certains robots, souvent les mechants,
ne suivent pas les regles de ce fichier
après, la seule solution est de les identifier et de bannir les adresses IP des robots.
la pluparts servent a indexer ton site dans les moteurs de recherche.
et ceux qui sont nefaste, recherchent simplement des failles de securité
donc sit ton site est bien codé et correctement sécurisé,
il n'y a pas de raison que sa pose des problemes.
mais bon
si après sa tu veut toujours interdire les robots pour une raison x ou y
il y a des methodes pour sa
tu peut creer un fichier "robot.txt" a la racine de ton site et dedans tu ecrit :
User-agent: *
Disallow: /
mais cette methode n'est pas parfaite car certains robots, souvent les mechants,
ne suivent pas les regles de ce fichier
après, la seule solution est de les identifier et de bannir les adresses IP des robots.
il ya une faute d'orthographe dans ton lien
supprimer le point et la parenthese de l'url pour que sa fonctionne
supprimer le point et la parenthese de l'url pour que sa fonctionne
Salut .Zoro.,
Merci pour l'astuce mais, par exemple, est-ce que ça c'est un robot d'indexation :
crawl-66-249-66-47.googlebot.com ?
Cdt.
Merci pour l'astuce mais, par exemple, est-ce que ça c'est un robot d'indexation :
crawl-66-249-66-47.googlebot.com ?
Cdt.
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question