Comment bloquer des connexions intempestives sur mon site ?
Résolu
bensonn
Messages postés
57
Date d'inscription
Statut
Membre
Dernière intervention
-
eldiablo -
eldiablo -
A voir également:
- Comment bloquer des connexions intempestives sur mon site ?
- Site comme coco - Accueil - Réseaux sociaux
- Site de telechargement - Accueil - Outils
- Site pour vendre des objets d'occasion - Guide
- Quel site remplace coco - Accueil - Réseaux sociaux
- Site pour partager des photos - Guide
4 réponses
Salut
ce sont sans doute des robots spammeur (spiders) qui scannent le web a la recherche des pages contenant des formulaires.
bloquer les ip n'est souvent pas une bonne solution car les requètes sont souvent lancées par des réseaux botnet ou des hebergements hackés et donc les ip changent.
tu peux avec htaccess limiter l'accès de ces spider (enfin les plus connus)
voici un exemple de liste / code a inserer dans le htaccess
https://perishablepress.com/blacklist/ua-2013.txt
ce sont sans doute des robots spammeur (spiders) qui scannent le web a la recherche des pages contenant des formulaires.
bloquer les ip n'est souvent pas une bonne solution car les requètes sont souvent lancées par des réseaux botnet ou des hebergements hackés et donc les ip changent.
tu peux avec htaccess limiter l'accès de ces spider (enfin les plus connus)
voici un exemple de liste / code a inserer dans le htaccess
https://perishablepress.com/blacklist/ua-2013.txt
Salut,
Il y à toute sortes de robots qui viennent scanner ton site, des robots utiles, comme Google ou Bing, puis pleins de maléfiques.
Tu peu en bloquer certains avec le HTaccess ou utiliser des scripts ou des mods plus sophistiqués qui vont aller lire dynamiquement une liste de robots maléfiques ou de spammeurs connus, c'est pas une protection à 100% mais ça aide à limiter les dégâts.
Il y à toute sortes de robots qui viennent scanner ton site, des robots utiles, comme Google ou Bing, puis pleins de maléfiques.
Tu peu en bloquer certains avec le HTaccess ou utiliser des scripts ou des mods plus sophistiqués qui vont aller lire dynamiquement une liste de robots maléfiques ou de spammeurs connus, c'est pas une protection à 100% mais ça aide à limiter les dégâts.
Bonsoir,
Vous créez à la racine du site un fichier php nommé unwantedBots.inc.php et contenant ce genre de code:
Et vous pouvez rajouter n'importe où le "user-agent" site que vous voulez bloquer....
Et ensuite, pour votre fichier index.php, vous commencez ce fichier avec:
Ainsi, tous les sites utilisant des "bots" un peu trop agressifs seront renvyés vers une erreur 404
A+
Vous créez à la racine du site un fichier php nommé unwantedBots.inc.php et contenant ce genre de code:
<?php $httpUserAgent = null; if(isset($_SERVER['HTTP_USER_AGENT'])) { $httpUserAgent = $_SERVER['HTTP_USER_AGENT']; $unwanted = array( "7zap", // http://volkswagen.7zap.com/;Mozilla/4.61 [en] (X11; U; ) - BrowseX (2.0.0 Windows) "admantx", // ADmantX Platform Semantic Analyzer - ADmantX Inc. - www.admantx.com - support@admantx.com "ahrefsbot", // Mozilla/5.0 (compatible; AhrefsBot/5.0; +http://ahrefs.com/robot/) "archive-org.com", "baiduspider", // Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html) "contextad bot", // ContextAd Bot 1.0 "cognitiveseo", // Mozilla/5.0 (Windows; U; Windows NT 5.0; en-US; rv:1.7.10) Gecko/20050716 Thunderbird/1.0.6 - WebCrawler http://cognitiveseo.com/bot.html "crystalsemantics", // CrystalSemanticsBot http://www.crystalsemantics.com/service-navigation/imprint/useragent/) "dotbot", // Mozilla/5.0 (compatible; DotBot/1.1; http://www.opensiteexplorer.org/dotbot, help@moz.com) "easouspider", // Mozilla/5.0 (compatible; EasouSpider; +http://www.easou.com/search/spider.html) "exabot", // Mozilla/5.0 (compatible; Exabot/3.0; +http://www.exabot.com/go/robot) "fr-crawler", // Mozilla/5.0 (compatible; fr-crawler/1.1) "genieo", // Mozilla/5.0 (compatible; Genieo/1.0 http://www.genieo.com/webfilter.html) "golden-praga", // http://golden-praga.ru/;Opera/7.11 (Windows NT 5.1; U) [en] "grapeshotcrawler", // Mozilla/5.0 (compatible; GrapeshotCrawler/2.0; +http://www.grapeshot.co.uk/crawler.php) "ia_archiver", // ia_archiver (+http://www.alexa.com/site/help/webmasters; crawler@alexa.com) "james bot", // ;Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6 - James BOT - WebCrawler http://cognitiveseo.com/bot.html "libcurl", // curl/7.15.5 (x86_64-redhat-linux-gnu) libcurl/7.15.5 OpenSSL/0.9.8b zlib/1.2.3 libidn/0.6.5 "linkdexbot", // Mozilla/5.0 (compatible; linkdexbot/2.0; +http://www.linkdex.com/bots/) "lipperhey", // Mozilla/5.0 (compatible; Lipperhey SEO Service; http://www.lipperhey.com/) "magpie", // magpie-crawler/1.1 (U; Linux amd64; en-GB; +http://www.brandwatch.net) "meanpathbot", // Mozilla/5.0 (compatible; meanpathbot/1.0; +http://www.meanpath.com/meanpathbot.html) "memorybot", // Mozilla/5.0 (compatible; memoryBot/1.20.311 +http://internetmemory.org/en/) "mj12bot", // Mozilla/5.0 (compatible; MJ12bot/v1.4.5; http://www.majestic12.co.uk/bot.php?+) "orangebot", // Mozilla/5.0 (compatible; OrangeBot/2.0; support.orangebot@orange.com) "proximic", // Mozilla/5.0 (compatible; proximic; +http://www.proximic.com/info/spider.php) "semalt", // http://semalt.semalt.com/crawler.php? "semrushbot", // Mozilla/5.0 (compatible; SemrushBot/0.98~bl; +http://www.semrush.com/bot.html) "slurp", // Yahoo! Slurp "riddler", // Riddler (http://riddler.io/about) "ru_bot", // Mozilla/5.0 (compatible; Linux x86_64; Mail.RU_Bot/2.0; +http://go.mail.ru/help/robots) "SearchmetricsBot", // Mozilla/5.0 (compatible; SearchmetricsBot; http://www.searchmetrics.com/en/searchmetrics-bot/) "seznambot", // Mozilla/5.0 (compatible; SeznamBot/3.2; +http://fulltext.sblog.cz/) "smtbot", // Mozilla/5.0 (compatible; SMTBot/1.0; +http://www.similartech.com/smtbot) "spbot", // Mozilla/5.0 (compatible; spbot/4.1.0; +http://OpenLinkProfiler.org/bot ) "spiderbot", // Spiderbot/Nutch-1.7 "sogou", // Sogou web spider/4.0(+http://www.sogou.com/docs/help/webmasters.htm#07) "tineye", // moteur indexation images "turnitinbot", // TurnitinBot/3.0 (http://www.turnitin.com/robot/crawlerinfo.html) "voilabot", // Mozilla/5.0 (Windows NT 5.1; U; Win64; fr; rv:1.8.1) VoilaBot BETA 1.2 (support.voilabot@orange-ftgroup.com) "xovibot", // Mozilla/5.0 (compatible; XoviBot/2.0; +http://www.xovibot.net/) "yandex", // http://yandex.ru/images/search? ); foreach ($unwanted AS $val) { if (stristr($_SERVER['HTTP_USER_AGENT'], $val) != FALSE) { header("HTTP/1.0 404 Not Found"); readfile('404missing.html'); die; } } }
Et vous pouvez rajouter n'importe où le "user-agent" site que vous voulez bloquer....
Et ensuite, pour votre fichier index.php, vous commencez ce fichier avec:
<?php include 'unwantedBots.inc.php';
Ainsi, tous les sites utilisant des "bots" un peu trop agressifs seront renvyés vers une erreur 404
A+
ca veux dire tous le user agent suivants (liste) toutes les pages du site sont interdites (403 forbidden)
Y a-t-il un moyen de l'ajouter à la liste et comment ?