Protection aspirateur de site

Résolu/Fermé
Pino - 17 oct. 2010 à 21:22
manoti Messages postés 24 Date d'inscription lundi 25 août 2008 Statut Membre Dernière intervention 23 octobre 2010 - 18 oct. 2010 à 01:30
Bonjour à tous.
Je voudrais protéger mon site contre les aspirateurs de site. Es possible? Comment faire? Merci à tous.



A voir également:

6 réponses

manoti Messages postés 24 Date d'inscription lundi 25 août 2008 Statut Membre Dernière intervention 23 octobre 2010 14
18 oct. 2010 à 00:33
Il n'y a pas, à ma connaissance, une manière 100% efficace pour se protéger des aspirateurs.
Pour commencer, va sur ton cPanel et cherche HOTLINK protection, ou équivalent sur ton panel, et active le en définissant l'adresse de ton site. Cela interdira l'affichage de ton contenu sur d'autres sites, et de les télécharger via certains aspirateurs.
Tu peux aussi créer un fichier, le nommer robots.txt et y mettre les champs suivants :
User-agent: Alexibot
Disallow: /

User-agent: Aqua_Products
Disallow: /

User-agent: asterias
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: BackDoorBot/1.0
Disallow: /

User-agent: BlowFish/1.0
Disallow: /

User-agent: Bookmark search tool
Disallow: /

User-agent: BotALot
Disallow: /

User-agent: BotRightHere
Disallow: /

User-agent: BuiltBotTough
Disallow: /

User-agent: Bullseye/1.0
Disallow: /

User-agent: BunnySlippers
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: CherryPickerElite/1.0
Disallow: /

User-agent: CherryPickerSE/1.0
Disallow: /

User-agent: Copernic
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: cosmos
Disallow: /

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: DittoSpyder
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: EroCrawler
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: hloader
Disallow: /

User-agent: httplib
Disallow: /

User-agent: HTTrack 3.0
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: larbin
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: Mata Hari
Disallow: /

User-agent: Microsoft URL Control - 5.01.4511
Disallow: /

User-agent: Microsoft URL Control - 6.00.8169
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: moget
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: Openfind data gatherer
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: PerMan
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: RMA
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: spanner
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: TightTwatBot
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: turingos
Disallow: /

User-agent: TurnitinBot/1.5
Disallow: /

User-agent: TurnitinBot
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: VCI
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: WebCapture 2.0
Disallow: /

User-agent: WebCopier v.2.2
Disallow: /

User-agent: WebCopier v3.2a
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebZIP/4.21
Disallow: /

User-agent: WebZIP/5.0
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: Wget
Disallow: /

User-agent: wget
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: Xenu's Link Sleuth 1.1c
Disallow: /

User-agent: Xenu's
Disallow: /

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /

User-agent: Zeus Link Scout
Disallow: /

User-agent: Zeus
Disallow: /


Il interdira à ces logiciels, les plus connus et efficaces, de ne pas pouvoir télécharger ou voir quoi que ce soit de ton site.
2
Super reponse merci.
Mais alor juste deux questions:
1°= j'ai deja un fichier Robot pour la Indexation de mon site, je peux ajouter toutes ces lignes par la suite?
2°= le CPANEL, je le trouve ou?
Merci d'avance pour ta reponse. Tres cordialement.
0
manoti Messages postés 24 Date d'inscription lundi 25 août 2008 Statut Membre Dernière intervention 23 octobre 2010 14
18 oct. 2010 à 00:57
1 - Oui, il suffirait d'ajouter ces lignes au début de ton robots.txt
2 - le cPanel c'est le panel d'administration qu'est censé te donner ton hébergeur pour gérer tes accès FTP, tes emails, tes BDD, etc...
Il y a moyen de faire ça sans passer par ton panel, il suffit d'éditer le .htaccess.
Je reste en ta disposition pour plus d'aide.
0
Le net est absolument magnifique quand on trouve des personnes disponible. Merci. Alor juste une chose. Voici un copier/coller de mon fichier Robot.

# Robots.txt file pour http://www.abcdef.fr
# ce script permet la visite et l indexation de tous les robots
# avec declaration du sitemapp
User-agent: *
Disallow:
Sitemap: http://www.abcdef.fr/sitemap.xml

Vu comme il est configuré, il me suffit de ajouter tes lignes par la suite? Je peux? Merci d'avance
0
manoti Messages postés 24 Date d'inscription lundi 25 août 2008 Statut Membre Dernière intervention 23 octobre 2010 14
18 oct. 2010 à 01:20
Je précise que les lignes sont à ajouter au début. La règle veut que l'on interdise l'accès à certains robots en début de fichiers, pour en permettre l'accès aux autres.
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
Reponse tres claire. Tu as eté eccellent. merci beaucoup. Bonne soirée à toi. Tres cordialement.
0
manoti Messages postés 24 Date d'inscription lundi 25 août 2008 Statut Membre Dernière intervention 23 octobre 2010 14
18 oct. 2010 à 01:30
Merci.
Au plaisir de t'aider une nouvelle fois.
0