Htaccess SOS !
y en a plus que marre ! je crée, je me casse la tête pour mettre en ligne, mais ça part d'un bon principe: "partager" !!
seulement il y en a qui se servent d'aspirateur et qui pompent tout sans même regarder pour en faire je ne sais quoi ?
peut-on mettre un fichier .htacess spécial ne concernant QUE les aspirateur de sites (pas les autresrobots) ???
merci à l'avance
@+
b g
seulement il y en a qui se servent d'aspirateur et qui pompent tout sans même regarder pour en faire je ne sais quoi ?
peut-on mettre un fichier .htacess spécial ne concernant QUE les aspirateur de sites (pas les autresrobots) ???
merci à l'avance
@+
b g
A voir également:
- Htaccess SOS !
- Question sur le htaccess ✓ - Forum Référencement
- .Htaccess localhost - Forum Référencement
- You don't have permission to access this resource.server unable to read htaccess file, denying access to be safe - Forum Mozilla Firefox
- Restriction avec .htaccess ✓ - Forum Référencement
- Aide avec chemin.php (.htaccess) ✓ - Forum PHP
9 réponses
Je te conseille l'excellent site suivant :
http://www.infres.enst.fr/~danzart/frames/htaccess.html
Il explique en particulier :
- comment ça marche
- comment ça se configure au niveau du serveur
- comment creer des groupes et des utilisateurs.
Note que la protection par htaccess suppose que tu puisses configurer ton serveur apache ou que celui-ci soit configuré de sorte à les prendre en compte.
Bonne chance, et bonne lecture ;)
http://www.infres.enst.fr/~danzart/frames/htaccess.html
Il explique en particulier :
- comment ça marche
- comment ça se configure au niveau du serveur
- comment creer des groupes et des utilisateurs.
Note que la protection par htaccess suppose que tu puisses configurer ton serveur apache ou que celui-ci soit configuré de sorte à les prendre en compte.
Bonne chance, et bonne lecture ;)
j'ai regardé mais pour ce que je cherche en particulier, rien trouvé !
je veux juste faire un fichier qui interdisse les aspirateurs et eux seulement
Voilà ce que j'ai trouvé pour bloquer les aspirateurs dans mon fichier:
CODERewriteCond %{HTTP_USER_AGENT} .*DirectUpdate* [OR]
RewriteCond %{HTTP_USER_AGENT} .*eCatch* [OR]
RewriteCond %{HTTP_USER_AGENT} .*EmailCollector* [OR]
RewriteCond %{HTTP_USER_AGENT} .*flashget* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*frontpage* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*Haste* [OR]
RewriteCond %{HTTP_USER_AGENT} .*HTTPConnect* [OR]
RewriteCond %{HTTP_USER_AGENT} .*HTTrack* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Indy\ Library* [OR]
RewriteCond %{HTTP_USER_AGENT} .*lwp-trivial* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Teleport\ Pro* [OR]
RewriteCond %{HTTP_USER_AGENT} .*vobsub* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*WebCapture* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebCopier* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebDAV* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WEBsaver* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebStripper* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebZIP* [OR]
#RewriteCond %{HTTP_USER_AGENT} .*Wget* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Wysigot* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Zeus.*Webster* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Zeus*
RewriteRule ^.*$ http://www.autre_site.com[/url] [L,R]
les commentaires qui y étaient ajoutés:
Détecter les aspirateurs de site
Une source importante de consommation CPU peut provenir des aspirateurs de sites.
Il n'existe pas de solution miracle pour interdire les accès d'aspirateur. Il ne faut pas non plus être trop strict pour éviter de bloquer l'accès au robot d'indexation des moteurs de recherche.
La solution la plus basique est de créer un fichier .htaccess à la racine du site à protéger qui va interdire les accès à tous les robots ayant un user-agent connu comme étant celui d'un aspirateur. Ce n'est évidemment pas complet comme solution, mais une bonne partie des aspirateurs seront refoulés malgré tout !
RewriteEngine ON RewriteCond %{HTTP_USER_AGENT} .*Advanced\ Email\ Extractor* [OR]
mais ... mis sur la racine du site cela bloque TOUT ... même moi parfois donc erreur de synthaxe ou d'emplacement, là je ne sais pas !
@mitiés
b g
je veux juste faire un fichier qui interdisse les aspirateurs et eux seulement
Voilà ce que j'ai trouvé pour bloquer les aspirateurs dans mon fichier:
CODERewriteCond %{HTTP_USER_AGENT} .*DirectUpdate* [OR]
RewriteCond %{HTTP_USER_AGENT} .*eCatch* [OR]
RewriteCond %{HTTP_USER_AGENT} .*EmailCollector* [OR]
RewriteCond %{HTTP_USER_AGENT} .*flashget* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*frontpage* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*Haste* [OR]
RewriteCond %{HTTP_USER_AGENT} .*HTTPConnect* [OR]
RewriteCond %{HTTP_USER_AGENT} .*HTTrack* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Indy\ Library* [OR]
RewriteCond %{HTTP_USER_AGENT} .*lwp-trivial* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Teleport\ Pro* [OR]
RewriteCond %{HTTP_USER_AGENT} .*vobsub* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} .*WebCapture* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebCopier* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebDAV* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WEBsaver* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebStripper* [OR]
RewriteCond %{HTTP_USER_AGENT} .*WebZIP* [OR]
#RewriteCond %{HTTP_USER_AGENT} .*Wget* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Wysigot* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Zeus.*Webster* [OR]
RewriteCond %{HTTP_USER_AGENT} .*Zeus*
RewriteRule ^.*$ http://www.autre_site.com[/url] [L,R]
les commentaires qui y étaient ajoutés:
Détecter les aspirateurs de site
Une source importante de consommation CPU peut provenir des aspirateurs de sites.
Il n'existe pas de solution miracle pour interdire les accès d'aspirateur. Il ne faut pas non plus être trop strict pour éviter de bloquer l'accès au robot d'indexation des moteurs de recherche.
La solution la plus basique est de créer un fichier .htaccess à la racine du site à protéger qui va interdire les accès à tous les robots ayant un user-agent connu comme étant celui d'un aspirateur. Ce n'est évidemment pas complet comme solution, mais une bonne partie des aspirateurs seront refoulés malgré tout !
RewriteEngine ON RewriteCond %{HTTP_USER_AGENT} .*Advanced\ Email\ Extractor* [OR]
mais ... mis sur la racine du site cela bloque TOUT ... même moi parfois donc erreur de synthaxe ou d'emplacement, là je ne sais pas !
@mitiés
b g
Bon ben j'ai appris quelque chose, pour moi les htaccess ça servait juste à restreindre certaines zones du site... Donc là, c'est en dehors de mes compétences ! A part espérer qu'une âme inspirée passe sur ce post ou chercher sur google, je ne sais pas trop quoi te dire...
Bonne chance
Bonne chance
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question
Chez qui es-tu hébergé ???
Il y a peut être des considérations spécifiques à prendre...
Quelle est la version du serveur ? Apache ? Autres ?
Ensuite le début de ton code htaccess posté est mauvais...
Envoie moi tout le fichier avec les précisions demandées par courriel,
Je te dirai où est le problème et comment le résoudre.
Amicalement,
Thifoolish.
Il y a peut être des considérations spécifiques à prendre...
Quelle est la version du serveur ? Apache ? Autres ?
Ensuite le début de ton code htaccess posté est mauvais...
Envoie moi tout le fichier avec les précisions demandées par courriel,
Je te dirai où est le problème et comment le résoudre.
Amicalement,
Thifoolish.
Bonjour
pour l'hébergement c'est 1and1
quand au code c'est ce qui est dans ce post, je me suis ar^été dès que j'ai vu que cela 'coinçait' !!! je ne suis pas du niveau pour y arriver ! là c'est sur !
si tu peux m'aider, on peut partir de cette base (elle est mauvaise je sais ...)
car en plus j'ai un second site du même genre qui sera en ligne dans qq mois et il sont faits l'un comme l'autre pour visiter et se servir, voire prendre contact pour des demandes particulères, alors aspirer, non seulement cela pose problème sur les bandes passantes des serveurs, mais dans mon cas je trouve cela idiot et surtout inutile car ce n'est pas le but du site
j'espère que tu pourras m'aider à résoufre enfin ce problème
@mitiés
b g
pour l'hébergement c'est 1and1
quand au code c'est ce qui est dans ce post, je me suis ar^été dès que j'ai vu que cela 'coinçait' !!! je ne suis pas du niveau pour y arriver ! là c'est sur !
si tu peux m'aider, on peut partir de cette base (elle est mauvaise je sais ...)
car en plus j'ai un second site du même genre qui sera en ligne dans qq mois et il sont faits l'un comme l'autre pour visiter et se servir, voire prendre contact pour des demandes particulères, alors aspirer, non seulement cela pose problème sur les bandes passantes des serveurs, mais dans mon cas je trouve cela idiot et surtout inutile car ce n'est pas le but du site
j'espère que tu pourras m'aider à résoufre enfin ce problème
@mitiés
b g
Bonjour ...
et si en plus l'on a déjà un fichier de ce genre à la racine du site, peut-on en avoir un second ??? (quel intitulé ?)
ou peut-on mettre les autres codes dedans sans perturber sa première fonction ???
@mitiés
b g
et si en plus l'on a déjà un fichier de ce genre à la racine du site, peut-on en avoir un second ??? (quel intitulé ?)
ou peut-on mettre les autres codes dedans sans perturber sa première fonction ???
@mitiés
b g
En fait, la protection est verticale.
Si tu mets une protection en place dans un dossier, alors tous les fichiers et tous les sous-dossiers seront protégés. Ainsi, tu peux affiner ta protection au fur et à mesure que tu affines l'arborescence de ton site web.
etc...
C'était une explication visuelle de la bonne gestion des protections sur un serveur apache avec les fichiers htaccess. Après il y a d'autres manières de faire, bien plus sécurisée que celle-ci.
Mais cette manière-là, simple et fonctionnelle, marche.
Si tu mets une protection en place dans un dossier, alors tous les fichiers et tous les sous-dossiers seront protégés. Ainsi, tu peux affiner ta protection au fur et à mesure que tu affines l'arborescence de ton site web.
racine du serveur ->dossierconfig -->.htaccess # htaccess contenant deny for all -->.htpasswd # fichier de mots de passe ->dossier1 # nommé (d1) dans les lignes suivantes -->.htaccess # par exemple, interdisant les aspirateurs et les liens externes... -->d1-fichier1 -->d1-f2 -->d1-f3 -->d1-ss-dossier1 --->.htaccess # définition d'une zone admin, par exemple... --->fichier1 --->fichier2 --->fichier3
etc...
C'était une explication visuelle de la bonne gestion des protections sur un serveur apache avec les fichiers htaccess. Après il y a d'autres manières de faire, bien plus sécurisée que celle-ci.
Mais cette manière-là, simple et fonctionnelle, marche.