Aspirateur de liens

Paul -  
arnordi Messages postés 36 Statut Membre -
Bonjour,

Je voudrais savoir si vous connaissiez un logiciel qui permettrait d'aspirer les liens d'un site internet.

Merci pour vos réponses
A voir également:

7 réponses

jipicy Messages postés 41342 Statut Modérateur 4 896
 
Salut,

Installe Mozilla-Firefox comme navigateur, il a une fonction intégrée qui liste tous les liens de la page affichée :-))

http://frenchmozilla.sourceforge.net/thunderbird/

Z'@+...che.
JP : Cap de burro Catalan ! 
        Mais Content ;-)
0
Paul
 
Oui, en effet c'est très pratique, je n'avais jamais utilisé cette fonctionnalité de Firebird, merci pour le tuyau, mais de ta solution, il me vient une autre question, on ne peut que les visualiser, comment faire pour les enregistrer ?

Merci encore
0
foobar47 Messages postés 13654 Statut Contributeur 533
 
salut,

utilise HTTRACK que tu trouveras sur www.telecharger.com

foobar... quand on veut, on peut...
pas de violence, c'est les vacances... tranquille ! 
0
Paul
 
Merci pour ta réponse foobar47,

HTTRACK est un aspirateur de site, mais peut on seulement enregistrer les liens sans télécharger le site en lui-même, avec ce logiciel ? ce n'est pas préciser dans la description sur telecharger.com.

Merci une nouvelle fois
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
teutates Messages postés 19847 Date d'inscription   Statut Modérateur Dernière intervention   3 588
 
Bonjour,

Avec HTTTrack, tu peux régler le niveaux d'aspiration et mettre des filtres.

Sinon Leechget (en français et gratuit) http://www.leechget.de/
NetAnts (en français et gratuit)

Toco y se gausos !!!
0
foobar47 Messages postés 13654 Statut Contributeur 533
 
et bah voilà !!

:-)

foobar... quand on veut, on peut...
pas de violence, c'est les vacances... tranquille ! 
0
arnordi Messages postés 36 Statut Membre
 
Bonjour,

Je me pose ce qui me semble être la même question que celle de Paul.

J'ai déjà aspiré quelques (petits) sites complets, et ça marche très bien, mais comment fait-on pour n'aspirer que les liens qui dépendent d'une page en particulier ?

Par exemple, comment faire pour aspirer tous les liens qui auraient en commun une adresse du type : http://www.abc.com/def

J'ai essayé d'aspirer les adresses qui dépendent d'une adresse en particulier en copiant cette dernière, mais je n'ai même pas de fichier consultable avec un navigateur.

En gros, ma question est bien entendu de savoir s'il est possible de n'aspirer qu'une partie d'un site, et si oui, comment. Je suis sûr qu'il y a moyen, mais je ne suis pas doué.

Quoi qu'il en soit, merci d'avance
0