Aspirateur de liens
Fermé
Paul
-
23 mai 2004 à 23:21
arnordi Messages postés 27 Date d'inscription mercredi 18 juin 2008 Statut Membre Dernière intervention 19 août 2011 - 30 juil. 2009 à 20:25
arnordi Messages postés 27 Date d'inscription mercredi 18 juin 2008 Statut Membre Dernière intervention 19 août 2011 - 30 juil. 2009 à 20:25
A voir également:
- Aspirateur de site android
- Site de telechargement - Guide
- Site de vente entre particulier - Guide
- Android recovery - Guide
- Site inaccessible - Guide
- Voir mot de passe wifi android - Guide
7 réponses
jipicy
Messages postés
40842
Date d'inscription
jeudi 28 août 2003
Statut
Modérateur
Dernière intervention
10 août 2020
4 895
23 mai 2004 à 23:24
23 mai 2004 à 23:24
Salut,
Installe Mozilla-Firefox comme navigateur, il a une fonction intégrée qui liste tous les liens de la page affichée :-))
http://frenchmozilla.sourceforge.net/thunderbird/
Z'@+...che.
Installe Mozilla-Firefox comme navigateur, il a une fonction intégrée qui liste tous les liens de la page affichée :-))
http://frenchmozilla.sourceforge.net/thunderbird/
Z'@+...che.
JP : Cap de burro Catalan ! Mais Content ;-)
Oui, en effet c'est très pratique, je n'avais jamais utilisé cette fonctionnalité de Firebird, merci pour le tuyau, mais de ta solution, il me vient une autre question, on ne peut que les visualiser, comment faire pour les enregistrer ?
Merci encore
Merci encore
foobar47
Messages postés
13536
Date d'inscription
jeudi 9 janvier 2003
Statut
Contributeur
Dernière intervention
16 mai 2014
532
23 mai 2004 à 23:57
23 mai 2004 à 23:57
salut,
utilise HTTRACK que tu trouveras sur www.telecharger.com
utilise HTTRACK que tu trouveras sur www.telecharger.com
foobar... quand on veut, on peut... pas de violence, c'est les vacances... tranquille !
Merci pour ta réponse foobar47,
HTTRACK est un aspirateur de site, mais peut on seulement enregistrer les liens sans télécharger le site en lui-même, avec ce logiciel ? ce n'est pas préciser dans la description sur telecharger.com.
Merci une nouvelle fois
HTTRACK est un aspirateur de site, mais peut on seulement enregistrer les liens sans télécharger le site en lui-même, avec ce logiciel ? ce n'est pas préciser dans la description sur telecharger.com.
Merci une nouvelle fois
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question
teutates
Messages postés
19624
Date d'inscription
vendredi 28 décembre 2001
Statut
Modérateur
Dernière intervention
2 janvier 2020
3 586
24 mai 2004 à 01:18
24 mai 2004 à 01:18
Bonjour,
Avec HTTTrack, tu peux régler le niveaux d'aspiration et mettre des filtres.
Sinon Leechget (en français et gratuit) http://www.leechget.de/
NetAnts (en français et gratuit)
Toco y se gausos !!!
Avec HTTTrack, tu peux régler le niveaux d'aspiration et mettre des filtres.
Sinon Leechget (en français et gratuit) http://www.leechget.de/
NetAnts (en français et gratuit)
Toco y se gausos !!!
foobar47
Messages postés
13536
Date d'inscription
jeudi 9 janvier 2003
Statut
Contributeur
Dernière intervention
16 mai 2014
532
24 mai 2004 à 08:55
24 mai 2004 à 08:55
et bah voilà !!
:-)
:-)
foobar... quand on veut, on peut... pas de violence, c'est les vacances... tranquille !
arnordi
Messages postés
27
Date d'inscription
mercredi 18 juin 2008
Statut
Membre
Dernière intervention
19 août 2011
30 juil. 2009 à 20:25
30 juil. 2009 à 20:25
Bonjour,
Je me pose ce qui me semble être la même question que celle de Paul.
J'ai déjà aspiré quelques (petits) sites complets, et ça marche très bien, mais comment fait-on pour n'aspirer que les liens qui dépendent d'une page en particulier ?
Par exemple, comment faire pour aspirer tous les liens qui auraient en commun une adresse du type : http://www.abc.com/def
J'ai essayé d'aspirer les adresses qui dépendent d'une adresse en particulier en copiant cette dernière, mais je n'ai même pas de fichier consultable avec un navigateur.
En gros, ma question est bien entendu de savoir s'il est possible de n'aspirer qu'une partie d'un site, et si oui, comment. Je suis sûr qu'il y a moyen, mais je ne suis pas doué.
Quoi qu'il en soit, merci d'avance
Je me pose ce qui me semble être la même question que celle de Paul.
J'ai déjà aspiré quelques (petits) sites complets, et ça marche très bien, mais comment fait-on pour n'aspirer que les liens qui dépendent d'une page en particulier ?
Par exemple, comment faire pour aspirer tous les liens qui auraient en commun une adresse du type : http://www.abc.com/def
J'ai essayé d'aspirer les adresses qui dépendent d'une adresse en particulier en copiant cette dernière, mais je n'ai même pas de fichier consultable avec un navigateur.
En gros, ma question est bien entendu de savoir s'il est possible de n'aspirer qu'une partie d'un site, et si oui, comment. Je suis sûr qu'il y a moyen, mais je ne suis pas doué.
Quoi qu'il en soit, merci d'avance