A voir également:
- Telecharger tous les pdf d'un site
- Télécharger tous les pdf d'une page - Meilleures réponses
- Extraire pdf d'une page web - Meilleures réponses
- Récupérer les pdf d'une page web. ✓ - Forum - Linux / Unix
- Extraire les fichiers pdf d'une page web - Forum - PDF
- Https //www.site fictif.f/telechargement/formulaires/remplir.pdf url corrigée ✓ - Forum - Programmation
- Telecharger video de n'importe quel site en ligne ✓ - Forum - Vidéo / TV / BoxTV
- Telecharger videos depuis N'IMPORTE quel site ✓ - Forum - Logiciels
10 réponses
crack40
- Messages postés
- 973
- Date d'inscription
- dimanche 10 août 2008
- Statut
- Membre
- Dernière intervention
- 21 mars 2013
Merci de m'avoir répondu si vite,
Alors j'ai récupérer un fichier htlm, mais je ne trouve pas les pdf.
Alors j'ai récupérer un fichier htlm, mais je ne trouve pas les pdf.
jipicy
- Messages postés
- 40805
- Date d'inscription
- jeudi 28 août 2003
- Statut
- Modérateur
- Dernière intervention
- 10 août 2020
Salut,
wget -A.pdf URL
crack40
- Messages postés
- 973
- Date d'inscription
- dimanche 10 août 2008
- Statut
- Membre
- Dernière intervention
- 21 mars 2013
En fait je peut téléchargé les pds que par un par un.
jipicy
- Messages postés
- 40805
- Date d'inscription
- jeudi 28 août 2003
- Statut
- Modérateur
- Dernière intervention
- 10 août 2020
Oui mais ce n'est pas le but, et c'est ce qu'est sensée faire l'option "-A.pdf", à savoir tous les pdf et non pas un !
Je ne comprends pas ;-((
Espérons que quelqu'un saura nous en dire plus...
Je ne comprends pas ;-((
Espérons que quelqu'un saura nous en dire plus...
ploted
Bonjour,
la commande wget est bonne il manque juste l'option -r qui donne cela :
wget -r -A.pdf http://tonsiteoutuveuxrecuplespdf.com
et la ça fonctionne parfaitement ;)
la commande wget est bonne il manque juste l'option -r qui donne cela :
wget -r -A.pdf http://tonsiteoutuveuxrecuplespdf.com
et la ça fonctionne parfaitement ;)
jipicy
- Messages postés
- 40805
- Date d'inscription
- jeudi 28 août 2003
- Statut
- Modérateur
- Dernière intervention
- 10 août 2020
Effectivement ;-((
Pourtant la page de man et tous les exemples sur le web donnent cette syntaxe (ou -A "*.pdf") mais même comme ça, ça marche pô ;-(((
Désolé.
Pourtant la page de man et tous les exemples sur le web donnent cette syntaxe (ou -A "*.pdf") mais même comme ça, ça marche pô ;-(((
Désolé.
crack40
- Messages postés
- 973
- Date d'inscription
- dimanche 10 août 2008
- Statut
- Membre
- Dernière intervention
- 21 mars 2013
En fait je un programme ou plugin comme "DownloadHelper", qui permet entre autre de récupérer plusieurs fichier multimédia, mais pour les pdf.
crack40
- Messages postés
- 973
- Date d'inscription
- dimanche 10 août 2008
- Statut
- Membre
- Dernière intervention
- 21 mars 2013
UP!
crack40
- Messages postés
- 973
- Date d'inscription
- dimanche 10 août 2008
- Statut
- Membre
- Dernière intervention
- 21 mars 2013
Salut,
Je reviens vers vous dire que trouvé comment faire, j'utilise "webhttrack" pour ubuntu:
Instalation et untilisation: http://doc.ubuntu-fr.org/httrack
Je reviens vers vous dire que trouvé comment faire, j'utilise "webhttrack" pour ubuntu:
Instalation et untilisation: http://doc.ubuntu-fr.org/httrack
crack40
- Messages postés
- 973
- Date d'inscription
- dimanche 10 août 2008
- Statut
- Membre
- Dernière intervention
- 21 mars 2013
Ben en fait, il ne m'enregistre que la page web sans le dossier des pièces de cette page. Sur cette page il y a des liens pdf, quand clip dessus il me le fais télécharger.
J'espère que tu me comprend.
J'espère que tu me comprend.
Laurent
Salut,
Si je me contente de "wget http://ww1.mapage.com/avecdespdf.html -A pdf" je demande uniquement de charger le fichier "avecdespdf.html". Même si je passe l'option accept, qui dans ce cas ne sert qu'a faire joli. Il ne faut pas oublier que wget comme tout les crawler, bot et autre navigateurs ne fait que charger des fichiers un par un.
Dans ce cas je n'ai pas spécifié de suivre de liens, donc wget ne les suivra pas, ce qui est logique. C'est pareil pour un navigateur : c'est pas parce que je demande une page que ça sous entend que je vais suivre tous les liens automatiquement, vous imaginez le bordel que ça serait et ça s'arrêterait quand ?
Il faut spécifier que l'on veut suivre les liens avec l'option de récursivité qui est implicitement paramétré pour une profondeur de 5. Si je ne veux que les fichiers en lien sur la page spécifié je doit indiquer une profondeur de 1. Si j'en reste la, je récupère tout les fichiers. Si je ne veux que les pdf, les jpg, les deux ou encore les fichiers ayant un certain nom, je filtre avec l'option accept (Specify comma-separated lists of file name suffixes or patterns to accept or reject. Note that if any of the wildcard characters, *, ?, [ or ], appear in an element of acclist or rejlist, it will be treated as a pattern, rather than a suffix.).
Donc la commande devient :
Voilou.
Si je me contente de "wget http://ww1.mapage.com/avecdespdf.html -A pdf" je demande uniquement de charger le fichier "avecdespdf.html". Même si je passe l'option accept, qui dans ce cas ne sert qu'a faire joli. Il ne faut pas oublier que wget comme tout les crawler, bot et autre navigateurs ne fait que charger des fichiers un par un.
Dans ce cas je n'ai pas spécifié de suivre de liens, donc wget ne les suivra pas, ce qui est logique. C'est pareil pour un navigateur : c'est pas parce que je demande une page que ça sous entend que je vais suivre tous les liens automatiquement, vous imaginez le bordel que ça serait et ça s'arrêterait quand ?
Il faut spécifier que l'on veut suivre les liens avec l'option de récursivité qui est implicitement paramétré pour une profondeur de 5. Si je ne veux que les fichiers en lien sur la page spécifié je doit indiquer une profondeur de 1. Si j'en reste la, je récupère tout les fichiers. Si je ne veux que les pdf, les jpg, les deux ou encore les fichiers ayant un certain nom, je filtre avec l'option accept (Specify comma-separated lists of file name suffixes or patterns to accept or reject. Note that if any of the wildcard characters, *, ?, [ or ], appear in an element of acclist or rejlist, it will be treated as a pattern, rather than a suffix.).
Donc la commande devient :
wget http://ww1.mapage.com/avecdespdf.html -r -l 1 -A pdf
Voilou.