Wget
Résolu
sdblepas
Messages postés
33
Date d'inscription
Statut
Membre
Dernière intervention
-
sdblepas Messages postés 33 Date d'inscription Statut Membre Dernière intervention -
sdblepas Messages postés 33 Date d'inscription Statut Membre Dernière intervention -
Salut
J'essaie de télécharger tout les .doc d'un site internet (libre de droit). Pour ca j'ai écris un petit script:
#!/bin/bash
for ((i=1;i<9999;i++));
do
#wget --random-wait -r -p -e -A '*.docb' robots=off -U mozilla "http://www.docgratuits.com/newsendoc.php?id=$i&format=doc"
Done
Ca marche mais chaque nouveau doc efface le précédent est ce que quelqu'un sait pourquoi?
Merci
J'essaie de télécharger tout les .doc d'un site internet (libre de droit). Pour ca j'ai écris un petit script:
#!/bin/bash
for ((i=1;i<9999;i++));
do
#wget --random-wait -r -p -e -A '*.docb' robots=off -U mozilla "http://www.docgratuits.com/newsendoc.php?id=$i&format=doc"
Done
Ca marche mais chaque nouveau doc efface le précédent est ce que quelqu'un sait pourquoi?
Merci
A voir également:
- Wget
- Wget pour windows - Télécharger - Web & Internet
- Wget - ignorer 500 internal server error ✓ - Forum Linux / Unix
- Récupérer des fichiers via wget et SFTP ✓ - Forum Programmation
- Problème bash avec wget erreur 403 Forbidden ✓ - Forum Shell
3 réponses
Salut,
-A '*.docb'
C'est normal ce "b" en fin d'extension ?
Essaye avec des quotes doubles :
-A '*.docb'
C'est normal ce "b" en fin d'extension ?
Essaye avec des quotes doubles :
-A "*.doc"
bonjour
le b est une erreur de typo
Ca fais pareil avec "
MErci quand meme
le b est une erreur de typo
Ca fais pareil avec "
MErci quand meme
voila
#!/bin/bash
for ((i=1;i<9999;i++));
do
#wget --random-wait -r -p -e -A "*.epub" robots=off -U mozilla "http://www..com/.php?id=$i&format=epub"
wget -r -l5 -k -E -A -O "*.epub" robots=off -U mozilla "http://www..com/.php?id=$i&format=epub"
#wget -r -l5 -k -E -A -O '*.epub' "http://www..com/.php?id=$i&format=epub"
#wget -r -l5 -k -E -A -O '*.epub' "http://www..com/.php?id=$i&format=epub"
done
j'ai fais plusieurs eesaie comme tu peux le voir
Si j'enleve le param. -A .epub alors ca marche mais ca telecharge plein de fichier que je veux pas :)
MERCI
#!/bin/bash
for ((i=1;i<9999;i++));
do
#wget --random-wait -r -p -e -A "*.epub" robots=off -U mozilla "http://www..com/.php?id=$i&format=epub"
wget -r -l5 -k -E -A -O "*.epub" robots=off -U mozilla "http://www..com/.php?id=$i&format=epub"
#wget -r -l5 -k -E -A -O '*.epub' "http://www..com/.php?id=$i&format=epub"
#wget -r -l5 -k -E -A -O '*.epub' "http://www..com/.php?id=$i&format=epub"
done
j'ai fais plusieurs eesaie comme tu peux le voir
Si j'enleve le param. -A .epub alors ca marche mais ca telecharge plein de fichier que je veux pas :)
MERCI
A mon avis c'est ta requête qui n'est pas bonne ;-\
Chaque lien "newsendbook.php?id=$i&format=epub" correspond à une page unique (et non à une page avec ses descendances) qui plus est le numéro d'ID ne correspond pas forcément à ton extension ;-((
Je ne pense pas d'ailleurs qu'il soit possible de faire ce que tu voulais au départ, une requête avec un format particulier, du moins avec cette commande ;-\
Chaque lien "newsendbook.php?id=$i&format=epub" correspond à une page unique (et non à une page avec ses descendances) qui plus est le numéro d'ID ne correspond pas forcément à ton extension ;-((
Je ne pense pas d'ailleurs qu'il soit possible de faire ce que tu voulais au départ, une requête avec un format particulier, du moins avec cette commande ;-\
Au cas ou tu n'aurais pas tout lu ;-((
https://www.ebooksgratuits.com/notice_util.php
Merci pour eux et pour nous ;-)
https://www.ebooksgratuits.com/notice_util.php
Limitations de téléchargement Le nombre de téléchargements par personne et par jour, est limité à 25 avec, également, une limite de téléchargement globale, pour tout le site, par 24h. Et, de manière générale, nous vous demandons de ne télécharger que ce dont vous avez besoin sur le moment, de ne pas stocker... de répartir au maximum vos téléchargements (si vous essayez de télécharger plusieurs livres simultanément, votre adresse IP peut être bannie, car c'est dommageable pour nos serveurs). C'est à ce « prix » que nous pourrons rester gratuits...
Merci pour eux et pour nous ;-)