Télécharger plusieur image en meme temp
Fermé
Duaner91
Messages postés
1
Date d'inscription
lundi 20 février 2012
Statut
Membre
Dernière intervention
20 février 2012
-
20 févr. 2012 à 17:52
Utilisateur anonyme - 25 nov. 2012 à 15:40
Utilisateur anonyme - 25 nov. 2012 à 15:40
A voir également:
- Télécharger plusieur image en meme temp
- Comment télécharger une vidéo youtube - Guide
- Telecharger whatsapp pour pc - Télécharger - Messagerie
- Télécharger youtube gratuit en arabe - Télécharger - TV & Vidéo
- Image iso - Guide
- Telecharger image iso windows 10 - Guide
1 réponse
Utilisateur anonyme
Modifié par gamnamno le 25/11/2012 à 15:43
Modifié par gamnamno le 25/11/2012 à 15:43
Pour télécharger les images des résultats de recherche google, je crois qu'il n'y a pas de technique.
Mais pour télécharger toutes les images d'un site ou d'une page, c'est possible et même facile.
Si toutes les images (ou n'importe quels fichiers) que l'on veut sont dans la même page (et en taille réelle, pas en aperçu), il suffit de faire "Fichier -> Enregistrer sous..." (pour firefox comme pour Internet Explorer), avant d'enregistrer, il faut sélectionner "Page web complète" dans le menu déroulant en bas de la fenêtre.
Et ça enregistre un fichier .htm et un dossier qui contient tous les fichiers de la page. Attention, si tu supprimes le fichier htm, ça supprime le dossier automatiquement. Pour garder les fichiers qu'on veut, on les copie ailleurs, et on peut ensuite supprimer le fichier htm et le dossier.
En revanche, si les images (ou les fichiers) sont dans des pages différentes du même site, il faut ce qu'on appelle un aspirateur de site web.
Parmi les gratuits, le plus performant est Httrack.
Site officiel: http://www.httrack.com/
Par contre, il faut forcément lire un peu le manuel pour savoir s'en servir.
Il y a des codes à taper, par exemple pour filtrer ce qu'on veut télécharger.
Par exemple si on ne veut que des images au format .jpg ou .png avec une taille minimale de 50 Ko, on peut entrer des codes et ça ne télécharge rien d'autre, ça peut faire gagner un temps fou (surtout quand on choisit l'option "aspirer tous les sites dans les pages" qui va chercher dans les liens qui donnent sur d'autres sites internet)
Sinon, il y a aussi Website Ripper Copier dont la version d'essai gratuite permet de télécharger jusqu'à 500 fichiers par site (ou par projet) pendant 30 jours.
Moi je l'ai utilisé aussi parce-que des fois même en connaissant les codes de Httrack je n'y arrivais pas pour certains sites, et ça marchait avec lui. En plus, dans celui-ci, il n'y a pas de code à écrire.
Voilà, j'espère que c'est suffisant.
Ah, et n'essaie pas d'aspirer les résultats de recherche Google, ça ne marche pas, ou alors c'est très compliqué.
Mais pour télécharger toutes les images d'un site ou d'une page, c'est possible et même facile.
Si toutes les images (ou n'importe quels fichiers) que l'on veut sont dans la même page (et en taille réelle, pas en aperçu), il suffit de faire "Fichier -> Enregistrer sous..." (pour firefox comme pour Internet Explorer), avant d'enregistrer, il faut sélectionner "Page web complète" dans le menu déroulant en bas de la fenêtre.
Et ça enregistre un fichier .htm et un dossier qui contient tous les fichiers de la page. Attention, si tu supprimes le fichier htm, ça supprime le dossier automatiquement. Pour garder les fichiers qu'on veut, on les copie ailleurs, et on peut ensuite supprimer le fichier htm et le dossier.
En revanche, si les images (ou les fichiers) sont dans des pages différentes du même site, il faut ce qu'on appelle un aspirateur de site web.
Parmi les gratuits, le plus performant est Httrack.
Site officiel: http://www.httrack.com/
Par contre, il faut forcément lire un peu le manuel pour savoir s'en servir.
Il y a des codes à taper, par exemple pour filtrer ce qu'on veut télécharger.
Par exemple si on ne veut que des images au format .jpg ou .png avec une taille minimale de 50 Ko, on peut entrer des codes et ça ne télécharge rien d'autre, ça peut faire gagner un temps fou (surtout quand on choisit l'option "aspirer tous les sites dans les pages" qui va chercher dans les liens qui donnent sur d'autres sites internet)
Sinon, il y a aussi Website Ripper Copier dont la version d'essai gratuite permet de télécharger jusqu'à 500 fichiers par site (ou par projet) pendant 30 jours.
Moi je l'ai utilisé aussi parce-que des fois même en connaissant les codes de Httrack je n'y arrivais pas pour certains sites, et ça marchait avec lui. En plus, dans celui-ci, il n'y a pas de code à écrire.
Voilà, j'espère que c'est suffisant.
Ah, et n'essaie pas d'aspirer les résultats de recherche Google, ça ne marche pas, ou alors c'est très compliqué.