Aspiration site urgente...

Fermé
Richard - 17 janv. 2010 à 19:25
 Richard - 17 janv. 2010 à 20:46
Salut à tous,
Je suis en trains d'essayer d'aspirer un site web (+forum qui l'accompagne) qui sera fermé le 29 Janvier et dont il ne sera conservé quasiment aucune information, il s'agit de www.battlestargalactica-online.com .

Un autre site va bientôt le remplacer. J'ai eu l'accord d'un administrateur pour l'aspirer mais avec winhttracks la page est vraiment moche et il n'y à aucune mise en forme... (Téléchargement de environ 2Go)
Avec webcopier la page est belle mais dans la partie des differentes séries en haut les images sont totalement inversées, par exemple firefly à l'image de stargate. Le logiciel est également très lent etc ne télécharge pas toutes les images...

Voila j'aurais besoin d'une aide si vous le pouvez car cette copie est vraiment urgente.
A voir également:

6 réponses

jean-thevenet Messages postés 16 Date d'inscription dimanche 17 janvier 2010 Statut Membre Dernière intervention 25 février 2010
17 janv. 2010 à 19:29
si tu trouve un ordinateur linux, lance la commande
wget -r -np http://www.battlestargalactica-online.com
-r veut dire récursive, et -np veut dire "non parent" évite d'aspirer un site annexe (lié)
il y aura peut être des fichiers au nom bizarre qui ne pouront pas se stocker sur d'autre partitions que les partitions linux (il feront échouer le copié collé dans un ordinateur windows)
pour pouvoir tout garder, il faut alors en faire une archive, la copier et puis la décompresser, les fichiers au noms bizarres ne seront pas extraits mais ne sont souvent pas utiles (il ne contiennent pas de contenu essentiels et servent au listing des répertoires en général)
0
jean-thevenet Messages postés 16 Date d'inscription dimanche 17 janvier 2010 Statut Membre Dernière intervention 25 février 2010
17 janv. 2010 à 19:34
une archive zip j'ai oublié de préciser...
0
Je dois pouvoir faire un live usb ubuntu.
Mais es ce que cela me mettra bien la mise en page.
Car avec toutes mes tentatives je n'ai eu aucun résultat convenable...

Merci.
0
jean-thevenet Messages postés 16 Date d'inscription dimanche 17 janvier 2010 Statut Membre Dernière intervention 25 février 2010
17 janv. 2010 à 20:24
il se peut que la mise en page soit assurée par des services externes au site.

mais en général ça marche assez bien.
mais les sites modernes sont de plus en plus "merdik" c'était bien plus simple avec netscape et front page de la vieille époque (le millénaire précédent) de s'échanger du contenu. on la paie cher cette mise en page, et en plus nous pourrions faire des résultats assez proche sans étaler la demande sur des tonnes de serveus annexes, car en plus cette "manie" d'interconnecter des serveurs pour par exemple afficher des boutons ou exccuter des scripts placés sur d'autres serveurs coûte très cher en énergie, donc en nuisance écologique et comme tu le vois, ne facilite pas l'archivage.
va falloir réinventer le web.
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
jean-thevenet Messages postés 16 Date d'inscription dimanche 17 janvier 2010 Statut Membre Dernière intervention 25 février 2010
17 janv. 2010 à 20:25
pour le résultat dis nous quand même ce que ça donne, ça sera toujours un résultat d'expérience...
0
Euh j'ai pris Internet Download Manager qui est pas mal pour ce type d'action.
Je tenterais avec ubuntu demain.
Pour ce qui est de l'interconnexion des serveurs, je suis totalement d'accord cela fait consommer plus.
Par exemple pour insérer une image sur un site des fois on ne l'upload pas sur le serveur mais sur un hébergeur... Cela consomme.

Je tente demain merci beaucoup =)
0