Aspiration site urgente...

Richard -  
 Richard -
Salut à tous,
Je suis en trains d'essayer d'aspirer un site web (+forum qui l'accompagne) qui sera fermé le 29 Janvier et dont il ne sera conservé quasiment aucune information, il s'agit de www.battlestargalactica-online.com .

Un autre site va bientôt le remplacer. J'ai eu l'accord d'un administrateur pour l'aspirer mais avec winhttracks la page est vraiment moche et il n'y à aucune mise en forme... (Téléchargement de environ 2Go)
Avec webcopier la page est belle mais dans la partie des differentes séries en haut les images sont totalement inversées, par exemple firefly à l'image de stargate. Le logiciel est également très lent etc ne télécharge pas toutes les images...

Voila j'aurais besoin d'une aide si vous le pouvez car cette copie est vraiment urgente.
A voir également:

6 réponses

jean-thevenet Messages postés 23 Statut Membre
 
si tu trouve un ordinateur linux, lance la commande
wget -r -np http://www.battlestargalactica-online.com
-r veut dire récursive, et -np veut dire "non parent" évite d'aspirer un site annexe (lié)
il y aura peut être des fichiers au nom bizarre qui ne pouront pas se stocker sur d'autre partitions que les partitions linux (il feront échouer le copié collé dans un ordinateur windows)
pour pouvoir tout garder, il faut alors en faire une archive, la copier et puis la décompresser, les fichiers au noms bizarres ne seront pas extraits mais ne sont souvent pas utiles (il ne contiennent pas de contenu essentiels et servent au listing des répertoires en général)
0
jean-thevenet Messages postés 23 Statut Membre
 
une archive zip j'ai oublié de préciser...
0
Richard
 
Je dois pouvoir faire un live usb ubuntu.
Mais es ce que cela me mettra bien la mise en page.
Car avec toutes mes tentatives je n'ai eu aucun résultat convenable...

Merci.
0
jean-thevenet Messages postés 23 Statut Membre
 
il se peut que la mise en page soit assurée par des services externes au site.

mais en général ça marche assez bien.
mais les sites modernes sont de plus en plus "merdik" c'était bien plus simple avec netscape et front page de la vieille époque (le millénaire précédent) de s'échanger du contenu. on la paie cher cette mise en page, et en plus nous pourrions faire des résultats assez proche sans étaler la demande sur des tonnes de serveus annexes, car en plus cette "manie" d'interconnecter des serveurs pour par exemple afficher des boutons ou exccuter des scripts placés sur d'autres serveurs coûte très cher en énergie, donc en nuisance écologique et comme tu le vois, ne facilite pas l'archivage.
va falloir réinventer le web.
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
jean-thevenet Messages postés 23 Statut Membre
 
pour le résultat dis nous quand même ce que ça donne, ça sera toujours un résultat d'expérience...
0
Richard
 
Euh j'ai pris Internet Download Manager qui est pas mal pour ce type d'action.
Je tenterais avec ubuntu demain.
Pour ce qui est de l'interconnexion des serveurs, je suis totalement d'accord cela fait consommer plus.
Par exemple pour insérer une image sur un site des fois on ne l'upload pas sur le serveur mais sur un hébergeur... Cela consomme.

Je tente demain merci beaucoup =)
0