Recuperer le contenu d'une page web

milsabor -  
Franzux Messages postés 9705 Statut Contributeur -
Bonjour,
Voici ce que j'aimerais faire :
J'ai l'adresse d'une page web dont j'aimerais recuperer le code source (disons toutes les 20 minutes) et enregistrer chaque rafraichissement de la page web dans un fichier sur mon ordinateur, qu'ensuite je traiterai hors ligne.
En fait j'aurais besoin de conseils globaux pour realiser cette tache, pas vraiement de details, j'ai de bonnes connaissances en info qui me permettront de me debrouiller, par contre j'ai du mal a commencer ( comment regler le probleme de la periodicite, quel langage utiliser, ...)
Merci !

A voir également:

1 réponse

Franzux Messages postés 9705 Statut Contributeur 1 145
 
Si tu es sous GNU/Linux, tu peux utiliser wget pour récupérer ta page et cron pour forcer la récupération toutes les 20 minutes.
0
milsabor
 
merci de ta reponse. Cette solution m'oblige a garder mon pc allume 24h/24 aussi. Il n'y a pas un moyen d'eviter ca ?
0
Franzux Messages postés 9705 Statut Contributeur 1 145
 
Ah non, si tu veux que ton pc fasse une action toutes les vingt minutes il faut le laisser allumer ou louer un serveur (ce qui revient à laisser un pc allumé tout de même...)
0
milsabor
 
Si par exemple je cree une page web bidon chez un hebergeur gratuit, il n'y a pas moyen de realiser la tache en langage serveur genre php ? Je pourrais meme parser la page web et stocker le tout dans une base de donnee, non ?
0
Franzux Messages postés 9705 Statut Contributeur 1 145
 
Même problème : il faut que tu aies accès au serveur pour permettre à la page de se lancer toutes les 20 minutes !
0