Solutions pour récupérer contenu page web ?

jerémiethe7 Messages postés 153 Statut Membre -  
kilian Messages postés 8854 Statut Modérateur -
Bonjour,
j'ai souhaiterais savoir comment faire pour récupérer le code source d'une page web automatiquement et de l'enregistrer dans un fichier texte. Je sais faire la manip' manuellement mais pas en programmation. Je travaille en C mais bon s'il n'ay a pas de moyens en C, je pourrais essayer dans un autre language. Après pas de procblèmes par contre je sais ouvrir les fichier txt avec fopen.
Merci pour l'aide !!
A voir également:

4 réponses

kilian Messages postés 8854 Statut Modérateur 1 526
 
Oui! Dans un monde de bisounours où il n'existe que windows c'est vrai:
https://forum.hardware.fr/hfr/Programmation/C-2/recuperer-infos-parsing-sujet_107712_1.htm#t1608099

Je n'ai pas menti: il n'existe pas de fonction standard en C pour récupérer une page web.
Je n'ai pas parlé des fonctions natives à un système d'exploitation.

Il y a des fonctions sous windows pour faire ça, mais ça reste une librarie comme une autre. Alors quelle est la meilleure solution à donner? Celle qui ne passera que sous windows ou celle qui sera portable et libre?
1
kilian Messages postés 8854 Statut Modérateur 1 526
 
Salut,

Si, il y a un moyen en C. J'ai fait une astuce dessus vu que c'est une question qui revient de temps en temps.
J'aurais voulu mettre également la procédure à suivre sous Windows mais comme j'ai pas windows...
En plus ya une partie qui est différente (compilation, édition de lien) entre Visual C++, Dev c++, Borland C++ etc... pour utiliser la libcurl sous Windows.
Mais c'est tout à fait faisable d'utiliser ce que j'ai mis dans cette astuce avec Windows.... Faudra chercher un peu...

C'est quoi ton compilateur?
0
steph
 
l'autre reponse est bidon car i lexiste evidemment des apis natives pour récupérer une oage web !

voir sur news://fr.comp.os.ms-windows.programmation
ou ça a été donné x fois...
0
jerémiethe7 Messages postés 153 Statut Membre 32
 
j'utilise Dev C++
0