[Excel] Importer des infos d'un site web

iontius Messages postés 5 Statut Membre -  
 pseudo -
Bonjour à tous,

J espère recevoir l aide recherchée. Je voudrais "importer" vers un fichier excel par exemple une série d'adresse d'un site internet. Ce site contient des centaines d adresses (postale et autre ) de marchands de voitures d'occasions. Ceci m aiderai beaucoup si un système ou un petit prog. existerai pour récolter ses informations de manière automatique ou semi automatique. Sinon je vais devoir toutes les tappées à la main dans un fichier excell. Ce qui serait assez rébarbatif.

Merci de m aider le plus vite possible.
Franck
A voir également:

6 réponses

taggier
 
J'utilise depuis longtemps les logiciels de la gamme edip-soft, il sont stables, tu pourra extraire les pages jaunes et les pages blanches, et tu gagnera énormement de temps.

http://www.%65dipsof%74.com
5
lunarnet76 Messages postés 22 Statut Membre 1
 
Salut,

alors j'ai deux solutions a te proposer, enfin si j'ai bien compris ton probleme, tu veux recuperer le contenu de la page http://www.voiture.fr (c'est un exemple bidon)
et recupéré dedans certaines infos??? si oui je connais 2 méthodes en php ou en javascript(ajax)

en php:
function Curl($url,$params='',$method='post') {
$method=strtolower($method);
$user_agent = "Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)";
$ch = curl_init();
curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, FALSE);
curl_setopt($ch, CURLOPT_HEADER, 0);
curl_setopt($ch, CURLOPT_FOLLOWLOCATION,true);
curl_setopt($ch, CURLOPT_RETURNTRANSFER,1);
curl_setopt($ch, CURLOPT_USERAGENT, $user_agent);
curl_setopt($ch, CURLOPT_COOKIEJAR, "cookie_curl");
curl_setopt($ch, CURLOPT_COOKIEFILE, "cookie_curl");
curl_setopt($ch, CURLOPT_TIMEOUT, 25); //en seconde
if ($method=='post') {
if ($params!='')
curl_setopt($ch, CURLOPT_POSTFIELDS,$params);
curl_setopt($ch, CURLOPT_POST,1);
curl_setopt($ch, CURLOPT_URL,$url);
} else {
curl_setopt($ch, CURLOPT_URL,$url.(($params!='')?'?'.$params:''));
}
$v=curl_exec($ch);
if (curl_errno($ch)) {
return curl_error($ch);
} else {
curl_close($ch);
}
return $v;
}

la fonction te renvoi le contenu de la pagea l'url $url avec les paramétres $params, aprés tu n'a plus qu'a utiliser les fonctions de php pour choisir ce que tu veux dans cette variable.
ex:
$a=Curl('www.voiture.fr','marque=audi','GET');
$telephone1=strpos($a,0,20);

et voila!

sinon en ajax (donc javascript)
https://www.xul.fr/xml-ajax.html

j'espere que ca t'aidera!
1
iontius Messages postés 5 Statut Membre 5
 
merci beaucoup lunarnet76 mais la je dois passer ...
Je n y comprend rien ... ;-)
as tu la même reponse pour les nuls en informatique ?

Comment faire ? je croyais q'on savait telecharger un petit prog qui copierais toutes les infos de manière automatique ...

merci d avance pour votre aide ..

Franck
0
lunarnet76 Messages postés 22 Statut Membre 1
 
lol désolé je suis aller chercher trop loin,
bon je pense que la solution la plus simple c'est d'aller sur la page qui contient toutes tes adresses que tu veux recuperer par exemple http://www.voiture.fr et de faire dans ton navigateur : fichier / sauvegarder la page en html (ou fichier / sauvegarder la page), ensuite tu l'ouvre avec word et tu vire tout ce que tu ne veux plus, et ensuite tu transfert a excel^^

j espere que tu reussira^^
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
Marc78
 
Tu peux utiliser un programme comme annucapt (https://www.ebsoft.net/ ) il permet de récupérer les informations sur les pages jaunes, les pages pro... cela devrait te permettre de récupérer les sociétés que tu recherches.

Bon courage.
-476