Aspirer des données d'un site
Nicolas92
-
sebsauvage Messages postés 33284 Date d'inscription Statut Modérateur Dernière intervention -
sebsauvage Messages postés 33284 Date d'inscription Statut Modérateur Dernière intervention -
Bonjour à tous et à toutes,
Je souhaiterai savoir s'il existe un logiciel permettant de récupérer des données en temps-réel d'un site internet ???
Je m'explique, un site internet met à disposition des graphiques qui me permettraient d'alimenter un modèle et je souhaiterai effectuer un lien entre ce site internet et mon modèle afin de l'alimenter en temps réel.
J'ai entendu parler d'aspirateur de site ou de Webcrawler, quelqu'un pourrait-il m'expliquer le mode de fonctionnement de ces logiciels ?
Merci d'avance à tous ceux et toutes celles qui accorderont du temps à ce post.
Je souhaiterai savoir s'il existe un logiciel permettant de récupérer des données en temps-réel d'un site internet ???
Je m'explique, un site internet met à disposition des graphiques qui me permettraient d'alimenter un modèle et je souhaiterai effectuer un lien entre ce site internet et mon modèle afin de l'alimenter en temps réel.
J'ai entendu parler d'aspirateur de site ou de Webcrawler, quelqu'un pourrait-il m'expliquer le mode de fonctionnement de ces logiciels ?
Merci d'avance à tous ceux et toutes celles qui accorderont du temps à ce post.
A voir également:
- Aspirer des données d'un site
- Wannonce nouveau site - Guide
- Wannonce site fermé - Guide
- Site x - Guide
- Site de telechargement - Accueil - Outils
- Trier des données excel - Guide
2 réponses
HTTrack gratuit et puissant.
Mais pour tu temps (presque) réel, on peut très bien faire un curl en boucle.
https://curl.se/
Gratuit, efficace aussi, curl.
Mais pour tu temps (presque) réel, on peut très bien faire un curl en boucle.
https://curl.se/
Gratuit, efficace aussi, curl.
HTTrack créé une copie local (sur ton disque dur) d'un site ou d'une partie d'un site.
Il récupère toutes les pages, images, etc.
curl est conçu pour récupérer une seule chose (une page, ou une image).
exemple:
curl https://sebsauvage.net/images/nbt_gros_oeil.gif
En faisant une boucle, on peut très bien lui faire récupérer une image toute les 10 secondes, par exemple.
Il récupère toutes les pages, images, etc.
curl est conçu pour récupérer une seule chose (une page, ou une image).
exemple:
curl https://sebsauvage.net/images/nbt_gros_oeil.gif
En faisant une boucle, on peut très bien lui faire récupérer une image toute les 10 secondes, par exemple.
Pourrais-tu m'expliquer le principe et le mode de fonctionnement des deux logiciels que tu m'as conseillé ?
Je suis totalement novice en la matière.
Merci d'avance