Aspirer des données d'un site
Nicolas92
-
sebsauvage Messages postés 33415 Statut Modérateur -
sebsauvage Messages postés 33415 Statut Modérateur -
Bonjour à tous et à toutes,
Je souhaiterai savoir s'il existe un logiciel permettant de récupérer des données en temps-réel d'un site internet ???
Je m'explique, un site internet met à disposition des graphiques qui me permettraient d'alimenter un modèle et je souhaiterai effectuer un lien entre ce site internet et mon modèle afin de l'alimenter en temps réel.
J'ai entendu parler d'aspirateur de site ou de Webcrawler, quelqu'un pourrait-il m'expliquer le mode de fonctionnement de ces logiciels ?
Merci d'avance à tous ceux et toutes celles qui accorderont du temps à ce post.
Je souhaiterai savoir s'il existe un logiciel permettant de récupérer des données en temps-réel d'un site internet ???
Je m'explique, un site internet met à disposition des graphiques qui me permettraient d'alimenter un modèle et je souhaiterai effectuer un lien entre ce site internet et mon modèle afin de l'alimenter en temps réel.
J'ai entendu parler d'aspirateur de site ou de Webcrawler, quelqu'un pourrait-il m'expliquer le mode de fonctionnement de ces logiciels ?
Merci d'avance à tous ceux et toutes celles qui accorderont du temps à ce post.
A voir également:
- Aspirer des données d'un site
- Fuite données maif - Guide
- Site de telechargement - Accueil - Outils
- Site pour partager des photos - Guide
- Site x - Guide
- Site pour vendre des objets d'occasion - Guide
2 réponses
HTTrack gratuit et puissant.
Mais pour tu temps (presque) réel, on peut très bien faire un curl en boucle.
https://curl.se/
Gratuit, efficace aussi, curl.
Mais pour tu temps (presque) réel, on peut très bien faire un curl en boucle.
https://curl.se/
Gratuit, efficace aussi, curl.
HTTrack créé une copie local (sur ton disque dur) d'un site ou d'une partie d'un site.
Il récupère toutes les pages, images, etc.
curl est conçu pour récupérer une seule chose (une page, ou une image).
exemple:
curl https://sebsauvage.net/images/nbt_gros_oeil.gif
En faisant une boucle, on peut très bien lui faire récupérer une image toute les 10 secondes, par exemple.
Il récupère toutes les pages, images, etc.
curl est conçu pour récupérer une seule chose (une page, ou une image).
exemple:
curl https://sebsauvage.net/images/nbt_gros_oeil.gif
En faisant une boucle, on peut très bien lui faire récupérer une image toute les 10 secondes, par exemple.
Pourrais-tu m'expliquer le principe et le mode de fonctionnement des deux logiciels que tu m'as conseillé ?
Je suis totalement novice en la matière.
Merci d'avance