Crées un scraper qui recherche des sites internet

Enygma -  
 Enygma -
Bonjour,
Je travaille depuis pas mal de temps sur un projet, mais je block sur la façon de créer un scraper qui vas tout seul chercher et retourner les Urls de site qu'il a trouver selon des paramètres précis, du genre le contenu du site ou encore sur un sujet précis ( ex : la maçonnerie )
Auriez-vous des idées à me proposer ?
Merci d'avance !



Configuration: Android / Chrome 88.0.4324.93
A voir également:

3 réponses

yg_be Messages postés 23541 Date d'inscription   Statut Contributeur Dernière intervention   Ambassadeur 1 584
 
bonjour, bizarre que tu sois bloqué depuis pas mal de temps.
peux-tu nous montrer ce que tu as réalisé pendant tout ce temps? nous pourrons sans doute t'aider à l'améliorer!
0
Enygma
 
Bonsoir,
Je pense que tu n'as pas comprie la question ;).
Je suis sur un gros projet et dans celui-ci j'aurais besoins d'un scraper un peux spéciale, comme je l'ai expliqué, mais je ne trouve rien sur sa.
0
yg_be Messages postés 23541 Date d'inscription   Statut Contributeur Dernière intervention   1 584 > Enygma
 
0
devGnode
 
Tu veux le faire toi même ? tu cherche des outils fait pour ? ou tu cherche une Framework prête d'utilisation ?

Cdlt,
0
Enygma
 
Bonjour,
Oui exactement je voudrais le faire moi-même avec les outils adapté, mais malheureusement je ne connais pas c'est outils.

Cdlt
0
devGnode > Enygma
 
Dak

- le scraping s'apparente à l'automatisation tu as plusieurs petite framework qui font ça :

- Sélénium/Webdriver ( Java, c#, python ) [ Firefox, Edge, Explorer, Opera, Chrome ]
- Beautiful Soup ( python )
- puppeteer, CasperJS ( nodeJs ) [ chrome ]

Attention à puppeteer il utilise le mode headless, aucun webbrowser ne s'ouvrira ( donc tu ne verra pas les actions visuelles ) je te conseille celui là personnellement mais dès lors que tu maitrisera le sujet. Pour débuter essaie Sélénium, une fois prit en main toutes les Framework se ressembles et tu pourra passer en mode headless avec puppeteer.


Cdlt,
0
Enygma > devGnode
 
Merci pour t'es conseils précieux !
Mais esque un framewrok permet de faire des recherches internet, et si oui comment ?
J'ai cherché toute la journée comment faire via tout les frameworks que tu mas conseiller mais j'ai pas trouvé...
Pourrais tu m'expliquer ?
Merci beaucoup

Cdlt
0
Enygma > devGnode
 
Desoler je sais je suis un peux un Bambi :)
0
devGnode Messages postés 17 Date d'inscription   Statut Membre Dernière intervention   2 > Enygma
 
Yap, si tu est un bambi dans le domaine, je vais te prévenir d'avance sur ces Framework il y a peux de tuto de A-Z comme le site du zéro, la documentation est majoritairement en Anglais, beaucoup de code non structuré, il y a Page Object Pattern qui est une bonne pratique de mise en place mais peu mettre un certains temps à s'en approprié correctement et fonctionnellement.

Ton but est de réaliser une navigation sur un domaine et d'en extraire les liens si j'ai bien comprit et tout cela automatiquement ( après que les liens sont en lien avec la maçonnerie ou autre ça c'est ton algo qui va gérer ).

Sélénium va te permette de réaliser le comportement humain sur un site automatiquement afin d'en extraire les données souhaitées.

regarde le minimal exemple sur le site de Sélénium :

https://www.selenium.dev/documentation/en/

- Initialisation du WebDriver
- Navigation vers ...
- Récupération des éléments ( en locurrence des liens donc tous les selecteurs de type "a" )
driver.findElements( By.xpath("//a") )

- Fermeture du WebDriver.
- Traitement des données. ton algo → ( parsing, push en DB ... )

Regarde la doc sur la Framework :

- WebDriver
- WebElement
- Action
- Waiter
- By

Il donne un exemple en Javascipt donc un npm doit être disponible, qui pourrait être plus facile à utiliser que le Java ou autre.
0
Phil_1857 Messages postés 1872 Date d'inscription   Statut Membre Dernière intervention   168
 
je vais tester ça ce soir
vu que je n'en n'ai plus
0