Créer 1 page web avec élements d'autres sites

Résolu/Fermé
Oryxus - 17 mars 2008 à 10:50
carbon3 Messages postés 470 Date d'inscription mercredi 20 février 2008 Statut Membre Dernière intervention 6 janvier 2013 - 17 mars 2008 à 16:01
Bonjour à tous,

J'utilise souvent mon PDA communicant à l'éxterieur de chez moi pour aller chercher des infos sur le net. Je fréquente toujours les mêmes pages et comme il y en a plusieurs, ça me coûte cher en temps et en communication.

Je souhaite donc savoir s'il est possible (et si oui, comment le faire) d'afficher sur une page web que je créée juste pour moi (pas de réferencement dans les moteurs...) où je peux faire figurer juste la partie du site qui m'intéresse.

Par exemple, une page composée du bulletin météo du jour, des cours de bourses de mes valeurs, etc, cadrée pile poil à l'information (sans toutes les pub, liens et autres que l'on trouve dans les marges, en haut, en bas ou sur les côté).

Je sais pas si j'ai été clair dans mes explications...
A voir également:

4 réponses

carbon3 Messages postés 470 Date d'inscription mercredi 20 février 2008 Statut Membre Dernière intervention 6 janvier 2013 73
17 mars 2008 à 11:12
salut, oui c'est possible
mais pas si simple
0
bg62 Messages postés 23661 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 30 novembre 2024 2 389
17 mars 2008 à 11:59
une petite balise 'robots' avec noindex, nofollow
et une restriction dans le fichier robots.txt ça devrait largement suffire ..
@+
b g
0
carbon3 Messages postés 470 Date d'inscription mercredi 20 février 2008 Statut Membre Dernière intervention 6 janvier 2013 73
17 mars 2008 à 12:06
salut,
pourrais-tu développer "restriction du robot.txt" ?
(ou m'envoyer vers un tuto) ça m'interesse d'en savoir plus.
Merci
0
bg62 Messages postés 23661 Date d'inscription samedi 22 octobre 2005 Statut Modérateur Dernière intervention 30 novembre 2024 2 389
17 mars 2008 à 15:30
faire une petite recherche et l'on trouve :
Webmastering - Référencement - Robots.txt
Le fichier robots.txt est un fichier texte contenant des commandes à destination des robots d'indexation des moteurs de recherche afin de leur préciser les pages qui peuvent ou ne peuvent pas être indexées. Ainsi tout moteur de recherche commence l'exploration d'un site web en cherchant le fichier robots.txt à la racine du site. Le fichier
www.commentcamarche.net/web/robots-txt.php3
@+
b g
0
carbon3 Messages postés 470 Date d'inscription mercredi 20 février 2008 Statut Membre Dernière intervention 6 janvier 2013 73
17 mars 2008 à 16:01
merci d'avoir quand même pris le temps de répondre ;-)

Mais je ne crois pas que ce soit en rapport avec sa demande.
ne demande-t-il pas de créer une page html avec des iframes contenant uniquement les blocs l'intéressant à partir des sites qu'il visite ?
<html>
<body>
<iframe src="[http://www.commentcamarche.net/rss/rss_forum_sans_reponses.php3"></iframe>
</body>
</html>
0