Généralisation d'1 réseau _neurones régresseu
mouleo1984
Messages postés
2
Date d'inscription
Statut
Membre
Dernière intervention
-
mouleo1984 Messages postés 2 Date d'inscription Statut Membre Dernière intervention -
mouleo1984 Messages postés 2 Date d'inscription Statut Membre Dernière intervention -
Bonjour,
je suis un débutant en réseau de neurones, et j'ai eu à lire certains écrits sur les réseaux de neurones. Un réseau de neurones à MLP avec la méthode de rétro-propagation est celui qui me tient à réalisation. Jusque là, j'ai pu établir une regréssion assez parfaite en 300 itérations avec un réseau à 2couches dont 2 neurones pour la couche cachée et 1 pour la sortie afin d'approximer une fonction carrée.
Ce qui me paraît bizarre, c'est que dans les ouvrages et sites que j'ai eu à consulter, on précise qu'il faut rechercher les poids wi dans un intervalle [ -0.5 0.5] afin qu'il ne dépasse jamais = ou - 1.
Etonnant chez moi, est que ma regression est impécable seulement que mes poids dépassent 1 parfois et quand je cherche à calculer la sortie pour une entrée Xi appris, il me donne une fausse réponse. d'où la généralisation est fausse.
Je précise que pour l'algorithme de rétropropagation avec MLP que j'ai suivi, je fais la mise à jour des poids pour chaque couple (Xi, Yi) de la base d'apprentissage.
J'aimerais que si quelqu'un a un peu de son temps à me consacrer, qu'il m'explique un peu les points d'ombre de mon problème et ce qu'il faut que je revoie ou soit que l'on puisse me référer vers certains programme type écrit en C ou C++. Ou encore que me résume un algorithme que je pourrai suivre afin de pouvoir réusir et palier à ces bizarerie de la généralisation que je connais actuellement avec mon réseau.
je vous en prie, il me le faut au plus tôt car j'ai en bien besoin pour finir un TP à l'école.
Merci, je vous en suis très reconnaissant.
Fréjus
je suis un débutant en réseau de neurones, et j'ai eu à lire certains écrits sur les réseaux de neurones. Un réseau de neurones à MLP avec la méthode de rétro-propagation est celui qui me tient à réalisation. Jusque là, j'ai pu établir une regréssion assez parfaite en 300 itérations avec un réseau à 2couches dont 2 neurones pour la couche cachée et 1 pour la sortie afin d'approximer une fonction carrée.
Ce qui me paraît bizarre, c'est que dans les ouvrages et sites que j'ai eu à consulter, on précise qu'il faut rechercher les poids wi dans un intervalle [ -0.5 0.5] afin qu'il ne dépasse jamais = ou - 1.
Etonnant chez moi, est que ma regression est impécable seulement que mes poids dépassent 1 parfois et quand je cherche à calculer la sortie pour une entrée Xi appris, il me donne une fausse réponse. d'où la généralisation est fausse.
Je précise que pour l'algorithme de rétropropagation avec MLP que j'ai suivi, je fais la mise à jour des poids pour chaque couple (Xi, Yi) de la base d'apprentissage.
J'aimerais que si quelqu'un a un peu de son temps à me consacrer, qu'il m'explique un peu les points d'ombre de mon problème et ce qu'il faut que je revoie ou soit que l'on puisse me référer vers certains programme type écrit en C ou C++. Ou encore que me résume un algorithme que je pourrai suivre afin de pouvoir réusir et palier à ces bizarerie de la généralisation que je connais actuellement avec mon réseau.
je vous en prie, il me le faut au plus tôt car j'ai en bien besoin pour finir un TP à l'école.
Merci, je vous en suis très reconnaissant.
Fréjus
A voir également:
- Généralisation d'1 réseau _neurones régresseu
- Entrer les informations d'identification reseau - Guide
- Le message n'a pas été envoyé car le service n'est pas activé sur le réseau - Forum Xiaomi
- Partage reseau - Guide
- Opérateur de réseau mobile - Guide
- Nous n'avons pas pu nous connecter à ce réseau ✓ - Forum Livebox