Entropie d'une image

ghadatou -  
 Ferah -
Bonjour,


l'entropie d'une image est défini par

ENT=somme ( - p(i,j) log (p(i,j) )

ma question est: que represente le signe -

merci d'avance
A voir également:

11 réponses

Nico
 
L'entropie est une valeur positive, le logarithme d'une probabilité est toujours négatif car 0<=p(x)<=1, donc log(p(x)) <=0.

Il faut donc multiplier par -1 pour obtenir une valeur positive de l'entropie.

L'entropie d'une image est un indicateur de sa complexité.
Si l'image est uniforme et ne possède qu'une couleur, son entropie est nulle.
Plus l'entropie est élevé, plus l'image est "aléatoire".
6
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
Yeap!!!
Mais juste un mot, La question est pertinente. Par rapport a une definition stricte de l'entropie, pour ghadatou, rien ne justifie un discriment négatif. Le log provient d'une integrale, mais laquelle ?
0
ghadatou
 
merci Nico et fallentree

juste une dernière question: pourquoi on utilise le log décimal?

encore merci
0
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
En gros l entropie c'est une energie a travers une surface
E=integrale de angle de 0 à 2 pi de l'energie
quand tu resouds le truc tu as les angles qui solvent en fonction du rayon et tu as un inverse de X ou Rayon comme tu veux qui apparait...
Du coups tu as ton ln X
Dans le cas de probabilité sur un echantillon de particule à valeur deterministe log(p(x))

Il doit bien y avoir la demonstration quelque part ..

C est peut etre comme ca que je m en suis souvenu voila la definition de l'Entropie d une partition..
https://fr.wikipedia.org/wiki/Entropie_m%C3%A9trique
0
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
Il semblerait que le Entropie d une partition, soit la moyenne de la fonction sur l'ensemble mesurables. d ou le 1/X que l on cherche.
0
cddcdd Messages postés 1 Date d'inscription   Statut Membre Dernière intervention  
 
Merci pour ce détails:
"L'entropie d'une image est un indicateur de sa complexité.
Si l'image est uniforme et ne possède qu'une couleur, son entropie est nulle.
Plus l'entropie est élevé, plus l'image est "aléatoire"."
0
mask12347 Messages postés 1 Date d'inscription   Statut Membre Dernière intervention   1
 
l'entropie est superieur a zero , elle tend au désordre , par contre la densité de probabilté est inferieur a 1 donc le log est inferieur a zero , d'ou le signe (-)
1
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
C est pas le log qui est negatif ..
0
ghadatou
 
je sais mais il y'a bien un signe - et je cherche une explication pour ce signe
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
rappelle moi la definition stricte de l entropie:
C'est une energie a travers une surface NON ?
0
ghadatou
 
non ca concerne le traitement d'image
c'est un indicatif de désordre
0
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
Oui mais cette notion est relative si dans la formule strict c est un ln... Le calcul de prob peut facilement introduire un -, Non ?
0
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
L'entropie définie selon Boltzmann serait alors égale à :

S = k Ln ?(ordonnée) = 0 (le système est parfaitement ordonné)

https://fr.wikipedia.org/wiki/Entropie#Vulgarisation
0
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
Log=Ln/Ln10
Et en plus une entropie est toujours positive
0
ghadatou
 
oui c'est un log décimal mais le signe - est ce qu'il explique une perte de la quantité d'info ou quoi?
0
Fallentree Messages postés 2309 Date d'inscription   Statut Membre Dernière intervention   209
 
Si je me trompe pas log d une prob est toujours <0.
Si limage est completement unforme, j aurais ENT=0 Correct a la definition entropie stable =0
Deux couleurs ENT = - 0.3 ???????????????
0