Mesure de l'entropy sous Munin ???

Résolu/Fermé
MArsdu94 - 21 janv. 2008 à 09:33
bob031 Messages postés 8158 Date d'inscription samedi 7 août 2004 Statut Membre Dernière intervention 1 septembre 2014 - 25 janv. 2008 à 13:51
Bonjour,
J'ai installé munin qui fonctionne très bien sur ma debian seulement je ne parviens pas à savoir ce qu'est l'entropy ???
C'est un graphe que j'ai au niveau systeme et je ne sais pas ce que c'est...
Voilà c'est tout merci d'avance !!!

5 réponses

bob031 Messages postés 8158 Date d'inscription samedi 7 août 2004 Statut Membre Dernière intervention 1 septembre 2014 472
21 janv. 2008 à 12:00
Salut,

Entropy is the amount of data the os has in the 'entropy pool' that can be used to create random data.
source : http://forums.deftechgroup.com/showthread.php?t=1873

:-))

1
Ok Merci, en gros ça sert au chiffrement de données quoi...Plus l'entropy est grande plus le chiffrement sera aléatoire et donc efficace si j'ai tout suivi !!!
1
bob031 Messages postés 8158 Date d'inscription samedi 7 août 2004 Statut Membre Dernière intervention 1 septembre 2014 472
21 janv. 2008 à 13:12
en gros ça sert au chiffrement de données quoi

je crois avoir compris ça aussi, en regardant d'un peu plus près : ça semble lié à de la cryptographie ...entre autres !

The entropy rate of a data source means the average number of bits per symbol needed to encode it. Empirically, it seems that entropy of English text is between .6 and 1.3 bits per character, though clearly that will vary from one source of text to another.
source : https://en.wikipedia.org/wiki/Information_entropy

https://linux.die.net/man/4/random
http://www.rheingold.com/texts/tft/6.html


...mais tout ceci me semble bien compliqué pour mon "pôvre petit cerveau"

:-))
1
bob031 Messages postés 8158 Date d'inscription samedi 7 août 2004 Statut Membre Dernière intervention 1 septembre 2014 472
21 janv. 2008 à 12:27
Plus l'entropy est grande plus le chiffrement sera aléatoire et donc efficace si j'ai tout suivi !!!

j'ai survolé ça rapidement mais c'est ce que dit notre "ami" Tony :
Basically the higher amount of entropy, the better.

:-))
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
bob031 Messages postés 8158 Date d'inscription samedi 7 août 2004 Statut Membre Dernière intervention 1 septembre 2014 472
25 janv. 2008 à 13:51
On entropy and randomness
https://lwn.net/Articles/261091/

en anglais désolé !

:-))
0