Compression d'une image par Huffman
Résolu/Fermé
succedere
Messages postés
12
Date d'inscription
vendredi 9 mai 2008
Statut
Membre
Dernière intervention
29 juin 2010
-
24 avril 2009 à 09:13
succedere Messages postés 12 Date d'inscription vendredi 9 mai 2008 Statut Membre Dernière intervention 29 juin 2010 - 24 avril 2009 à 11:07
succedere Messages postés 12 Date d'inscription vendredi 9 mai 2008 Statut Membre Dernière intervention 29 juin 2010 - 24 avril 2009 à 11:07
A voir également:
- Compression d'une image par Huffman
- Image iso - Guide
- Comment agrandir une image - Guide
- Acronis true image - Télécharger - Sauvegarde
- Recherche par image - Guide
- Logiciel de compression gratuit - Guide
6 réponses
luc648
Messages postés
593
Date d'inscription
mardi 31 juillet 2007
Statut
Membre
Dernière intervention
20 mai 2010
117
24 avril 2009 à 09:47
24 avril 2009 à 09:47
salut ,
avec les caractères tu cherche le nombre d'occurrence de chaque caractère (nombre de fois qu'il est utilisé dans ton code).Le but est de donner la plus petite valeur binaire a ton caractère le plus utilisé.
Sur une image , je pense que le choix ce fait au niveau du pixel , le pixel le plus utilisé reçoit la plus petite valeur binaire.
L'histoire est écrite par les vainqueurs ...
Les logiciels, c'est comme le sexe: c'est pas parceque c'est payant que c'est meilleur
avec les caractères tu cherche le nombre d'occurrence de chaque caractère (nombre de fois qu'il est utilisé dans ton code).Le but est de donner la plus petite valeur binaire a ton caractère le plus utilisé.
Sur une image , je pense que le choix ce fait au niveau du pixel , le pixel le plus utilisé reçoit la plus petite valeur binaire.
L'histoire est écrite par les vainqueurs ...
Les logiciels, c'est comme le sexe: c'est pas parceque c'est payant que c'est meilleur
succedere
Messages postés
12
Date d'inscription
vendredi 9 mai 2008
Statut
Membre
Dernière intervention
29 juin 2010
3
24 avril 2009 à 10:05
24 avril 2009 à 10:05
Merci de ta réponse Luc !
Je vois très bien !
Par contre, cela signifie qu'il faut conserver l'arbre de chaque fichier si l'on veut les décompresser.
Y'a-t-il vraiment moins de poids en bits à enregistrer tous les arbres pour chaque fichier et diminuer leur code binaire ?
Merci
Je vois très bien !
Par contre, cela signifie qu'il faut conserver l'arbre de chaque fichier si l'on veut les décompresser.
Y'a-t-il vraiment moins de poids en bits à enregistrer tous les arbres pour chaque fichier et diminuer leur code binaire ?
Merci
luc648
Messages postés
593
Date d'inscription
mardi 31 juillet 2007
Statut
Membre
Dernière intervention
20 mai 2010
117
24 avril 2009 à 10:18
24 avril 2009 à 10:18
je n'ai pas vraiment compris ta question : Y'a-t-il vraiment moins de poids en bits à enregistrer tous les arbres pour chaque fichier et diminuer leur code binaire ?
succedere
Messages postés
12
Date d'inscription
vendredi 9 mai 2008
Statut
Membre
Dernière intervention
29 juin 2010
3
24 avril 2009 à 10:24
24 avril 2009 à 10:24
^^ je m'explique un peu plus
Si par exemple j'ai 3 fichiers (images) à compresser sur un serveur.
Je veux que chaque fichier ait moins de poids.
En utilisant l'arbre de Huffman, je dois, pour chaque fichier, lire l'image, créer l'arbre, puis convertir le code binaire en un nouveau code binaire.
J'aurai donc enregistré 3 arbres (pour pouvoir décompresser mes fichiers), et les 3 nouveaux codes binaires à la place des codes binaires d'origine.
Ma question est donc est-ce que :
3 arbres de Huffman + 3 nouveaux codes binaires < 3 codes binaires d'origine ?
En gros : est-ce que ça compresse efficacement si on enregistre les arbres, et que ça prend forcément de la place...
:) Merci
Si par exemple j'ai 3 fichiers (images) à compresser sur un serveur.
Je veux que chaque fichier ait moins de poids.
En utilisant l'arbre de Huffman, je dois, pour chaque fichier, lire l'image, créer l'arbre, puis convertir le code binaire en un nouveau code binaire.
J'aurai donc enregistré 3 arbres (pour pouvoir décompresser mes fichiers), et les 3 nouveaux codes binaires à la place des codes binaires d'origine.
Ma question est donc est-ce que :
3 arbres de Huffman + 3 nouveaux codes binaires < 3 codes binaires d'origine ?
En gros : est-ce que ça compresse efficacement si on enregistre les arbres, et que ça prend forcément de la place...
:) Merci
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question
luc648
Messages postés
593
Date d'inscription
mardi 31 juillet 2007
Statut
Membre
Dernière intervention
20 mai 2010
117
24 avril 2009 à 11:02
24 avril 2009 à 11:02
Ok c'est donc bien ce que j'avais compris ,
franchement je n'ai jamais appliqué les codages comme huffman ou fano-shannon , mes connaissances ne sont que théorique :s (malheureusement).
<quote>
Cette relation, qui montre que le codage de Huffman s'approche effectivement de l'entropie de la source et donc de l'optimum, peut s'avérer en fait assez peu intéressante dans le cas où l'entropie de la source est faible, et où un surcoût de 1 bit devient important. De plus le codage de Huffman impose d'utiliser un nombre entier de bit pour un symbole source, ce qui peut s'avérer peu efficace. WIKIPEDIA
</quote>
Donc le codage huffman n'est intéressant qu'a partir du moment ou tes fichiers on une certaine taille , en pratique je ne pourrais te dire a partir de qu'elle taille , il est plus intéressant d'avoir les arbres + nouveaux code a la place de l'ancien code .
Néanmoin pour te donner une idée
<quote>
pour coder 'Wikipédia', nous obtenons donc en binaire : 101 11 011 11 100 010 001 11 000, soit 24 bits au lieu de 64 en utilisant les codes ASCII.
</quote>
La compression est donc assez importante , néanmoins si tu veux compresser un monochrome ne t'attend pas a des miracles ^^
franchement je n'ai jamais appliqué les codages comme huffman ou fano-shannon , mes connaissances ne sont que théorique :s (malheureusement).
<quote>
Cette relation, qui montre que le codage de Huffman s'approche effectivement de l'entropie de la source et donc de l'optimum, peut s'avérer en fait assez peu intéressante dans le cas où l'entropie de la source est faible, et où un surcoût de 1 bit devient important. De plus le codage de Huffman impose d'utiliser un nombre entier de bit pour un symbole source, ce qui peut s'avérer peu efficace. WIKIPEDIA
</quote>
Donc le codage huffman n'est intéressant qu'a partir du moment ou tes fichiers on une certaine taille , en pratique je ne pourrais te dire a partir de qu'elle taille , il est plus intéressant d'avoir les arbres + nouveaux code a la place de l'ancien code .
Néanmoin pour te donner une idée
<quote>
pour coder 'Wikipédia', nous obtenons donc en binaire : 101 11 011 11 100 010 001 11 000, soit 24 bits au lieu de 64 en utilisant les codes ASCII.
</quote>
La compression est donc assez importante , néanmoins si tu veux compresser un monochrome ne t'attend pas a des miracles ^^
succedere
Messages postés
12
Date d'inscription
vendredi 9 mai 2008
Statut
Membre
Dernière intervention
29 juin 2010
3
24 avril 2009 à 11:07
24 avril 2009 à 11:07
^^
En cas d'image monochrome, j'utiliserai l'algorithme RLE : Run-Length Encoding ^^ ;)
Merci de ton aide Luc
Je ferai des essais :)
En cas d'image monochrome, j'utiliserai l'algorithme RLE : Run-Length Encoding ^^ ;)
Merci de ton aide Luc
Je ferai des essais :)