Compression: Toujours plus fort

sebsauvage Messages postés 33415 Statut Modérateur -  
sebsauvage Messages postés 33415 Statut Modérateur -
La compression est un enjeu majeur en informatique. Le formidable succès des formats ZIP, MP3 ou DivX est là pour en témoigner, et la recherche est toujours active dans ce secteur.

Si les algorithmes destructifs tels que MP3 ou DivX ont fait d'énormes progrès, on était un peu sur le statu quo concernant les algorithmes non destructifs (tels que Zip, Gz ou Bzip2).
7-Zip avait déjà apporté une nette amélioration avec son algorithme LZMA capable de produire des fichiers 30% plus compact que le format ZIP.

Le prix Hutter récompense de 50000 dollars les progrès dans la compression "du savoir humain". Le but n'est pas seulement d'inciter à la recherche sur la compression, mais également sur l'intelligence artificielle (puisque la compression nécessite de créer une "représentation" interne des données).

Le challenge est le suivant: Compresser au mieux un extrait de 100 Mo de Wikipedia.

Là où Zip n'arrive à réduire le fichier qu'à 35 Mo, là où 7-Zip n'arrive qu'à 25,2 Mo (en mode Ultra), l'algorithme paq8hp5 d'Alexander Ratushnyak descend à seulement 17 Mo !
C'est un progrès non négligeable qui sera difficile à battre.

Les progrès dans ces domaines nous permettront de stocker plus de données dans un même espace et de télécharger plus rapidement. Source: http://prize.hutter1.net/

6 réponses

sebsauvage Messages postés 33415 Statut Modérateur 15 663
 
paq8hp5 est très, très lent, mais il faut avouer qu'il arrache.

Test sur une grosse page HTML (copie de la FAQ CCM):
Fichier original: 2,6 Mo
ZIP: 701 ko.
7z: 551 ko.
PAQ: 374 ko (!) (= seulement 53% de la taille du fichier zip !)


Test sur Firefox.exe:
Fichier original: 7,6 Mo
ZIP: 3,7 Mo
7z: 2,8 Mo
PAQ: 2 Mo (= seulement 54% de la taille du fichier zip !)


Donc en gros, ça créé des archives presque deux fois plus petits que les fichiers ZIP.

Bon il faut garder à l'esprit que c'est un compacteur expérimental et lent, mais la performance de compression est remarquable.
0
ekra Messages postés 1873 Statut Membre 342
 
C'est vrai que c'est impressionnant pour des algorithmes non destructifs !

Ceci permettra de mieux exploiter nos "petits" supports. Bravo à l'auteur !
0
slou
 
Donc on va bientôt ressortir les disquettes 3,5 pouces !
0
Natim
 
Je viens de faire un petit test avec le bz2
Pour un fichier de 1,7 Go ne contenant que des 0 j'arrive à une compression de 4,0 ko.
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
gbinforme Messages postés 15481 Date d'inscription   Statut Contributeur Dernière intervention   4 728
 
bonjour

avec des 1 cela fait combien de Ko ?
0
seah
 
4.1 ?
0
sebsauvage Messages postés 33415 Statut Modérateur 15 663
 
Alexander Ratushnyak a remit ça.

Son ancien algo (paq8hp5) avait compressé l'extrait de Wikipedia à 17 073 018 octets.

Son nouvel algo (paq8hp12) est descendu à 16 481 655 octets, soit à peine plus d'un bit par caractère (1,32 bits par caractère).


Source: http://prize.hutter1.net/ et Slashdot.
0