Compression: Toujours plus fort

sebsauvage Messages postés 32893 Date d'inscription mercredi 29 août 2001 Statut Modérateur Dernière intervention 21 octobre 2019 - 31 oct. 2006 à 10:35
sebsauvage Messages postés 32893 Date d'inscription mercredi 29 août 2001 Statut Modérateur Dernière intervention 21 octobre 2019 - 10 juil. 2007 à 11:00
La compression est un enjeu majeur en informatique. Le formidable succès des formats ZIP, MP3 ou DivX est là pour en témoigner, et la recherche est toujours active dans ce secteur.

Si les algorithmes destructifs tels que MP3 ou DivX ont fait d'énormes progrès, on était un peu sur le statu quo concernant les algorithmes non destructifs (tels que Zip, Gz ou Bzip2).
7-Zip avait déjà apporté une nette amélioration avec son algorithme LZMA capable de produire des fichiers 30% plus compact que le format ZIP.

Le prix Hutter récompense de 50000 dollars les progrès dans la compression "du savoir humain". Le but n'est pas seulement d'inciter à la recherche sur la compression, mais également sur l'intelligence artificielle (puisque la compression nécessite de créer une "représentation" interne des données).

Le challenge est le suivant: Compresser au mieux un extrait de 100 Mo de Wikipedia.

Là où Zip n'arrive à réduire le fichier qu'à 35 Mo, là où 7-Zip n'arrive qu'à 25,2 Mo (en mode Ultra), l'algorithme paq8hp5 d'Alexander Ratushnyak descend à seulement 17 Mo !
C'est un progrès non négligeable qui sera difficile à battre.

Les progrès dans ces domaines nous permettront de stocker plus de données dans un même espace et de télécharger plus rapidement. Source: http://prize.hutter1.net/
A voir également:

6 réponses

sebsauvage Messages postés 32893 Date d'inscription mercredi 29 août 2001 Statut Modérateur Dernière intervention 21 octobre 2019 15 655
31 oct. 2006 à 14:48
paq8hp5 est très, très lent, mais il faut avouer qu'il arrache.

Test sur une grosse page HTML (copie de la FAQ CCM):
Fichier original: 2,6 Mo
ZIP: 701 ko.
7z: 551 ko.
PAQ: 374 ko (!) (= seulement 53% de la taille du fichier zip !)


Test sur Firefox.exe:
Fichier original: 7,6 Mo
ZIP: 3,7 Mo
7z: 2,8 Mo
PAQ: 2 Mo (= seulement 54% de la taille du fichier zip !)


Donc en gros, ça créé des archives presque deux fois plus petits que les fichiers ZIP.

Bon il faut garder à l'esprit que c'est un compacteur expérimental et lent, mais la performance de compression est remarquable.
0
ekra Messages postés 1870 Date d'inscription vendredi 15 avril 2005 Statut Membre Dernière intervention 24 juillet 2014 342
1 nov. 2006 à 12:31
C'est vrai que c'est impressionnant pour des algorithmes non destructifs !

Ceci permettra de mieux exploiter nos "petits" supports. Bravo à l'auteur !
0
Donc on va bientôt ressortir les disquettes 3,5 pouces !
0
Je viens de faire un petit test avec le bz2
Pour un fichier de 1,7 Go ne contenant que des 0 j'arrive à une compression de 4,0 ko.
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
gbinforme Messages postés 14946 Date d'inscription lundi 18 octobre 2004 Statut Contributeur Dernière intervention 24 juin 2020 4 692
8 janv. 2007 à 18:40
bonjour

avec des 1 cela fait combien de Ko ?
0
4.1 ?
0
sebsauvage Messages postés 32893 Date d'inscription mercredi 29 août 2001 Statut Modérateur Dernière intervention 21 octobre 2019 15 655
10 juil. 2007 à 11:00
Alexander Ratushnyak a remit ça.

Son ancien algo (paq8hp5) avait compressé l'extrait de Wikipedia à 17 073 018 octets.

Son nouvel algo (paq8hp12) est descendu à 16 481 655 octets, soit à peine plus d'un bit par caractère (1,32 bits par caractère).


Source: http://prize.hutter1.net/ et Slashdot.
0