Pourquoi tant de mégapixel?

Fermé
Froggy - 12 nov. 2011 à 19:21
cecim Messages postés 3630 Date d'inscription vendredi 6 mai 2011 Statut Membre Dernière intervention 19 septembre 2020 - 16 nov. 2011 à 19:44
Bonjour,
Il y a quelque chose que je n'arrive pas à comprendre. Les télé HD ont une résolution de 1920 par 1080 soit 1920*1080=2 073 600 pixels. Je ne comprend pas pourquoi la qualité de l'image est amélioré après ce nombre de pixel étant donné que les écrans ne dépassent pas de beaucoup les 2 millions de pixel. Pourtant la différence est très nette entre 2 appareil photo avec par exemple respectivement 4 MP et 14 MP.
Ma question est donc:
Pourquoi la qualité des photo continue a s'améliorer au-delà de 2 MP sachant que les écrans ne dépassent pas se nombre de pixel?

Merci

8 réponses

durock Messages postés 14211 Date d'inscription mardi 1 janvier 2008 Statut Contributeur Dernière intervention 9 janvier 2024 2 618
12 nov. 2011 à 20:10
Bonjour

Les photos ne sont pas faites que pour être regarder sur un écran ! On peut aussi les imprimer, et même en grand format ... et là ce n'est plus 2 ou 4 MP qui sont nécessaire ...

Cordialement
4
cybernetik Messages postés 4157 Date d'inscription mercredi 26 mars 2008 Statut Membre Dernière intervention 28 mai 2016 679
12 nov. 2011 à 20:12
+1 !
Par exemple, les affiches de publicités ou de films que tu vois sur les panneaux en bords de routes.
0
Je suis d'accord mais je ne comprend pas pourquoi on voit la différence sur un écran entre deux photo ayant un nombre de pixel différent mais supérieur a 2 mégapixel. Étant donné que les écrans n'ont pas plus de 2 mégapixels. Pourtant la différence est flagrante entre une photo prise sur un portable 2MP et une photo prise sur un appareil de 14MP.
0
darkness51 Messages postés 654 Date d'inscription mercredi 28 juillet 2010 Statut Membre Dernière intervention 27 janvier 2013 19
13 nov. 2011 à 23:13
Le nombre de pixel ne fait pas tout
0
laotseu63 Messages postés 3677 Date d'inscription vendredi 29 août 2008 Statut Membre Dernière intervention 12 avril 2017 473
13 nov. 2011 à 23:16
Bonsoir,
Oui: la qualité optique doit (ou plutôt: devrait) être en rapport, par exemple...
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
rafit jad kuldinger Messages postés 7689 Date d'inscription dimanche 4 avril 2010 Statut Membre Dernière intervention 2 février 2024 1 151
13 nov. 2011 à 23:17
il y a une diference car le pixel et un point elementaire d une image ! on ne peu allez plus bas !..

donc une image de 2 million de pixel sur un ecran de 2.5 million de pixel sera de moin bonne qualite par rapport a une image de 4 million de pixel a cause des pixel manquant que la tv devra estimé et rajouté ...

de plus plus il y a de pixel, plus on peu zoomé sur l image sans avoir a la fin des carré qui apparaise.
0
laotseu63 Messages postés 3677 Date d'inscription vendredi 29 août 2008 Statut Membre Dernière intervention 12 avril 2017 473
Modifié par laotseu63 le 13/11/2011 à 23:28
J'allais parler d'interpolations de pixels, qui fonctionnent mal sur des rapport proches de 1, mais bien sur des grands nombres (ou des rapports harmoniques - mais il faut tomber dessus).
Il y a aussi, plus subjectivement la profondeur de champ qui fait se rapprocher l'image numérique d'une image argentique.
Linux Mageia 1 Firefox 7
0
laotseu63 Messages postés 3677 Date d'inscription vendredi 29 août 2008 Statut Membre Dernière intervention 12 avril 2017 473
14 nov. 2011 à 08:41
P.S: La profondeur de champ dépend, entre autres, du rapport de reproduction, c'est à dire, pour un sujet donné, de la taille du capteur, qui est a priori plus grande sur un appareil à grand nombre de pixels.
0
Bonjour,
la question que vous posez est un peu difficile. Il y a toute une littérature sur le net (exp: wikipédia) qui explique cela. Il est possible que certains éléments de la réponse soit admis sans démonstration en raison de la complexité :
Le pouvoir séparateur de l'oeil (c'est le détail angulaire le plus petit qu'il peut discerner) est d'environ 1/300ième de degré (de mémoire).

- Pour une image sur papier, on estime que la distance "normale" à laquelle elle est vue est à peu prés égale à sa diagonale. Un calcul de géométrique montre que vers 300 pixels par pouce, l'oeil n'est plus capable de discerner les points (pixel), c'est pourquoi les imprimeurs utilisent cette définition pour une image dite de "qualité". Si vous vous approchez d'une grande affiche (3m sur 4m) vous verrez qu'elle est constituée de points énormes. Pour une image format A4 on a besoin de 3 mégapixels environ, mais beaucoup plus si on agrandit plus ou si la photo est recadrée.
- Pour un écran lumineux, on peut se contenter de 72 à 96 pixels par pouce parce qu'on le regarde en principe à une distance beaucoup plus importante : environ 3 à 6 fois sa diagonale de l'écran. L'écran est donc constitué d'un nombre de pixels mois important. D'autre part, il est utilisé généralement pour des images animées, dans ce cas la persistante rétinienne implique que l'oeil à besoin de mois de détail. D'autre phénomènes comme le lissage interviennent aussi.
Observez votre écran à la loupe vous verrez qu'il est constitué de points parfaitement visible et nettement plus grossier qu'une image papier. Sur un Mac l'image est meilleure et commence à ressembler à une photo, pourtant il ont une définition à peine supérieure aux autres (50% environ).

- Dernier point : il n'existe pas d'objectif capable de donner des détails aussi fin que 14 mégapixels tout en conservant un contraste de 100%. Ce qu'on appelle le "piqué" d'un objectif (pouvoir de restitution des détails) est un subtil compromis entre sa résolution et sa restitution du contraste.

Tout cela pour dire que la qualité d'une image dépend d'au moins 3 paramètres : la définition (nombre de pixels), le contraste, et le nombre de nuances de couleur.
En jouant habilement sur ces paramètres on peut obtenir une qualité d'image apparente même si l'image contient moins de pixels.
0
Merci,

Si je comprend bien à contraste égale et nuances de couleur égale une image de 2.5 MP sur un écran de 2.5 MP rendra moi bien qu'une image de 14 MP parce que les pixels sur la télé soront plus "approximatif"?
Cela veut-t-il dire qu'en théorie il est possible d'obtenir deux images de rendu équivalente alors que le nombre de pixel diffère énormément entre les 2?
0
cecim Messages postés 3630 Date d'inscription vendredi 6 mai 2011 Statut Membre Dernière intervention 19 septembre 2020 570
16 nov. 2011 à 19:44
Tout à fait, par exemple lorsque l'on fait lire à une télévision les images d'un APN de 12 mégapixels, relié directement (il n'y a pas alors de logiciel capable de modifier les données pour adapter image et écran) le résultat est exécrable, pourtant si on lit la photo sur un ordi ou qu'on l'imprime, elle est très belle.
Le cas exposé par laotseu63 est aussi un bon exemple, il y a encore d'autres cas possibles, qui font que l'image est dégradée en apparence.
0
laotseu63 Messages postés 3677 Date d'inscription vendredi 29 août 2008 Statut Membre Dernière intervention 12 avril 2017 473
Modifié par laotseu63 le 16/11/2011 à 09:11
Bonjour Froggy,
Si je comprend bien à contraste égale et nuances de couleur égale une image de 2.5 MP sur un écran de 2.5 MP rendra moi bien qu'une image de 14 MP parce que les pixels sur la télé soront plus "approximatif"?
Disons qu'un suréchantillonnage améliore la qualité lorsqu'il est important ou dans un rapport harmonique*.
De la même manière, les enregitrements sonores numériques sont, de nos jours, largement suréchantillonnés (par rapport à une finalisation en CD, par exemple), tant en fréquence qu'en nombre de bits**.
Par contre, et pour revenir à l'image, faire 1 pixel avec 1 pixel + epsilon amène plutôt , "paradoxalement", une dégradation. On le voit bien lorsqu'on affiche sur l'écran du PC une image de taille très légèrement supérieure en mode "plein écran".

*par exemple: 1,5 ou 2
**en nombre de bits: par un léger abus de langage, mais l'idée est la même)


Cela veut-t-il dire qu'en théorie il est possible d'obtenir deux images de rendu équivalente alors que le nombre de pixel diffère énormément entre les 2?

Heu... oui, de rendu équivalent à la plus basse définition. Qui peut le plus peut le moins.
Linux Mageia 1 Firefox 7
0
laotseu63 Messages postés 3677 Date d'inscription vendredi 29 août 2008 Statut Membre Dernière intervention 12 avril 2017 473
Modifié par laotseu63 le 16/11/2011 à 09:36
P.S*: Concernant le rapport harmonique (cette notion n'est pas évidente pour tout le monde):
Regarde bien le tableau, en bas de l'article:
http://fr.wikipedia.org/wiki/Video_Graphics_Array
Si tu fais le ratio entre les nombres de pixels de toutes les valeurs, par exemple de largeur, tu obtiendras toujours des résultats tels que 2; 1,5; 1,25; 1.125. Ce n'est pas sans raison (même s'il y en a d'autres).

*Je fais un P.S. parce qu'on m'"interdit" de "modifier" (je ne sais pas pourquoi).
0
Merci,
cela m'éclaire un peu plus.
0