Pourquoi tant de mégapixel?
Froggy
-
cecim Messages postés 3630 Date d'inscription Statut Membre Dernière intervention -
cecim Messages postés 3630 Date d'inscription Statut Membre Dernière intervention -
Bonjour,
Il y a quelque chose que je n'arrive pas à comprendre. Les télé HD ont une résolution de 1920 par 1080 soit 1920*1080=2 073 600 pixels. Je ne comprend pas pourquoi la qualité de l'image est amélioré après ce nombre de pixel étant donné que les écrans ne dépassent pas de beaucoup les 2 millions de pixel. Pourtant la différence est très nette entre 2 appareil photo avec par exemple respectivement 4 MP et 14 MP.
Ma question est donc:
Pourquoi la qualité des photo continue a s'améliorer au-delà de 2 MP sachant que les écrans ne dépassent pas se nombre de pixel?
Merci
Il y a quelque chose que je n'arrive pas à comprendre. Les télé HD ont une résolution de 1920 par 1080 soit 1920*1080=2 073 600 pixels. Je ne comprend pas pourquoi la qualité de l'image est amélioré après ce nombre de pixel étant donné que les écrans ne dépassent pas de beaucoup les 2 millions de pixel. Pourtant la différence est très nette entre 2 appareil photo avec par exemple respectivement 4 MP et 14 MP.
Ma question est donc:
Pourquoi la qualité des photo continue a s'améliorer au-delà de 2 MP sachant que les écrans ne dépassent pas se nombre de pixel?
Merci
A voir également:
- Pourquoi tant de mégapixel?
- Faire une offre sur un lot vinted en tant que vendeur - Guide
- Tu dois avoir accès au live pour passer live en tant qu'invité - Forum TikTok
- Ouvrir en tant qu'administrateur mac - Forum MacOS
- Shutdown n'est pas reconnu en tant que commande interne - Forum Windows 10
- 13 megapixel ✓ - Forum Matériel & Système
8 réponses
Bonjour
Les photos ne sont pas faites que pour être regarder sur un écran ! On peut aussi les imprimer, et même en grand format ... et là ce n'est plus 2 ou 4 MP qui sont nécessaire ...
Cordialement
Les photos ne sont pas faites que pour être regarder sur un écran ! On peut aussi les imprimer, et même en grand format ... et là ce n'est plus 2 ou 4 MP qui sont nécessaire ...
Cordialement
Je suis d'accord mais je ne comprend pas pourquoi on voit la différence sur un écran entre deux photo ayant un nombre de pixel différent mais supérieur a 2 mégapixel. Étant donné que les écrans n'ont pas plus de 2 mégapixels. Pourtant la différence est flagrante entre une photo prise sur un portable 2MP et une photo prise sur un appareil de 14MP.
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question
il y a une diference car le pixel et un point elementaire d une image ! on ne peu allez plus bas !..
donc une image de 2 million de pixel sur un ecran de 2.5 million de pixel sera de moin bonne qualite par rapport a une image de 4 million de pixel a cause des pixel manquant que la tv devra estimé et rajouté ...
de plus plus il y a de pixel, plus on peu zoomé sur l image sans avoir a la fin des carré qui apparaise.
donc une image de 2 million de pixel sur un ecran de 2.5 million de pixel sera de moin bonne qualite par rapport a une image de 4 million de pixel a cause des pixel manquant que la tv devra estimé et rajouté ...
de plus plus il y a de pixel, plus on peu zoomé sur l image sans avoir a la fin des carré qui apparaise.
J'allais parler d'interpolations de pixels, qui fonctionnent mal sur des rapport proches de 1, mais bien sur des grands nombres (ou des rapports harmoniques - mais il faut tomber dessus).
Il y a aussi, plus subjectivement la profondeur de champ qui fait se rapprocher l'image numérique d'une image argentique.
Linux Mageia 1 Firefox 7
Il y a aussi, plus subjectivement la profondeur de champ qui fait se rapprocher l'image numérique d'une image argentique.
Linux Mageia 1 Firefox 7
Bonjour,
la question que vous posez est un peu difficile. Il y a toute une littérature sur le net (exp: wikipédia) qui explique cela. Il est possible que certains éléments de la réponse soit admis sans démonstration en raison de la complexité :
Le pouvoir séparateur de l'oeil (c'est le détail angulaire le plus petit qu'il peut discerner) est d'environ 1/300ième de degré (de mémoire).
- Pour une image sur papier, on estime que la distance "normale" à laquelle elle est vue est à peu prés égale à sa diagonale. Un calcul de géométrique montre que vers 300 pixels par pouce, l'oeil n'est plus capable de discerner les points (pixel), c'est pourquoi les imprimeurs utilisent cette définition pour une image dite de "qualité". Si vous vous approchez d'une grande affiche (3m sur 4m) vous verrez qu'elle est constituée de points énormes. Pour une image format A4 on a besoin de 3 mégapixels environ, mais beaucoup plus si on agrandit plus ou si la photo est recadrée.
- Pour un écran lumineux, on peut se contenter de 72 à 96 pixels par pouce parce qu'on le regarde en principe à une distance beaucoup plus importante : environ 3 à 6 fois sa diagonale de l'écran. L'écran est donc constitué d'un nombre de pixels mois important. D'autre part, il est utilisé généralement pour des images animées, dans ce cas la persistante rétinienne implique que l'oeil à besoin de mois de détail. D'autre phénomènes comme le lissage interviennent aussi.
Observez votre écran à la loupe vous verrez qu'il est constitué de points parfaitement visible et nettement plus grossier qu'une image papier. Sur un Mac l'image est meilleure et commence à ressembler à une photo, pourtant il ont une définition à peine supérieure aux autres (50% environ).
- Dernier point : il n'existe pas d'objectif capable de donner des détails aussi fin que 14 mégapixels tout en conservant un contraste de 100%. Ce qu'on appelle le "piqué" d'un objectif (pouvoir de restitution des détails) est un subtil compromis entre sa résolution et sa restitution du contraste.
Tout cela pour dire que la qualité d'une image dépend d'au moins 3 paramètres : la définition (nombre de pixels), le contraste, et le nombre de nuances de couleur.
En jouant habilement sur ces paramètres on peut obtenir une qualité d'image apparente même si l'image contient moins de pixels.
la question que vous posez est un peu difficile. Il y a toute une littérature sur le net (exp: wikipédia) qui explique cela. Il est possible que certains éléments de la réponse soit admis sans démonstration en raison de la complexité :
Le pouvoir séparateur de l'oeil (c'est le détail angulaire le plus petit qu'il peut discerner) est d'environ 1/300ième de degré (de mémoire).
- Pour une image sur papier, on estime que la distance "normale" à laquelle elle est vue est à peu prés égale à sa diagonale. Un calcul de géométrique montre que vers 300 pixels par pouce, l'oeil n'est plus capable de discerner les points (pixel), c'est pourquoi les imprimeurs utilisent cette définition pour une image dite de "qualité". Si vous vous approchez d'une grande affiche (3m sur 4m) vous verrez qu'elle est constituée de points énormes. Pour une image format A4 on a besoin de 3 mégapixels environ, mais beaucoup plus si on agrandit plus ou si la photo est recadrée.
- Pour un écran lumineux, on peut se contenter de 72 à 96 pixels par pouce parce qu'on le regarde en principe à une distance beaucoup plus importante : environ 3 à 6 fois sa diagonale de l'écran. L'écran est donc constitué d'un nombre de pixels mois important. D'autre part, il est utilisé généralement pour des images animées, dans ce cas la persistante rétinienne implique que l'oeil à besoin de mois de détail. D'autre phénomènes comme le lissage interviennent aussi.
Observez votre écran à la loupe vous verrez qu'il est constitué de points parfaitement visible et nettement plus grossier qu'une image papier. Sur un Mac l'image est meilleure et commence à ressembler à une photo, pourtant il ont une définition à peine supérieure aux autres (50% environ).
- Dernier point : il n'existe pas d'objectif capable de donner des détails aussi fin que 14 mégapixels tout en conservant un contraste de 100%. Ce qu'on appelle le "piqué" d'un objectif (pouvoir de restitution des détails) est un subtil compromis entre sa résolution et sa restitution du contraste.
Tout cela pour dire que la qualité d'une image dépend d'au moins 3 paramètres : la définition (nombre de pixels), le contraste, et le nombre de nuances de couleur.
En jouant habilement sur ces paramètres on peut obtenir une qualité d'image apparente même si l'image contient moins de pixels.
Merci,
Si je comprend bien à contraste égale et nuances de couleur égale une image de 2.5 MP sur un écran de 2.5 MP rendra moi bien qu'une image de 14 MP parce que les pixels sur la télé soront plus "approximatif"?
Cela veut-t-il dire qu'en théorie il est possible d'obtenir deux images de rendu équivalente alors que le nombre de pixel diffère énormément entre les 2?
Si je comprend bien à contraste égale et nuances de couleur égale une image de 2.5 MP sur un écran de 2.5 MP rendra moi bien qu'une image de 14 MP parce que les pixels sur la télé soront plus "approximatif"?
Cela veut-t-il dire qu'en théorie il est possible d'obtenir deux images de rendu équivalente alors que le nombre de pixel diffère énormément entre les 2?
Tout à fait, par exemple lorsque l'on fait lire à une télévision les images d'un APN de 12 mégapixels, relié directement (il n'y a pas alors de logiciel capable de modifier les données pour adapter image et écran) le résultat est exécrable, pourtant si on lit la photo sur un ordi ou qu'on l'imprime, elle est très belle.
Le cas exposé par laotseu63 est aussi un bon exemple, il y a encore d'autres cas possibles, qui font que l'image est dégradée en apparence.
Le cas exposé par laotseu63 est aussi un bon exemple, il y a encore d'autres cas possibles, qui font que l'image est dégradée en apparence.
Bonjour Froggy,
Si je comprend bien à contraste égale et nuances de couleur égale une image de 2.5 MP sur un écran de 2.5 MP rendra moi bien qu'une image de 14 MP parce que les pixels sur la télé soront plus "approximatif"?
Disons qu'un suréchantillonnage améliore la qualité lorsqu'il est important ou dans un rapport harmonique*.
De la même manière, les enregitrements sonores numériques sont, de nos jours, largement suréchantillonnés (par rapport à une finalisation en CD, par exemple), tant en fréquence qu'en nombre de bits**.
Par contre, et pour revenir à l'image, faire 1 pixel avec 1 pixel + epsilon amène plutôt , "paradoxalement", une dégradation. On le voit bien lorsqu'on affiche sur l'écran du PC une image de taille très légèrement supérieure en mode "plein écran".
*par exemple: 1,5 ou 2
**en nombre de bits: par un léger abus de langage, mais l'idée est la même)
Cela veut-t-il dire qu'en théorie il est possible d'obtenir deux images de rendu équivalente alors que le nombre de pixel diffère énormément entre les 2?
Heu... oui, de rendu équivalent à la plus basse définition. Qui peut le plus peut le moins.
Linux Mageia 1 Firefox 7
Si je comprend bien à contraste égale et nuances de couleur égale une image de 2.5 MP sur un écran de 2.5 MP rendra moi bien qu'une image de 14 MP parce que les pixels sur la télé soront plus "approximatif"?
Disons qu'un suréchantillonnage améliore la qualité lorsqu'il est important ou dans un rapport harmonique*.
De la même manière, les enregitrements sonores numériques sont, de nos jours, largement suréchantillonnés (par rapport à une finalisation en CD, par exemple), tant en fréquence qu'en nombre de bits**.
Par contre, et pour revenir à l'image, faire 1 pixel avec 1 pixel + epsilon amène plutôt , "paradoxalement", une dégradation. On le voit bien lorsqu'on affiche sur l'écran du PC une image de taille très légèrement supérieure en mode "plein écran".
*par exemple: 1,5 ou 2
**en nombre de bits: par un léger abus de langage, mais l'idée est la même)
Cela veut-t-il dire qu'en théorie il est possible d'obtenir deux images de rendu équivalente alors que le nombre de pixel diffère énormément entre les 2?
Heu... oui, de rendu équivalent à la plus basse définition. Qui peut le plus peut le moins.
Linux Mageia 1 Firefox 7
P.S*: Concernant le rapport harmonique (cette notion n'est pas évidente pour tout le monde):
Regarde bien le tableau, en bas de l'article:
http://fr.wikipedia.org/wiki/Video_Graphics_Array
Si tu fais le ratio entre les nombres de pixels de toutes les valeurs, par exemple de largeur, tu obtiendras toujours des résultats tels que 2; 1,5; 1,25; 1.125. Ce n'est pas sans raison (même s'il y en a d'autres).
*Je fais un P.S. parce qu'on m'"interdit" de "modifier" (je ne sais pas pourquoi).
Regarde bien le tableau, en bas de l'article:
http://fr.wikipedia.org/wiki/Video_Graphics_Array
Si tu fais le ratio entre les nombres de pixels de toutes les valeurs, par exemple de largeur, tu obtiendras toujours des résultats tels que 2; 1,5; 1,25; 1.125. Ce n'est pas sans raison (même s'il y en a d'autres).
*Je fais un P.S. parce qu'on m'"interdit" de "modifier" (je ne sais pas pourquoi).
Par exemple, les affiches de publicités ou de films que tu vois sur les panneaux en bords de routes.