Taille des photos MAC / WIN

Résolu/Fermé
fakebios Messages postés 21 Date d'inscription   Statut Membre Dernière intervention   -  
fakebios Messages postés 21 Date d'inscription   Statut Membre Dernière intervention   -
Bonjour,
Je viens d'acheter un mac (portable premier prix, avec MAC OS 10 leopard) et j'ai fait passe mes photos de mon PC sur le MAC et la, surprise, la taille de mes fichiers photo n'est plus la meme ??
1/ Chaque photo sur PC et MAC a une taille differente !! Pourquoi cela et ma photo a t elle ete modifiee ?? Quelle est la "reelle" taille de mon fichier ?

2/ Autre question : Lorsque je compresse un dossier sur MAC et que je le fais passer sur PC et le decompresse, il me met un autre dossier comportant des fichiers que je ne peux lire sur mon PC. Ont-ils une importance ??

3/ D'ailleurs si qq'un peut egalement me dire pourquoi sur Windows, lorsque je fais pivoter une photo, elle change de taille (je parle de taille reelle, celle qui m'est donnee en octets lorsque je regarde les proprietes du fichier), ce serait cool.


Merci de vos reponses.
A bientot.
Fabien.
A voir également:

28 réponses

fakebios Messages postés 21 Date d'inscription   Statut Membre Dernière intervention  
 
Bonjour,
Désolé pour le retard.

Alors, bien des points sont à revoir.

Tout d'abord au sujet de la taille affichée des fichiers sous MAC, je sais que le calcul est binaire et non décimal, mais je t'assure qu'il y a une difference entre la taille en octets et celle en Mo, Ko etc.
La preuve j'ai enregistré 2 fichiers identiques : les 2 avaient la même taille en Ko mais pas la même en octet !!
A mon avis le MAC s'arrange pour que les fichiers restent contigus, et donc la différence ne se voit pas, puisqu'il n'y en a pas. Mais parfois (comme dans mon cas) le MAC ne réussit pas a enregistrer le fichier de facon contigu, et donc la différence se voit. C'est ce que je pense, car sinon, comment expliquer la différence de taille en Ko de mes 2 fichiers.

================================

Lorsque tu dis :
"L'image sera "plus fine" mais parce qu'elle sera plus petite !! -Puisque l'écran pourra contenir plus de pixels et qu'un image est caractérisée avant tout par la quantité de pixels qu'elle contient"

En fait : oui l'image sera plus petite, mais l'image sera plus fine, aussi et SURTOUT parce que les pixels seront plus rapprochés.
N'es-tu pas d'accord ?

================================

"Si on se contente d'ouvrir et refermer la photo, rien ne devrait être modifié , mais si on ouvre le fichier, et on le ré-enregistre, la compression et les calculs qui vont avec se refont."

Au sujet des calculs de compression, je ne comprends pas tout, alors je te fais confiance. Si ce n'est que le passage de JPEG a TIFF "invente" des pixels en fait, du fait de calcul de décompression, qui ne sont pas ceux de l'original TIFF, si j'ai bien compris.

================================

Pourquoi le PC (et le MAC il me semble) permet un affichage des couleurs en 16 bits et en 32 bits, si les couleurs des images ne sont codées qu'en 8 bits ??

================================

A part ça, en ce qui me concerne, je ne sais toujours pas pourquoi le passage des fichiers photo par le MAC change la taille de ceux-ci. Mais je crois que je n'enregistrerai quand même mes photos que sous TIFF à partir de maintenant :-)

A bientôt.
0
Utilisateur anonyme
 
Bonjour,

Heureux de voir que ton problème d'ordinateur semble résolu.:)

Pour la taille des fichiers, comme tu le sais le Mac indique la taille prise sur le disque. Et comme tu l'as dit cette taille peut varier en fonction de la manière dont est sauvegardé le fichier. La meilleure manière de vérifier le "poids réel d'une image" est d'utiliser Photoshop et de comparer les deux fichiers. Tu verras que Photoshop indiquera une taille qui correspond à mes calculs. Hormis la place occupée sur le disque dur, c'est la valeur la plus exacte de considérer le poids d'une image par rapport à sa manipulation par la carte graphique, par le logiciel de retouche et par les professionnels qui utilisent des machines de "flashage" avant impression en quadrichromie.

"En fait : oui l'image sera plus petite, mais l'image sera plus fine, aussi et SURTOUT parce que les pixels seront plus rapprochés.
N'es-tu pas d'accord ?
"

C'est exactement la même chose, l'image sera plus petite parce que les pixels sont plus rapprochés. Si tu affiches sur chaque écran, Mac et PC, une taille visuelle identique, les pixels ne seront pas plus rapprochés sur l'écran PC. Il faut comprendre qu'à affichage égal, la taille du pixel (le pitch) , est égal. Et c'est ça qui est important. Donc une image de 10 cm sur 10 cm vue sur sur les 2 écrans comme ayant 10 cm sur 10 cm seront visuellement de qualité strictement identiques, puisque la taille des pixels est identique.

Pour le problème de compression, lorsque on ouvre une image jpeg, le système affiche les pixels selon leurs valeurs indiquées dans le fichier. Das ce fichier il y a les pixels de référence et les pixels qui se réfèrent à ces pixels de référence. Le fichier dans ce cas ne contient pas plusieurs fois les mêmes informations . On pourrait imaginer un image qui est en fait une surface d'un bleu uniforme. Dans ce cas, un seul pixel de référence contiendrait toutes les informations à l'ensemble de l'image. Si l'image est composée de trois couleurs uniformes , bleu, blanc, rouge par exemple; nous aurons 3 uniques pixels de référence pour toute l'image, et simplement les adresses des autres pixels. Chaque pixel se référant à un pixel de référence. Ensuite, l'image est chargée en mémoire vive. A partir de ce moment, le système ignore le fichier physique présent sur le disque dur, on y apporte les modifs que l'on souhaite, on y fait ce qu'on veut.. ensuite lorsque on ré-enregistre le système se base sur le fichier présent en mémoire vive pour refaire ses calculs et redéfinir le fichier de sauvegarde.
Si on décide de sauvegarder au format tiff, le fichier ne fait pas de calcul de compression, mais se contente de sauvegarder le fichier présent en mémoire vive tel que. En partant d'un fichier jpeg, lorsque la mémoire vive se charge du fichier, le système n'invente pas de pixels, il affiche les pixels définis par le fichier jpeg. A chaque enregistrement jpeg, le système cherche à définir un nombre de pixels clés auxquels vont se référer les autres pixels, et si on enregistre, modifie, enregistre, modifie, toujours en jpeg, et bien le nombre de pixels "groupés" considérés comme identiques par le système , augmentera et la qualité diminuera. C'est comme si on triait des cailloux par couleurs, et que l'on admette toujours plus de cailloux comme ayant la même couleur en les mettant sur un tas. Une fois sur le tas, ces cailloux prennent effectivement tous la couleur moyenne du tas. Au bout d'un certain temps, il n'y aura plus qu'un seul tas de cailloux , tous de même couleur.

Si les images sont codée en 8 bits, il n'y aurait effectivement, théoriquement, aucun intérêt à afficher en 16 ou 32 bits. Mais tout ce qu'on vois à l'écran représente une variété de couleurs totale plus importante que la plupart des images prises individuellement. Il faut donc pouvoir afficher toutes ces couleurs, pour toutes les photos possibles, en fait il faut couvrir toute la plage d'affichage que représente l'ensemble de tout ce qu'on peut être amené à regardez à l'écran, photos , films etc.... Et il arrive aussi que des utilisateurs utilisent des photos codés sur 16 bits. Ça m'arrive parfois de scanner en profondeur maximum , notamment les diapos. Ces images sont alors codés en 16 bits. (Ralentissement assuré dans Photoshop si la carte graphique est limite. Le Mac aussi effectivement affiche en 32 bits de profondeur.)
Les anciens ordinateurs affichaient d'abord en 256 couleurs, puis milliers de couleurs, puis en millions de couleurs. En milliers de couleurs, c'était insuffisant pour les photos et les films, en millions de couleurs, ce n'est pas toujours exploité à fond, mais qui peut le plus, peut le moins....

A+ :)

Sanspseudo - Francis
iMac G5 2ghz 2Go - OS 10.4.11
0
fakebios Messages postés 21 Date d'inscription   Statut Membre Dernière intervention  
 
Bonjour Francis,

J'ai tout compris sauf ton histoire de "machines de flashage avant impression en quadrichromie". lol
J'adorerais m'y connaître autant que toi en photographie. Ca me passionne tout ça, mais pour l'instant je manque un peu de temps, et pour dire la vérité, je ne sais pas très bien où apprendre toutes ces choses.

Pour en revenir à notre discussion :

"C'est exactement la même chose, l'image sera plus petite parce que les pixels sont plus rapprochés. Si tu affiches sur chaque écran, Mac et PC, une taille visuelle identique, les pixels ne seront pas plus rapprochés sur l'écran PC. Il faut comprendre qu'à affichage égal, la taille du pixel (le pitch) , est égal."


Je ne pensais pas que ça marchait comme ça. Je pensais que la taille des pixels était fonction des caractéristiques de l'écran, et non de l'affichage choisi. En effet si je regarde de prés mon écran d'ordi (portable) et mon écran de télé, le tramage (j'entends par la le "grillage" que l'on voit et qui définit en somme l'unité de base de l'écran) n'est pas de la même taille !!).

=========================================

Si j'ai bien compris, ouvrir et fermer un fichier JPEG ne modifie pas celui-ci. Mais l'ouvrir avec Image Bitmap de Windows par exemple et le ré-enregistrer, diminue sa qualité. Ceci parce qu'en fait, lors de la compression, la couleur d'un pixel et celle du pixel de référence auquel il est rattaché, ne sont pas exactement identiques. Il y a en fait une "marge". Plusieurs pixels ayant une couleur très proche, MAIS DIFFERENTE QUAND MEME, vont avoir pour référent, un même pixel. D'où la baisse de qualité. C'est ça ?

Merci de tes réponses.

Cordialement.
0
Chris 94 Messages postés 54087 Date d'inscription   Statut Modérateur Dernière intervention   7 346
 
Bonjour,

Je continue à suivre (je veux dire regarder, pour la signification "comprendre", je fais ce que je peux !) votre conversation. Merci à tous les deux pour la richesse du débat.

Bien cordialement :-)
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
Utilisateur anonyme
 
Bonsoir,

- Le flashage en quadrichromie:
Pour comprendre mieux, il faudrait commencer par un cours sur ce qu'est, en couleurs, la synthèse additive par rapport à la synthèse soustractive- trop long pour faire cela ici.
Donc on va faire bref. Sur un écran ordinateur comme sur une télé, les couleurs sont obtenus par la combinaison de 3 couleurs de base, en utilisant comme base les couleurs Rouge, Vert et Bleu - le fameux RVB ou RGB (red, green, Blue). Si on additionne les trois faisceaux lumineux nous obtenons le blanc , l'absence des trois couleurs donne le noir. En imprimerie on ne peut utiliser ce procéder. (pas de faisceaux lumineux en impression). Donc en imprimerie nous avons recours à une astuce, (basée sur les capacités du cerveau à interpréter les couleurs), on imprime des points très proches les uns des autres. Toujours 4. - D'où le nom "Quadrichromie- Ces quatre points auront comme couleurs de base, toujours les trois couleurs complémentaires des couleurs rouge, vert et bleu, plus le noir.
Ces couleurs seront donc le Cyan, Magenta, Jaune et le Noir. (CMYK), (je fais volontairement l'impasse ici sur l'explication des couleurs complémentaires, il me faudrait plusieurs pages supplémentaires). Donc en impression , il s'agit le plus souvent d'impression par héliogravure ou de procédé offset. Procédé dans lequel nous aurons souvent des cylindres d'impression, plus précisément 1 cylindre par couleur pour l'héliogravure? Pour l'offset c'est différent mais les grands principes restent les mêmes. Donc pour créer ces cylindres d'impression, il faut les graver, procédure chimique semblable à la photographie+développement chimique, sur du cuivre préparé par un procédé ayant recours à un négatif représentant le rouge, un négatif pour le bleu , un pour le vert, et un pour le noir. Lorsque on remet un photo pour impression, (pas les procédés photos courants), dans une imprimerie, ceux ci doivent donc utiliser un fichier CMYK (Cyan, Magenta, Yellow, Black), pour procéder à la séparation des couleurs et réaliser les clichés correspondants. Le flashage consiste donc séparer les quatres couleurs du fichier et à réaliser le cliché séparément pour chacune de ces couleurs à partir du fichier informatique.
Ceci est une explication très "vulgarisée", il faudrait écrire un bouquin sur le sujet pour tout expliquer.
Mais, si tu prend une loupe d'imprimeur et regarde sur un magazine de près, une photo qui te paraît d'une belle couleur unie, tu découvriras qu'en réalité la couleur est composée de petits points de ces 4 couleurs. Le cerveau humain interprète les combinaison de ces points comme étant de l'orange, du violet etc...

Pour ce qui est de la qualité visuelle d'une photo à l'écran, ça peut paraître difficile à comprendre, mais il faut bien se dire qu'un photo n'est qu'un fichier binaire composé d'un certain nombre de pixels horizontaux et d'un certain nombre de pixels verticaux. Et donc, imagine une image de 300 pixels horizontaux x 200 pixels verticaux. La totalité de cette image contient 60 000 pixels, pas un de plus, pas un de moins. Donc que ce soit sur écran Mac ou écran PC, que ce soit sur un écran de 50 pouces ou de 15 pouces, si tu règles le zoom d'affichage de telle sorte que cette image tienne partout sur la même surface, admettons un rectangle de 300 mm x 200 mm , tu admettras que dans ce cas, quel que soit l'écran, nous aurons 1 pixel pour 1 mm d'écran. Donc une qualité d'affichage identique. Si tu as bien intégré ce fait qui est une réalité à laquelle on ne peut échapper, la compréhension suivra. Bien entendu un écran qui est capable d'afficher plus de pixels dans une surface équivalente est un plus, mais pas pour la qualité d'affichage à taille d'image égale, mais pour contenir plus d'image. Encore un exemple. Une copie d'écran d'un ordinateur de 15" en 640 x 480 affiché sur un écran de de 20" réglé en 1024 x 768 , n'occupera pas toute la surface de l'écran. Si tu passes l'écran de 1024 x 768 à 1680 x 1050, l'image de 640 x 480 sera plus fine, mais surtout encore beaucoup plus petite sur ce même écran.

-Il ne faut en aucun cas comparer ton écran d'un ordi. portable , admettons en 800 x 600 ou 1024 x 768, avec une télé. Ça n'a strictement rien à voir. Une télé, à écran non numérique; utilise un format Pal de 720 x 576 lignes en mode entrelacé (les lignes sont alternativement "rafraîchies" . Dans ces conditions les très grands écrans TV ne sont pas "regardables" , pour obtenir un affichage de qualité sur des grands écrans TV, il fallait changer le type de résolution,et le fait de passer à la diffusion numérique à permis de reconsidérer la technologie des écrans TV; c'est bien une des raisons qui fait qu'aujourd'hui les TV puissent atteindre la taille qu'on lui connaît. Pour s'en rendre compte , il suffit de voir les "écrans géants" d'il y a seulement 4 ou 5 ans , d'avant le numérique donc d'avant le Full HD. Ceux qui, il y a peu, ont dépensé une fortune pour les grand écrans à retro-projection doivent s'en mordre les doigts en ce moment.

Pour le principe de la compression, tu as bien compris sauf qu'ouvrir un fichier Bitmap de Windows et le ré-enregistrer en bitmap sans compression, ne change pas sa qualité. On diminue la qualité d'un fichier si on l'ouvre et le ré-enregistre avec une compression, jpeg ou autre. Autrement , effectivement des pixels très proches, mais différents au départ vont après compression, se référer à un même pixel de référence. C'est cela la compression. Tu comprendras alors qu'après plusieurs modifs et ré-enregistrements, il y a une dégradations non négligeable. ( Le principe est le même pour la musique.) Le système "décrète" que ce pixel peut être assimilé à tel pixel de référence ou non, en fonction de la qualité choisie dans les options lors de l'enregistrement.

Bonne soirée..:)
0
fakebios Messages postés 21 Date d'inscription   Statut Membre Dernière intervention  
 
Bonsoir Francis.

Je vois que j'ai encore pas mal de choses à lire sur le sujet.
Je connaissais un peu l'histoire des couleurs complémentaires, des couleurs de base, et également de la technique d'impression des magazines (je connaissais vraiment les bases de base, et pas la technique d'impression par héliogravure et le de procédé offset lol).

Je crois que je vais m'inscrire à un cours de photo ou m'abonner à un magazine spécialisé.

En ce qui concerne les pixels ; c'est vrai que j'ai du mal à me dire que suivant le réglage, dans ton exemple, un pixel peut valoir un millimètre. Je crois que cela vient d'une erreur de définition du pixel de ma part. Pour moi le pixel représente le plus petit point affichable possible.

Mais tu m'a reperdu sur le coup de la comparaison télé / écran d'ordi lol (c'est pas grave)

Et enfin pour revenir à notre problème de base : lorsque tu dis "effectivement des pixels très proches, mais différents au départ vont après compression, se référer à un même pixel de référence", tu parles bien de pixels proches par leur teinte, et non par leur distance. C'est pas les pixels côte à côte, mais des pixels proches dans la teinte ??

En tout cas merci encore de tes explications. Je ne sais pas si tu tapes vite, mais cela doit te prendre du temps.
A plus.
Fabien.
0
Utilisateur anonyme
 
Bonsoir Fabien,

Je tape assez vite , depuis le temps :-)

Pour les pixels, "proches" bien entendu je parle de leur teintes. Autrement ça n'aurait aucun sens. On peut avoir une ligne rouge vif, bien délimitée sur un fond blanc ou bleu (drapeau français :-) ), donc des pixels proches par la distance mais éloignés par leur teintes.

Un pixel représente la plus petite information contenue dans un fichier image, photo. Après il y a la capacité de l'écran à représenter ce pixel. Ce qui est autre chose. Les anciens écrans d'ordinateur, cathodiques, indiquaient leur capacité de reproduction du plus petit point, en indiquant la valeur du "pitch" , qui était d'environ 0,25mm pour les bons écrans et 0,32mm pour les écrans moyens. Les écrans Trinitron utilisaient une grille particulière pour améliorer la précision de ce pitch. Les écrans plats LCD utilisent des transistors. Un transistor = 1 pixel. Un écran plat LCD a donc une définition dite "native" qui correspond au nombre total de pixels inclus dans l'écran. Quant on change sa définition, plusieurs pixels seront groupés pour former un point.
A noter que les photographes pro. préfèrent toujours, encore aujourd'hui, travailler sur les écrans cathodiques, plus précis, plus subtiles dans la reproduction des couleurs. (après étalonnage sérieux de toute la chaîne de production).
Puisque les couleurs sur un écran cathodique résultent bien d'un mélange des faisceaux des couleurs de base, RVB, diffusés séparément par le canon à électrons.

Pour revenir à la télé. Il est vrai que la télé diffuse des films sur DVD enregistrés en Pal donc 720 x 576 (les premières et dernière lignes n'étant pas utilisées d'ailleurs pour l'affichage visible). Mais la définition du téléviseur en France est maintenant de 625 lignes, anciennement 819 lignes. Juste pour compliquer le tout. Mais surtout , on ne regarde pas une télé à la même distance qu'un écran d'ordinateur, donc les points grossiers ne seront pas perçus de la même manière. Et de plus à la télé , ce sont toujours , ou presque, des images en mouvement, plus rarement des photos. Quand ce sont des photos, celles-ci seront moches comparées à un écran ordinateur, sauf sur les écrans numériques HD. De plus la diffusion télé utilise la rémanence rétinienne pour nous tromper, en effet la télé procède à un balayage de rafraîchissement de l'écran tous les 50èmes de secondes ou tous les 100èmes de secondes pour les écran 100 Hz.
Il n'y a en réalité "aucune" image de présente sur un écran de télé. à aucun moment. C'est notre mémoire visuelle qui nous fait croire qu'une image existe. Pour preuve, fais une photo d'un écran TV , appareil calé sur par exemple 1/250ème. et regardes le résultat. Pour photographier un écran TV, il faut travailler sous sa vitesses de rafraîchissement. Pareil pour un écran cathodique d'ordinateur.
Vaut mieux abandonner l'idée de comparer une télé classique avec un écran ordinateur, surtout un écran LCD.

Bonne nuit :-) , toujours passionnant de parler de photos...
0
fakebios Messages postés 21 Date d'inscription   Statut Membre Dernière intervention  
 
Salut Francis.
Je comprends mieux maintenant.
En fait il faut distinguer le pixel de l'image, le pixel de l'ecran, le pitch (sur les ancien ecrans a tube cathodique) et le point sur les ecrans LCD.

Le pitch etant la distance entre 2 pixels de meme couleur sur un ecran a tube cathodique.
Le point, representant en fait le pixel de l'ecran LCD.

Je sais que la tele utilise la memoire visuelle de l'oeil. Notre oeil capte lui aussi les images a une certaine frequence, tout comme les cameras et camescopes. C'est pourquoi on a parfois l'impression que les roues de voiture tournent lentement a l'envers.

En effet c'est toujours passsionant de parler de photo.

Un ami m'a egalement parle de l'extension png et gif. La png etant une compression sans perte, et donc ayant un interet surtout pour les petites photos ou les vignettes.
Et la gif etant une exension de format avec compression en 256 couleurs seulement je crois.

A bientot.
0