ATI Vs. NVIDIA la vrai différence

Fermé
Programmeur - 3 mars 2009 à 16:04
BouGeTonQ Messages postés 195 Date d'inscription dimanche 3 août 2008 Statut Membre Dernière intervention 2 avril 2009 - 3 mars 2009 à 21:21
Bonjour à tous,
Je voudrais savoir quelques informations a propos de ces 2 types de cartes graphique.

Par exemple, imaginons (dans un monde parfait =p) 2 ordinateurs de même puissance mais 1 assemblé avec NVIDIA et un autre assemblé en ATI. (Même cpu, ...)

Lorsque je jouerais au même jeu sur les 2 ordinateurs un à côté de l'autre quelle serai la différence entre les 2?

Théoriquement on pourait penser que que les 2 ordinateurs on exactement la même force, donc il n'y aurais pas de différence entre l'écran 1 qui affiche en NVIDIA et l'écran 2 qui affiche en ATI.

Voici l'information à confirmer:

Faux, d'un point de vu purement programmation:

-lorsque l'ordinateur 1 (NVIDIA) sera saturé (par trop de détails dans le jeu) celui-ci rendra invisible certains éléments en fond d'écran. (Il ne les affiches tout simplement pas)

-lorsque l'ordinateur 2 (ATI) sera saturé (par trop de détails dans le jeu) celui-ci rendra tous les élément de ton écran plus petit. (Exemple qand tu compare ton personnage principal dans un jeu au centre de l'écran celui-ci sera plus petit que sur l'écran de l'ordinateur qui roule en NVIDIA)

Donc c'est à nous de choisir, est-ce qu'on aime mieux rendre certains éléments de l'écran invisible en stress ou rendre les différents objets de l'écran plus petit!?

J'attends vos commentaires avec impatience =p
A voir également:

8 réponses

BouGeTonQ Messages postés 195 Date d'inscription dimanche 3 août 2008 Statut Membre Dernière intervention 2 avril 2009 15
3 mars 2009 à 21:21
Est-ce que dans le cas de saturation de cartes graphiques les effets que tu annonces s'accompagnent d'un ralentissement ou alors ces effets sont -ils générés justement pour éviter les ralentissements des jeux?

Lorsque j'arrivais à faire ramer ma 8800, j'avais juste des baisses de framerate mais je n'ai pas fait attention à la disparition des éléments d'arrière plan.

Depuis, avec le HD4870X2, je n'ai plus de problème de ralentissement. ;p
Donc je ne pourrais pas dire si les éléments sont plus petits.

Pour ce qui est des tests comparatifs, je ne sais pas si le liens qui est fait entre les 2 GPUs de chaque carte à un impact sur les performances. Entre les 2 GPU GT200 de la GTX295, la connexion est assurée par une nappe alors qu'entre les 2 RV770 de la HD4870X2, le lien est un switch PCI soudé au PCB. Cela a-t-il un réel impact? Je ne sais pas.

Il est à constater également les grandes différences de fréquences entre les 2 GPUs.

Ce que je dirais, c'est que le Texture Fill Rate est plus important pour la carte ATI qui possède un accès mémoire plus important, ce qui peut compenser le plus faible traitement des textures.

Pour ce qui est du Shader clock, je crois que c'est de coutume chez ATI d'avoir le même ratio que le core, à savoir 1:1, ce qui n'est pas forcément le cas chez NVidia qui utilise plus des coefficient compris entre 2.2 et 2.4 (8800GTS). Dans le cas de la GTX295, le coeff multiplicateur est à 2.16 (en arrondissant au supérieur).
Je crois que le Shader Clock est utile pour tout ce qui utilise les ombrages dans les jeux alors que le processeur graphique s'occupe du reste. Je ne suis pas sûr de cela.
4
fabalex Messages postés 1462 Date d'inscription lundi 16 février 2009 Statut Membre Dernière intervention 22 décembre 2009 110
3 mars 2009 à 16:46
beaucoup parle d'une gt300 gravé en 40nm
http://www.matbe.com

sinon nvidia qui ferai disparaitre certain élément de fond en burn ,cé possible moi perso sa le fait sur gta4 ,ou il ya des trés longue vue ,mé jé jamais eu de carte graphique ati haut de game alort je pourrais pas dire si les ati le font aussi ,cé sur que nvidia ou ati on des maniére différente de géré les pics ,perso je pense qu'il ya pas de différence réellement visible a oeil nue ,sa na pas grande importance que nvidia enléve certain élément de fond et que ati réduise des objet ,se qu'il compte cé que sa tourne bien et propre,
je suis assez d'accor avec toi bougetonQ sur le faite que nvidia a du mal a géré les graveur fine et économe,mé je kif nvidia malgré leur prix plus élévé

perso moi sa tourne nikél c'est tous se qu'il m'importe
2
BouGeTonQ Messages postés 195 Date d'inscription dimanche 3 août 2008 Statut Membre Dernière intervention 2 avril 2009 15
3 mars 2009 à 17:45
En effet, Nvidia annonce bien un GT300, mais pour l'instant, ce sont plus les GPU mobiles qui font l'actu Nvidia. Ils sortent sous peu des versions mobiles nommées GT280M et GT260M qui ne sont en réalité que des 9800M GTX avec quelques processeurs de flux en plus, bref, ils essaient encore de berner tout le monde avec des pratiques assez scabreuses.
Ceci dit dit, ATI n'est pas clean non plus de ce côté la, puisqu'ils annonces des GPU 4770 pour remplacer la 4830 qui elle était un intermédiaire entre le 4670 et le 4850, pour ceux qui sont perdus, c'est normal, les constructeurs sont prêts à tout pour faire de l'argent même en bernant le consommateur moyen qui n'y connait pas grand chose, alors quand en plus ils mettent en avant le paramètre mémoire là, ça devient le grand n'importe quoi.

Pour Nvidia, le fait de faire l'impasse sur le 55 nm pourrait être préjudiciable (ou pas?) dans la mesure où ils pourraient se priver d'un marché pour portables en temps que plate-forme intermédiaire, puisqu'il ne sont pas encore au point avec le 40 nm, il arrive donc je pense comme un petit nouveau.

Je suis un peu hors sujet, mais je tenais à dire ce que je pense de leurs pratiques marketing.

Pour ce qui est des cartes graphiques qui saturent, je pense que cela se vérifie surtout pour les cartes entrées et moyens gammes. En effet, il est je pense pas vraiment possible de saturer un carte au point qu'elle sera obligée de dégrader l'affichage pendant un jeu (même sur Crysis, avec une GTX280 ou HD4870X2, il est possible de jouer dans de très bonnes conditions sans pousser les cartes dans leurs limites).

Ainsi, je pense que la pratique de NVidia qui consiste à faire disparaitre certains éléments de fonds d'écrans est peut-être meilleure, car lors d'actions intenses, et c'est à ce moment là que le GPU travaille le plus, il est rare de regarder au loin, je pense à un FPS où par exemple l'attention du joueur se situe dans un rayon limité autour du personnage.
De la même manière, la plupart des éditeurs ont compris cela pour les phases d'actions, et il est rare (sauf dans le cas d'un niveau où le joueur est obligé d'utiliser un fusil à lunette qui permet de voir très loin) que le joueur puisse apercevoir l'horizon lorsque des ennemis sanguinaires foncent sur lui.
Généralement, il y a des éléments de décors proches (arbres, murs, collines etc...), d'abord pour l'intérêt tactique, ensuite pour profiter au mieux du jeu, permettre un framerate important pour une meilleure réactivité, ce qui empêche de voir loin et de rester concentré sur l'action.

Cela est moins vrais pour des jeux de courses de véhicules (qui sont généralement moins gourmands en ressources).

Pour ce qui est de la réduction des éléments, méthode ATI, je ne comprends pas trop le principe dans la mesure où ces éléments sont de toute manière calculés et interprétés par le GPU, seul le rendu est différents. Alors il est vrai que la restitution à l'écran d'éléments plus petits permettrait de soulager un peu la carte graphique, mais je ne pense pas que cela soit aussi efficace que la méthode qui consiste à ne rien afficher, puisque ces éléments seront tout simplement oubliés par le GPU.

Je penche donc pour la méthode NVidia concernant les saturations de cartes.
1
J'ai reçu ce message sur un forum:

"Maintenant la vraie différence est que les architectures des gpu des deux fondeurs on pris deux chemins différent... amd/ati a décidé d'unifié ses unités et de privilégié les shaders au détriment des unités de textures.
Nvidia c'est le contraire, ils ont tous misé sur les unités de textures."

Effectivement un comparant les specs de 2 cartes "équivalentes" on peux constater de bonnes différences:
http://www.gpureview.com/geforce-gtx-295-card-603.html (NVIDIA gtx 950)
http://www.gpureview.com/Radeon-HD-4870-X2-card-572.html (ATI Radeon-HD-4870-X2)

Comparer: Texture Fill Rate pour la texture
Comparer: Le shader processor pour le shader


Je confirme que Nvidia fait disparaitre des objets de l'affichage en fond d'écran, j'ai expérimenté ce phénomène dans plusieurs jeux. (Morrowwind (Exemple: dans une plaine le foin apparaît au fur et a mesure que j'avance), GTA 4 (également, etc) Reste à savoir si quelqu'un équipé en ATI a déjà noter ces phénomènes, une impression de dimensions des objets plus petit, etc.

p.s. Pour l'exemple de Morrowind et GTA 4 ma carte actuelle est une NVIDIA 7900gtx .
1

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
fabalex Messages postés 1462 Date d'inscription lundi 16 février 2009 Statut Membre Dernière intervention 22 décembre 2009 110
3 mars 2009 à 16:12
no comment^^
0
banana.boy Messages postés 2 Date d'inscription dimanche 1 mars 2009 Statut Membre Dernière intervention 4 mars 2009
3 mars 2009 à 16:19
Il faut juste que l'écran 2 soit plus grand que l'écran 1. :D

CQFD

----->[]
0
BouGeTonQ Messages postés 195 Date d'inscription dimanche 3 août 2008 Statut Membre Dernière intervention 2 avril 2009 15
3 mars 2009 à 16:20
Salut

Excellente question que tu poses là.

Je pense que dans les 2 cas, l'affichage sera plus lents, de là à savoir si l'un ou l'autre va effectuer une différence dans le rendu, c'est autre chose.

Je pense que la vraie question est quel est le point de saturation des deux montages, lequel va arriver à sa limite en premier.

D'ailleurs, l'approche de la conception entre les 2 fabricants est différentes. Nvidia prépare des puces très puissantes, mais encore chères à produire si on en croit la politique tarifaire des Cartes graphiques, et Nvidia peine encore à produire des puces avec une finesse de gravure moindre, mais rattrape tout de même son retour sur ce plan.

Ati a une autre conception, ils semblent mieux maitriser la fabrication des puces car ils parviennent à réduire sans trop de frais la finesse de gravure des puces, ce qui leur permet d'afficher des tarifs plus agressifs, et proposer malgré tout des modèles compétitifs, mais qui en performances pures, rivalisent tout juste avec les GPU les plus puissants du concurrent.

Par ailleurs, en ce qui concerne les éléments qui n'apparaissent pas à l'écran ou qui sont plus petits, je n'ai jamais constaté ce phénomène. De ce fait, je ne pourrais pas témoigner d'une préférence quelconque.

Ceci dit, il est plus fréquent d'observer des ralentissements dans le jeu, plutôt qu'une dégradation du rendu visuel.

Très bon sujet.
0
"Effectivement un comparant les specs de 2 cartes "équivalentes" on peux constater de bonnes différences:
http://www.gpureview.com/geforce-gtx-295-card-603.html (NVIDIA gtx 295)"

désolé taper trop vite =p
0