Suggestion sur un article Hardware.

Kheil Messages postés 846 Date d'inscription lundi 19 mai 2008 Statut Membre Dernière intervention 19 février 2010 - 27 juil. 2008 à 22:09
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 - 25 août 2008 à 00:54
Astuces // Matériel // Carte graphique.

Comment choisir une carte graphique pour son Pc ? par Marcmarais.

"Sa quantité :

* 256 Mo suffisent pour les cartes d'entrée de gamme ;
* 512 Mo sont nécessaires pour les cartes avec un GPU puissant ;
* 1Go est indispensable pour les cartes très haut de gamme ou à 2 GPU. "

Précisions : Lorsque qu'une carte Bi-gpu affiche une mémoire de 1 Go, cela veut en réalité dire que chacun des Gpu à en sa possession seulement 512Mo, pas plus.
C'est pourquoi la 9800GX2 et Hd3870 ne sont pas très attrayantes car dans les hautes résolutions et filtres activées, les performances s'effondrent duent à cette quantité trop faible.


"Enfin, il y a la largeur de bus : elle peut être de 64, 128, 256, 384 et 512 bits :
plus le bus est large, plus les échanges entre le GPU et la mémoire seront rapides.
Il faut au moins 256 bits pour une carte performante. "

Précisions : A savoir que la quantité de mémoire dépend de ce bus. Ainsi pour une 8800 GTX dont le bus est de 384 Bits, la quantité de mémoire est : 384*2 = 768 Mo.
De même avec la Hd4850 dont le bus est de 256 Bits, et donc la mémoire à pour quantité : 256*2 = 512 Mo ou 256*4 = 1024Mo.

" Deux fabricants se partagent le marché de la carte graphique : nVidia et ATI (racheté par AMD maintenant). "

Précisions : Il ne faut pas oublier qu'Intel est le premier fournisseur mondial de chipset graphique. Mais bon ici, ce n'est peut-être pas la peine de le préciser :p

" et la 9800 GTX n'est en fait qu'une 8800 GTX nouvelle version. "

Erreur : La 9800 GTX n'est qu'une 8800 GTS 512 Mo overclocké.


"Par contre, pour comparer les performances d'une carte graphique nVidia et d'une carte ATI, c'est plus compliqué : on pourrait décider de regarder de plus près dans le GPU, et de comparer le nombre de processeurs de flux, d'unités de texturing et de ROP's, cela est possible mais l'architecture assez différente des processeurs de flux chez nVidia et ATI ne permet pas de tirer des conclusions facilement. "


Précision : Cela est impossible car l'architecture est très différente et ne permet de tirer aucune conclusion. Exemple : Différence entre Hd4870 et GTX 260 : Bus : 256 bits contre 448 bits ; Transistors 956 millions contre 1400 millions ; Nombre D'ALU : 800 contre 192 ; Etc. Alors que la Hd4870 est un poil plus performante.


" Les joueurs en ligne pourront se contenter d'un carte moins puissante, les jeux en ligne étant peu exigeants en ressources système. "

Erreur : COD4 ; Crysis sont des jeux en lignes et sont gourmands :) Il n'y a pas que 1.6 :p


Concernant le paragraphe sur le choix du processeur, il est presque totalement erroné. Puisque au delà d'un E7200 ou 6400+, la différence de performances n'est que de quelques fps . Donc dire qu'il est nécessaire d'un Core 2 Duo 3Ghz pour du haut de gamme et un core 2 Quad 3Ghz pour du très haut de gamme pour ne pas brider, est totalement faux. (Surtout qu'un Quad core est inutile dans les jeux à de rares exceptions.)

Voila.

Cdt.

14 réponses

Kheil Messages postés 846 Date d'inscription lundi 19 mai 2008 Statut Membre Dernière intervention 19 février 2010 96
27 juil. 2008 à 22:44
Un quad core est inutile a de rares exceptions.

J'ai dit cela dans l'optique d'une utilisation jeux, qui était l'optique de l'auteur dans le paragraphe.

Quand a comparer Nvidia et ATI , essaie seulement de suggérer que linux est mieux que windows et vera ce que ce genre de comparaison obtient comme réponses.

Et je n'ai jamais suggéré que Nvidia était meilleur qu'ATi, ni inversement.

PS : J'ai oublié un bout de phrase : "Alors que la Hd4870 est un poil plus performante qu'une GTX260." C'est peut-être cela qui à porter à confusion.
4
Toufou13190 Messages postés 10690 Date d'inscription mardi 8 janvier 2008 Statut Membre Dernière intervention 21 septembre 2015 806
27 juil. 2008 à 22:22
Salut Kheil,

je suis pas du genre a rembarrer d'entrée de jeu, mais la question qui me viens la tout de suite , c'est :

et alors ?

tu est sur le forums "suggestions" qui comme c'est écrit quand tu passe la souris dessus est fait pour suggérer des ameliorations sur le forum, mais là je n'ose penser ce que tu suggère, alors explique toi !
Tu est faché après Marcmarais ?
Il y a les messages personnels pour cela.
Sinon explique toi !
0
jee pee Messages postés 40225 Date d'inscription mercredi 2 mai 2007 Statut Modérateur Dernière intervention 19 septembre 2024 9 333
27 juil. 2008 à 22:25
Salut,

Kheil sur ce topic avait demandé comment proposer des modifications d'une astuce : http://www.commentcamarche.net/forum/affich 7614906 corrections des astuces

Et c'est ce qu'il fait ici, fort à propos.

cdt
0
Toufou13190 Messages postés 10690 Date d'inscription mardi 8 janvier 2008 Statut Membre Dernière intervention 21 septembre 2015 806
27 juil. 2008 à 22:39
Alors merçi a lui de ces précisions, mais je continue de penser que s'adresser a l'auteur de l'astuce aurait été plus profitable, quand aux appréciations ...
Un quad core est inutile a de rares exceptions
Oui pour l'instant, donc en adequation avec une machine très haut de gamme pour de futurs jeux qui permet avec un multi screen de jouer a time crisis tout en continuant de répondre sur le forum et copier des films sur ton serveur.
Quand a comparer Nvidia et ATI , essaie seulement de suggérer que linux est mieux que windows et vera ce que ce genre de comparaison obtient comme réponses.

Et excuse moi si je t'ai paru désagréable, mais il y en a deux qui me courrent sur le choux depuis tout a l'heure, et bien que j'ai dit que je ne m'enerverai pas je sens que je suis "agacé"

A+
0
Toufou13190 Messages postés 10690 Date d'inscription mardi 8 janvier 2008 Statut Membre Dernière intervention 21 septembre 2015 806
27 juil. 2008 à 23:38
Ben je croyais t'avoir répondu mais ou j'ai merdé ou mon post a été javelisé

Regarde ces tests : cliquer içi !

Tu verras que la GTX260 est légèrement en retrait et que la GTX280 est devant pour 3 jeux sur 4
En fait ça dépend des jeux et de leur devellopement optimisé sur un ou l'autre des fabricants !

A+
0

Vous n’avez pas trouvé la réponse que vous recherchez ?

Posez votre question
Kheil Messages postés 846 Date d'inscription lundi 19 mai 2008 Statut Membre Dernière intervention 19 février 2010 96
27 juil. 2008 à 23:40
Il n'y a pas la Hd 4870 sur ton test. Il s'agit seulement de la Hd4850.
4
Toufou13190 Messages postés 10690 Date d'inscription mardi 8 janvier 2008 Statut Membre Dernière intervention 21 septembre 2015 806
27 juil. 2008 à 23:51
Hé oui on peut pas tout avoir ! mais l'idée c'est que les resultats fluctuent avec les jeux et pas seulement avec le matériel, sinon se serai toujours la même carte qui serai devant, cela depend de l'optimisation du jeu pour le pilote fourni aux devellopeurs.
Donc, puisque c'est là que je voulais en venir, la comparaison est suggestive et ne peux pas se contenter de comparaisons materielles, elle ne peux que refléter le sentiment de l'auteur, sauf a établir un tableau sur un panel de jeux consequents.

Sur ce bonne nuit, j'adore discuter mais il faut dormir un peu avant d'aller gagner de quoi payer l'abonement internet.

A+
0
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 4 556
28 juil. 2008 à 12:43
bonjour Kheil,

puisque tu as choisi le débat en place publique, je te répondrai ici

1) Quantité de mémoire :

je dis :
"* 256 Mo suffisent pour les cartes d'entrée de gamme ;
* 512 Mo sont nécessaires pour les cartes avec un GPU puissant ;
* 1Go est indispensable pour les cartes très haut de gamme ou à 2 GPU. "

tu dis :
Précisions : Lorsque qu'une carte Bi-gpu affiche une mémoire de 1 Go, cela veut en réalité dire que chacun des Gpu à en sa possession seulement 512Mo, pas plus.
je suis d'accord

C'est pourquoi la 9800GX2 et Hd3870 ne sont pas très attrayantes car dans les hautes résolutions et filtres activées, les performances s'effondrent due à cette quantité trop faible

je suis moins d'accord, la HD 3870x2 ne s'effondre pas en 1920, elle reste au dessus de la 8800 Ultra dans les différentes résolutions :
https://www.clubic.com/article-92330-5-amd-radeon-hd-3870-x2-r680-rv670.html

avec AA activé, les performances de la série HD 3800 n'est pas bonne, du à un manque d'unités de texturing et de ROP's

Contrairement à toi, je ne suis pas sur que la HD 3870x2 ferait mieux avec plus de 1 Go de mémoire...

Mais le problème n'est pas là :

je fais un article général, je ne détaille pas les performances telle ou telle carte, ce serait interminable

je conseille simplemement le lecteur inexpérimenté pour choisir sa carte graphique,
car une erreur courante est de croire qu'avec beaucoup de mémoire, une carte graphique est puissante

par exemple ca ne sert à rien de prendre 512 Mo ou meme 1 Go de mémoire sur un GPU peu puissant comme le G84 de la 8600 GT
Inversement, il ne faut pas prendre 256 Mo de mémoire sur des cartes à GPU puissant comme la 8800GT, ca la bride nettement


2) Sur la largeur de bus :

je dis :
"Enfin, il y a la largeur de bus : elle peut être de 64, 128, 256, 384 et 512 bits :
plus le bus est large, plus les échanges entre le GPU et la mémoire seront rapides.
Il faut au moins 256 bits pour une carte performante. "

tu dis :
Précisions : A savoir que la quantité de mémoire dépend de ce bus. Ainsi pour une 8800 GTX dont le bus est de 384 Bits, la quantité de mémoire est : 384*2 = 768 Mo.
De même avec la Hd4850 dont le bus est de 256 Bits, et donc la mémoire à pour quantité : 256*2 = 512 Mo ou 256*4 = 1024Mo
.

je suis d'accord avec toi, sur une carte bien concue, la largeur de bus correspond avec la quantité de mémoire, mais pas sur toutes :
je te redonne l'exemple de la 8600 GT ou GTS 512 Mo, le bus ne fait que 128 bits...
Il me parait donc nécessaire d'apporter cette précision...

3)Il ne faut pas oublier qu'Intel est le premier fournisseur mondial de chipset graphique
je parle de cartes graphiques séparées, pour jouer, par pour faire de l'affichage bureautique^^

4) je dis :
" et la 9800 GTX n'est en fait qu'une 8800 GTX nouvelle version. "
tu dis :
Erreur : La 9800 GTX n'est qu'une 8800 GTS 512 Mo overclocké

c'est du détail, on peut la considéré comme l'un ou l'autre,mais si ca te fait plaisir, je veux bien changer ca

Mon but ici était d'attirer le lecteur sur le fait que la série 9000 toute entière n'est qu'un remake de la série 8000 :
la 9600 GT est une 8800 GT avec un demi GPU activé, et des fréquences en hausse,
La 9800 GTX n'est qu'une 8800 GTS 512 Mo overclockée

5) Après les amuses gueules, le plat de résistance :

la comparaison performances d'une carte graphique nVidia et d'une carte ATI

je n'ai pas voulu entrer trop dans les détails car cet article est destiné au néophyte, pas à l'expert (que je ne suis pas)
je dis que c'est compliqué, mais pas totalement impossible, car même si les architectures sont différentes, elles sont toutes 2 basées sur des unités de traitement de flux, les "Stream Processors" (SP), des unités de texturing, et des ROP's

tu dis :
Exemple : Différence entre Hd4870 et GTX 260 : Bus : 256 bits contre 448 bits ; Transistors 956 millions contre 1400 millions ; Nombre D'ALU : 800 contre 192 ; Etc. Alors que la Hd4870 est un poil plus performante

tu commets l'erreur classique de prendre les valeurs brutes des Stream Processors de ATI, plus flatteuses
or les Stream Processors de ATI sont de type SIMD (Single Instruction, Multiple Data) vec 5, alors que ceux de nVidia sont de type SIMT (Single Instruction, Multiple Threads) :
le RV770 va travailler sur 160 éléments, chaque élément pouvant contenir jusqu'à cinq instructions : ses unités de calcul sont en effet de type vec5
tu peux lire l'article de Clubic pour plus d'explication :
https://www.clubic.com/article-145442-2-amd-ati-radeon-hd-4850-4870-rv770-geforce-gtx-260.html

il faut donc déjà diviser par 5 les Stream Processors d'ATI pour pouvoir comparer avec nVidia,
ce qui donne 160 SP pour les HD 4850/70, 192 pour la GTX 260 et 240 pour la GTX 280
or les performances des HD 4870 et GTX 260 sont voisines, ce qui montre bien qu'on est pas loin de la vérité rien qu'en comparant les Stream Processors ; il faut bien sur ensuite comparer les vitesses de la mémoire, le nombre d'unités de texturing et de ROP's...

C'est un sujet très intéressant, je pense qu'on doit pouvoir arriver à comparer approximativement les performances des cartes ATI et nVidia de cette manière, car rien ne remplacera les tests réels sur benchmarks ou jeux,
j'avais l'intention de compléter mon article sur ce sujet dès que mes recherches seraient plus avancées, mais je me demande si ca ne dépasse pas un peu le cadre d'une astuce...

6) indication du CPU :
tu dis :
Concernant le paragraphe sur le choix du processeur, il est presque totalement erroné.
j'aime bien le sens de la nuance chez toi...

Je ne suis pas d'accord, les tests montrent qu'avec un CPU puissant, tu profites mieux des performances de ta carte graphique, voir mon article sur le CPU Limited
Peu de jeux utilisent les Quad Core actuellement, je suis d'accord, mais plusieurs les utilisent déjà (Supreme Commander, Lost Planet,...)
les sites de tests utilisent tous des Quad Cores, et les résultats des performances de cartes graphiques sont meilleurs sur benchs avec un Quad Core ; des CCMistes se posent des questions sur leur score 3DMark06 par exemple, car avec un C2D ils n'obtiennent pas les résultats des sites de tests, mais c'est normal

Par exemple, avec mon E6850, ma HD 3850 obtient 9600 à 3DMark06, un Quad Core ne donnerait pas mieux (à part le score CPU),
mais la HD 4850 donne 11 500, alors qu'avec un Quad Core, elle obtient 12 600, d'où mon conseil.

je suis actuellement en vacances, et je te dis à début Aout pour la suite de ce débat
0
Kheil Messages postés 846 Date d'inscription lundi 19 mai 2008 Statut Membre Dernière intervention 19 février 2010 96
28 juil. 2008 à 13:07
1.)

J'ai précisé : " C'est pourquoi la 9800GX2 et Hd3870X2 ne sont pas très attrayantes car dans les hautes résolutions et filtres activées, les performances s'effondrent due à cette quantité trop faible "

Donc ce n'est pas cette page la du test mais celle d'après :

https://www.clubic.com/article-92330-6-amd-radeon-hd-3870-x2-r680-rv670.html

Et encore il n'y a que 4 jeux de testés qui ne sont pas très lourd pour la moitié, un autre test serait plus approprié.

2.)

"je suis d'accord avec toi, sur une carte bien conçue, la largeur de bus correspond avec la quantité de mémoire, mais pas sur toutes :
je te redonne l'exemple de la 8600 GT ou GTS 512 Mo, le bus ne fait que 128 bits...
"

C'est exactement pareil : 128*2 = 256 Mo ; 128*4 = 512 Mo : 128*8=1024 Mo.
La quantité de mémoire dépends toujours de ce bus.

4.)

Il me semble plus exacte de dire 8800 GTS 512 Mo Overclocké car s'il on dit que c'est une 8800 GTX nouvelle version on s'attend à des performances largement meilleures, or c'est très loin d'être le cas.

5.)

Je suis d'accord, il n'est pas nécessaire d'entrer dans les détails architecturaux sur cette article.

6.)

En effet j'ai vu ton test concernant le P4 et C2D, je suis d'accord qu'entre ces deux la il y a une net différence je n'ai pas dit le contraire.

Le Score 3dMark est très dépendant du Cpu, ce qui limite un peu son intérêt car ne reflète pas la situation en jeu, puisque dans les jeux les différences ne sont que de quelques Fps au delà d'une E7200. Confère les tests Cpu sur la toile.

Bonnes Vacances :p

0
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 4 556
28 juil. 2008 à 13:38
1) mémoire minimale :
je pense que tu te trompes sur le but de cet article :
je ne vais pas conseiller les fabricants à revoir leur copie !
il n'y a pas à ma connaissance de cartes bi GPU avec 2 Go de mémoire, donc ta remarque ne sert pas à grand chose...
mais je veux bien retirer "bi GPU", ca ca peut te faire plaisir :)

2) je ne comprends pas ta réponse
la 8600 GT 512Mo a un bus mémoire de 128 bits, alors que la 8800 GT 512 Mo a un bus 256 bits,
ce n'est donc pas automatique d'avoir 256 bits quand on a 512 Mo de mémoire...

4) je veux bien changer ca :)

6) pour le CPU, c'est juste une indication, pour ne pas brider une carte très performante, je vais enlever "ces cartes nécessitent" et mettre "il vaut mieux...", ca te va ?

Merci , à + ^^
0
Kheil Messages postés 846 Date d'inscription lundi 19 mai 2008 Statut Membre Dernière intervention 19 février 2010 96
28 juil. 2008 à 13:41
Je te répondrai à ton retour, je ne veux pas gâcher tes vacances à rester sur le Pc :p
0
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 4 556
28 juil. 2008 à 13:45
A debut Aout alors^^
0
Toufou13190 Messages postés 10690 Date d'inscription mardi 8 janvier 2008 Statut Membre Dernière intervention 21 septembre 2015 806
28 juil. 2008 à 14:48
Je savais bien qu'il valait mieux s'adresse au bon dieu qu'a ses "seins" ;)

Salut marc, bonne vacances, a dans quelques jours !

A+
0
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 4 556
28 juil. 2008 à 14:50
merci Toufou, à début Aout !
0
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 4 556
28 juil. 2008 à 14:49
Kheil, ca me revient, je sais pourquoi j'ai pas mis "la 9800 GTX n'est qu'une 8800 GTS 512 Mo overclockée",

car elle est bien basée sur G92 de la 8800 GTS, mais avec des fonctionnalités supplémentaires, comme l'Hybrid Power , lis l'article de Presence PC :
http://www.presence-pc.com/tests/GeForce-9800-GTX-22769/2/

Sur le même article, tu peux voir que sur Crysis par exemple, la 9800 GTX est au dessus de la 8800 GTX sans filtrages, et en dessous filtrages activés
c'est pourquoi j'ai mis "la 9800 GTX n'est qu'une 8800 GTX nouvelle version"

mais je suis d'accord, dans les jeux, elle se comporte comme une 8800 GTS 512 Mo o/c
mais à mon avis, mettre ca dans mon article est réducteur par rapport au discours officiel nVidia, et je ne veux pas que CCM ait des problèmes avec nVidia à cause de moi...

Encore une fois, cet article essaie d'indiquer à un néophyte comment s'y retrouver dans la jungle des cartes graphiques, c'est pas une comparaison carte par carte !

je pense que je vais simplifier ce paragraphe, je souhaite que ce soit clair pour le néophyte


Quant à la quantité de mémoire, j'ai mis :
"1Go est indispensable pour les cartes très haut de gamme ou à 2 GPU"
ce n'est pas faux, je vois pas pourquoi je changerai ca...
De plus, si je retire "à 2 GPU", ca ne concerne plus que la GTX 280, c'est un peu limité pour un article général...

J'attends l'avis des autres CCMistes :)

A +
0
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 4 556
19 août 2008 à 12:45
bonjour Kheil,

la fin des vacances étant là, je reprends un à un les différents points de ton message d'origine :

1) la quantité de mémoire :

je mets :
"* 256 Mo suffisent pour les cartes d'entrée de gamme ;
* 512 Mo sont nécessaires pour les cartes avec un GPU puissant ;
* 1Go est indispensable pour les cartes très haut de gamme ou à 2 GPU. "

Cette dernière phrase a pour but de faire comprendre aux néophytes qu'une quantité de mémoire importante ne sert que sur les cartes puissantes , car on trouve des 8600 GT avec 512Mo, voire 1 Go de mémoire !

Tu dis :
Lorsque qu'une carte Bi-gpu affiche une mémoire de 1 Go, cela veut en réalité dire que chacun des Gpu à en sa possession seulement 512Mo, pas plus.
C'est vrai, mais ca ne veut pas dire que la phrase "1Go est indispensable pour les cartes très haut de gamme ou à 2 GPU" est fausse

Tu dis ensuite :
C'est pourquoi la 9800GX2 et Hd3870 ne sont pas très attrayantes car dans les hautes résolutions et filtres activées, les performances s'effondrent duent à cette quantité trop faible.

Ceci est un autre débat, et ne concerne pas ma phrase.

De plus, c'est faux :

- la HD 4850 et 4870 ont aussi 512 Mo de mémoire, et leur performances ne s'effondrent pas filtrages activés en 1920, ce qui prouve que le problème de la HD 3870 n'est pas la quantité de mémoire, mais la structure du GPU, notamment le nombre d'unités de texturing et de ROP's, comme indiqué dans cet article :
Visiblement les changements apportés aux unités ROP font leur effet puisqu'en 1920x1200 le Radeon HD 4850 est plus rapide que les GeForce 9800 GTX et GTX+
extrait de :
https://www.clubic.com/article-145442-9-amd-ati-radeon-hd-4850-4870-rv770-geforce-gtx-260.html

- la toute récente HD 4870x2 possède 2Go de mémoire, et ses performances ne sont pas supérieures au CrossFire de HD4870 512Mo en haute résolution filtrages activés, regarde ce bench sous FEAR :

https://www.guru3d.com/articles-pages/radeon-hd-4870-x2-and-crossfire-review,14.html

Donc tes affirmations ne sont pas très exactes, et plus basées sur des impressions que des tests...

J'ai donc décidé de conserver ma phrase

2) la largeur de bus :

je mets :
"Enfin, il y a la largeur de bus : elle peut être de 64, 128, 256, 384 et 512 bits :
plus le bus est large, plus les échanges entre le GPU et la mémoire seront rapides.
Il faut au moins 256 bits pour une carte performante. "

tu dis :
la quantité de mémoire dépend de ce bus

C'est FAUX !

il existe des cartes de 512 Mo et 1Go, avec bus de 128 bits :
Nvidia Geforce 8600 GT cadencé à 540MHz
Mémoire - 512 Mo DDR2 cadencée à 800MHz
- Interface 128-bit

extrait de :
https://www.cdiscount.com/informatique/cartes-graphiques/point-of-view-8600-gt-512-mo/f-10767-vga150854.html#ancreonglet2
et aussi ici : Carte Graphique GeForce 8600 GT - 1024 Mo GDDR2 - 128 bits
extrait de :
http://www.rueducommerce.fr/Composants/Cartes-Graphiques/Cartes-Graphiques-nVidia/NVIDIA-RDC/415167-Carte-Graphique-GeForce-8600GT-1-Go-DDR2-PCI-Express-16X.htm

et inversement, il y a des cartes de 256 Mo à bus 256 bits (meme si elles sont plus anciennes):
GPU - ATI Radeon X1950 PRO cadencé à 600MHz
Mémoire - 256 Mo de mémoire DDR3 cadencée à 1400MHz
- Interface mémoire de 256 bits

extrait de :
https://www.cdiscount.com/informatique/cartes-graphiques/powercolor-x1950-pro-256-mo/f-10767-a57ctvd3.html#ancreonglet2

Renseigne toi un peu mieux avant d'affirmer des choses fausses :)

Donc je maintiens mon texte

4) La série 9000 :

je dis :
" et la 9800 GTX n'est en fait qu'une 8800 GTX nouvelle version. "
tu réponds :
Erreur : La 9800 GTX n'est qu'une 8800 GTS 512 Mo overclockée

alors merci pour "erreur", mais c'est possible de la considérer comme une 8800 GTX nouvelle version, vu ses performances très proches de la 8800 GTX, voir message 14

Un de mes magazines préférés, PC Update de juillet/aout 2008 , la considère comme une 8800 GTX bas-cout :
une GeForce 9800 GTX est en réalité une 8800 GTX low cost

De toute facon, c'est un peu du détail, mon but ici étant d'attirer le lecteur novice sur le fait que la série 9000 de nVidia est une fausse nouvelle série, car complètement basée sur les 8800 GT et GTS 512Mo

Et mettre "La 9800 GTX n'est qu'une 8800 GTS 512 Mo overclockée" est un peu réducteur, car nVidia a implémentée des fonctionnalités supplémentaires, comme l'Hybrid Power.

Donc, je te propose :
la 9800 GTX a la structure d'une 8800 GTS overclockée et se comporte à peu près comme une 8800 GTX


5) Comparaison théorique des GPU nVidia et ATI :

je dis :
"cela est possible mais l'architecture assez différente des processeurs de flux chez nVidia et ATI ne permet pas de tirer des conclusions facilement. "

J'ai mis cette phrase pour répondre à la demande d'un modérateur si l'on pouvait comparer sur le papier les cartes ATI et nVidia.

tu réponds :
Cela est impossible car l'architecture est très différente et ne permet de tirer aucune conclusion.

cette comparaison est difficile, mais pas impossible, comme j'ai commencé à te l'expliquer message 8

Bon, je ne m'étendrai pas plus, vu que tu t'es rétracté message 9

6) indication du CPU à associer avec la carte graphique :

tu dis :
Concernant le paragraphe sur le choix du processeur, il est presque totalement erroné.

Et bien je suis désolé, plus une carte est puissante, plus elle nécessite un CPU puissant pour s'exprimer complètement.
Les sites de tests prennent presque toujours des QuadCore à 3 Ghz ou plus pour faire leur essais, il y a une raison...

Mais ca dépend aussi de l'écran, le CPU est très important en basse résolution, ceci est surtout vrai en 1280 sur un 17 ou 19".
Bien sûr, dès que l'on va monter en résolution, sur écran de 22 ou 24 ", l'importance du CPU va diminuer, et il n'est pas nécessaire d'avoir un Quad Core.

Le même magazine PC Update de juillet/aout 2008 teste une vingtaine de CPU Intel, du E2140 au QX9770, et une dizaine de CPU AMD, du X24800+ au P X4 9850, sur différents applications, dont 4 jeux, en 1024 x 768 avec une 8800 Ultra , et ils trouvent que les performances augmentent avec la puissance des CPU :
Sur les 4 jeux testés, World in Conflict, Crysis, Unreal Tournament, Supreme Commander, le nombre d'images par seconde passe respectivement de :
31/42/55/20 avec un E2140
à 64//66/105/63 avec un QX9770

Les performances croissent régulièrement au début, puis se tassent quand on arrive vers le E8400, qui obtient déjà 58/63/99/51: c'est probablement lui le meilleur rapport performances/prix pour les jeux :)

Mais comme on obtient un peu mieux avec un Q9650 à 3 Ghz : 62/66/100/62, on peut le conseiller dans une configuration avec une GTX 280 ou une HD4870x2 : quand on investit 400 à 450€ dans la carte graphique, on peut (mais c'est pas obligatoire) mettre l'équivalent dans le CPU, ca forme un PC plus équilibré.
De plus, certains joueurs ont constaté ce mois-ci qu'en CrossFire de 4850, leur configuration à Dual Core présente les symptômes du "CPU Limited" : score limité en 1280 et bon score en 1920.

j'ai donc décidé de mettre ce conseil :
"Il vaut mieux avoir un CPU très puissant pour ne pas limiter ces cartes, genre Quad Core à 3 Ghz, surtout si on joues en 1280"

Bonne journée
0
Kheil Messages postés 846 Date d'inscription lundi 19 mai 2008 Statut Membre Dernière intervention 19 février 2010 96
24 août 2008 à 14:54
Salut,

Je reprends rapidement un point concernant le bus.

Tu affirmes que j'ai faux en donnant des exemples qui vont dans mon sens :


il existe des cartes de 512 Mo et 1Go, avec bus de 128 bits :
Nvidia Geforce 8600 GT cadencé à 540MHz
Mémoire - 512 Mo DDR2 cadencée à 800MHz
- Interface 128-bit
extrait de :
https://www.cdiscount.com/
et aussi ici : Carte Graphique GeForce 8600 GT - 1024 Mo GDDR2 - 128 bits
extrait de :
http://www.rueducommerce.fr/

et inversement, il y a des cartes de 256 Mo à bus 256 bits (meme si elles sont plus anciennes):
GPU - ATI Radeon X1950 PRO cadencé à 600MHz
Mémoire - 256 Mo de mémoire DDR3 cadencée à 1400MHz
- Interface mémoire de 256 bits
extrait de :
https://www.cdiscount.com/


1. 128*4 = 512 Mo.
2. 128*8 = 1024 Mo.
2. 256*1= 256 Mo .

Cela dépends bien du Bus.

J'ai fait cette remarque car sur certains topics, certains parlent en autres de 8800 GTX avec 1024 Mo de mémoire, ce qui est impossible.
Car le bus est de 384, soit 384*2=768 Mo pour le modèle de base et pour plus de mémoire il faudrait : 384*4=1536 Mo donc 1024 Mo bien impossible.
0
marcmarais Messages postés 23889 Date d'inscription mardi 24 avril 2007 Statut Modérateur Dernière intervention 17 avril 2024 4 556
25 août 2008 à 00:54
bonsoir Kheil,

on ne parle pas de la même chose :)

toi tu parles des valeurs possibles de la mémoire en fonction de la largeur de bus,
moi, je parle de la largeur de bus minimal pour un débit suffisant des infos et ne pas brider la carte

Les valeurs possibles de la mémoire sont effectivement liés à la largeur de bus, mais à mon avis ca n'offre pas beaucoup d'intéret de savoir ca,
car tu ne peux pas déduire la largeur du bus de la connaissance de la quantité de mémoire, tu vois bien dans ton exemple, le coef varie : 1, 4 , 8.
Or cette largeur de bus joue sur les performances

Qu'une 8800 GTX 1024 Mo ne puisse pas exister avec bus de 384 bits, oui,
mais nVidia pourrait très bien en sortir une de 1024 Mo à bus de 512 bits, ou à bus de 256 bits !
et il faudrait bien aller chercher l'info de largeur de bus, car elles n'auront pas les mêmes performances ...

je te prends un exemple concret :

la 8800 GT 512Mo existe en général avec un bus de 256 bits , mais certaines marques font des 8800 GT 512Mo avec bus de 128 bits ou 256 bits :
http://www.pointofview-online.com/default2.asp?content_id=702

Sur cette page , tu remarques que Point of View sort 3 versions de la 8800 GT :
une 1Go à bus 256 bits, une 512Mo à bus 256 bits, et la dernière, une 512Mo à bus 128 bits !

Alors évidemment cette dernière carte est moins chère, mais ses performances sont moins bonnes, car le bus de 128 bits bride les échanges mémoire<->GPU

Il faut donc bien attirer l'attention des acheteurs sur le fait qu'une carte à bus de 256 bits est plus performante ;)

Pour reprendre ta notion de coefficient, c'est la valeur 2 qui est l'optimale : bus de 256 bits pour 512 Mo, bus de 384 bits pour 768 Mo, bus de 448 bits pour 896 Mo, bus de 512 bits pour 1024Mo

Si la plupart de cartes actuelles ont un bus de 256 bits avec 512Mo , Nvidia connait bien ce coef, car les 3 dernières valeurs correspondent aux 8800 GTX, GTX 260 et GTX 280

J'ai pas jugé utile de donner cette info, je pense que si on fait attention à éviter les cartes de 128 bits, on évite la plus grande partie des problèmes de bus mémoire actuellement,
mais si tu penses que c'est important, sans trop complexifier mon article, je peux le mettre

A +
0