1050ti sur pcie 2.0 x16 vraie influence ?
Tito29
Messages postés
64
Date d'inscription
Statut
Membre
Dernière intervention
-
jumulka Messages postés 12157 Date d'inscription Statut Membre Dernière intervention -
jumulka Messages postés 12157 Date d'inscription Statut Membre Dernière intervention -
Bonjour,
J'ai branché ma cg 1050ti de marque Palit, massive, sur le 2e port pcie16 qui est du coup 2.0 (au lieu de 3.0 pour le 1er)
J'ai voulu bien faire en la descendant un peu par rapport au processeur !
Ma question est : pour cette carte graphique, ce port 2.0 x16 va t-il brider véritablement ses performances en 1080p ?
Surtout que j'ai joué au mmo BDO (qualité moyenne) et ça tient la route. Par contre en qualité hard, ça plante complètement...
Merci
J'ai branché ma cg 1050ti de marque Palit, massive, sur le 2e port pcie16 qui est du coup 2.0 (au lieu de 3.0 pour le 1er)
J'ai voulu bien faire en la descendant un peu par rapport au processeur !
Ma question est : pour cette carte graphique, ce port 2.0 x16 va t-il brider véritablement ses performances en 1080p ?
Surtout que j'ai joué au mmo BDO (qualité moyenne) et ça tient la route. Par contre en qualité hard, ça plante complètement...
Merci
Configuration: w10 / Firefox 80.0
A voir également:
- 1050ti sur pcie 2.0 x16 vraie influence ?
- Net framework 2.0 - Télécharger - Divers Utilitaires
- Cool edit pro 2.0 free download - Télécharger - Édition & Montage
- Usb 2.0 video grabber driver windows 10 - Télécharger - Divers Utilitaires
- Realtek pcie fe family controller - Forum Pilotes (drivers)
- Realtek PCle FE Family Controller ✓ - Forum Pilotes (drivers)
5 réponses
Bonjour,
les 2 pcie x16 sont en 2.0, donc l'un où l'autre ne change rien en terme de puissance. et même si le 1er était en 3.0, il n'y a que très peu de différence de performance
après sur le 1er slot ça ne craint rien non plus ^^
niveau perf global, c'est plus ton phenom qui sera à la traine ^^
les 2 pcie x16 sont en 2.0, donc l'un où l'autre ne change rien en terme de puissance. et même si le 1er était en 3.0, il n'y a que très peu de différence de performance
après sur le 1er slot ça ne craint rien non plus ^^
niveau perf global, c'est plus ton phenom qui sera à la traine ^^
flo88
Messages postés
28358
Date d'inscription
Statut
Contributeur
Dernière intervention
Ambassadeur
4 982
Bjr
Le deuxième port est rarement cablé en 16x même s'il en a le format.
Si ta carte est bien une M4A89GTD PRO/USB3, tu n'as comme le dit jumulka, que du PCIexpress 2.0 mais il faut remettre ta carte graphique sur le port normal car lui seul est cablé en 16, le second est en 4x, la perte de bande passante est abominable.
https://dlcdnwebsites.asus.com/maintain/web/500.html
Le deuxième port est rarement cablé en 16x même s'il en a le format.
Si ta carte est bien une M4A89GTD PRO/USB3, tu n'as comme le dit jumulka, que du PCIexpress 2.0 mais il faut remettre ta carte graphique sur le port normal car lui seul est cablé en 16, le second est en 4x, la perte de bande passante est abominable.
https://dlcdnwebsites.asus.com/maintain/web/500.html
Merci pour vos réponses...
Voici un screen de GPUZ :
https://drive.google.com/file/d/1TG8D5gykSEflp7r2tifooWrCzUX8ZNbh/view?usp=sharing
Il semble que la cg soit en 8x 2.0 non ?
En la plaçant sur le premier port, elle soit en 16x 2.0 comme vous l'avez dit.
Galère de tout démonter lol
Merci encore
Voici un screen de GPUZ :
https://drive.google.com/file/d/1TG8D5gykSEflp7r2tifooWrCzUX8ZNbh/view?usp=sharing
Il semble que la cg soit en 8x 2.0 non ?
En la plaçant sur le premier port, elle soit en 16x 2.0 comme vous l'avez dit.
Galère de tout démonter lol
Merci encore
Oui c'est ça.
L'indication
x16 2.0 donne l'interface que supporte la carte graphique et/ou la carte mère et le x8 2.0 donne l'interface actuellement en cours (en lecture direct, cela varie en fonction de l'utilisation de la CG)
Et le x8 c'est pas bon.........lui ne bougera pas
L'indication
Pcie x16 2.0 @ x8 2.0se lit de la façon suivante:
x16 2.0 donne l'interface que supporte la carte graphique et/ou la carte mère et le x8 2.0 donne l'interface actuellement en cours (en lecture direct, cela varie en fonction de l'utilisation de la CG)
Et le x8 c'est pas bon.........lui ne bougera pas
dans le manuel c'est marqué (page38) que le port gris (le 1er) est un pcie 2.0 x16 lien x8, que le port bleu (2e) est un pcie 2.0 x16 lien x16 avec une seul carte, x8 avec 2 cartes (1sur chaque pcie x16)
et il y a cette information :

la switch card c'est ça apparemment : https://www.ebay.fr/itm/Asus-switch-card-PCIe-/293652289568
donc tu peux essayer mais en théorie le slot 1 serra également en lien x8
(par contre aucune ne fonctionne en x4, le pcie2.0 x4 dans les specs c'est parce qu'il y a vraiment en port x4)
et il y a cette information :

la switch card c'est ça apparemment : https://www.ebay.fr/itm/Asus-switch-card-PCIe-/293652289568
donc tu peux essayer mais en théorie le slot 1 serra également en lien x8
(par contre aucune ne fonctionne en x4, le pcie2.0 x4 dans les specs c'est parce qu'il y a vraiment en port x4)
Oui, apparemment cette carte est assez bien équipé, le second port est en 8x mais semble pouvoir fonctionner en 16 x si le bridge de communication (switch card vga) est inséré dans le premier slot et une carte dans graphique dans le second.
@tito29
Si tu as toujours le bridge x16, insère le dans le slot un (bleu clair) et ta carte graphique devrait passer en 16x sur le slot 2 bleu foncé
https://www.tomshardware.fr/comparatif-de-cartes-meres-amd-890gx/3/
@tito29
Si tu as toujours le bridge x16, insère le dans le slot un (bleu clair) et ta carte graphique devrait passer en 16x sur le slot 2 bleu foncé
https://www.tomshardware.fr/comparatif-de-cartes-meres-amd-890gx/3/
C'est drôle de re-découvrir son matos même 10 ans Après ^^
J'ai eu raison de garder ce switch, sans avoir à quoi il servait....
Donc, je place ce switch dans le 1er slot x16 gris du haut, en laissant ma cg dans le second slot x16 bleu
Je ferrai ça la semaine prochaine, je vous tiendrai au courant.
Je me suis pas rendu compte de ce bridage car je jouais en 1080p et pas à des fps, juste des mmo genre FF14, BDO.... (justement je me suis posé des questions en essayant BDO en qualité hard 1080p, quand ça à planté le jeu...)
Cet ordi va encore durer un certain temps, c'est cool xD
J'ai eu raison de garder ce switch, sans avoir à quoi il servait....
Donc, je place ce switch dans le 1er slot x16 gris du haut, en laissant ma cg dans le second slot x16 bleu
Je ferrai ça la semaine prochaine, je vous tiendrai au courant.
Je me suis pas rendu compte de ce bridage car je jouais en 1080p et pas à des fps, juste des mmo genre FF14, BDO.... (justement je me suis posé des questions en essayant BDO en qualité hard 1080p, quand ça à planté le jeu...)
Cet ordi va encore durer un certain temps, c'est cool xD
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question
Bon. J'ai mis le switch dans le 1er slot et la cg dans le 2e x16,, et en effet je peux voir maintenant sur GPUZ : 16x 2.0 ????
C'est super mais je ne vois pas tellement de différence en fait, je peux vous donner un résultat 3dmark :
Sky driver :
Résultat général : 12 926
Graphique score : 20 159 90fps
Physics scire : 4 983 78 fps(8threads), 47fps(24threards), 29fps(48threads)
Combined score : 9 945 41fps
Message d'erreur ⚠️ me disant que le graphic mode n'était pas approuvé !
Je n'ai pas fait ce même test avant le changement donc je ne peux pas comparer précisément.
Malgré tout, ces scores sont t-ils corrects à votre avis ?
Car je n'y connais rien ^^
Merci
C'est super mais je ne vois pas tellement de différence en fait, je peux vous donner un résultat 3dmark :
Sky driver :
Résultat général : 12 926
Graphique score : 20 159 90fps
Physics scire : 4 983 78 fps(8threads), 47fps(24threards), 29fps(48threads)
Combined score : 9 945 41fps
Message d'erreur ⚠️ me disant que le graphic mode n'était pas approuvé !
Je n'ai pas fait ce même test avant le changement donc je ne peux pas comparer précisément.
Malgré tout, ces scores sont t-ils corrects à votre avis ?
Car je n'y connais rien ^^
Merci
selon leur site c'est plus bas mais c'est possible que ce soit ton cpu qui bottleneck
> https://www.3dmark.com/search#advanced?test=sd%20P&cpuId=&gpuId=1111&gpuCount=0&deviceType=ALL&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=
> https://www.3dmark.com/search#advanced?test=sd%20P&cpuId=&gpuId=1111&gpuCount=0&deviceType=ALL&memoryChannels=0&country=&scoreType=overallScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=