Aller à la page... |
Mon topic à moi [changement de pièces]
Suivre Répondre |
|
Partager | Rechercher |
|
Dernière modification par Drys Kaine ; 30/08/2022 à 23h40. |
![]() |
|
|
Diverses choses sont à tenter du plus "par acquis de conscience" à des choses plus concrètes...
En ligne de commande déjà, et en mode administrateur bien sûr : - un sfc /scannow - un chkdsk /B /X suivi d'un redémarrage, et d'une patiente attente... Je sais bien qu'on est loin de la problématique, mais s'assurer que tout est nickel dans l'écosystème de l'OS ainsi que dans l'état du système de fichiers du disque ne me semble pas si anormal. - désinstaller le logiciel nvidia, puis démarrer en mode sans échec, supprimer le périphérique ( la CG quoi ) via le gestionnaire idoine, ceci en cochant "supprimer le pilote [...]". Redémarrer, revenir en mode sans échec effectuer l'installation des pilotes de la carte graphique. Les derniers, en direct du site Nvidia. Pas ceux fournis sur un CD fourni avec la CM s'entend bien. - s'assurer d'avoir tous les pilotes à jour, aussi bien via Windows Update que via une vérification chez les constructeurs. Dans ton cas, je pense tout particulièrement aux pilotes liés au chipset X570. Le lien en direct du site d'AMD. On peut pas faire plus récent puisqu'ils datent du 25/08, et je précise qu'il ne s'agit pas de driver bêta. - dans Panneau de configuration\Tous les Panneaux de configuration\Options d’alimentation , vérifier dans les paramètres avancées qu'il n'y a pas d'économie d'énergie activée sur la gestion PCI Express - s'il y a des paramètres du même acabit dans le BIOS, les désactiver. Mais je ne suis pas persuadé que ce soit le cas... pour le CPU, oui, mais le côté GPU est plutôt géré par les pilotes en théorie. - si tout cela n'y a rien changé, tu peux utiliser un logiciel pour changer les fréquences comme tu évoquais l'avoir vu, et underclocker la CG. Soit via des classiques ( genre MSI Afterburner ), soit via celui de la marque. Par acquis de conscience et de compatibilité, j'utiliserais plutôt ce dernier pour ma part. Il permet en outre de gérer le bios & co. Tiens, un lien encore. Un -50 Mhz sur les boost et core frequencies devraient être suffisant. A noter qu'on pourrait aller dans le sens contraire, et estimer qu'ils ont juste mal conçus leur OC, et donner un coup de pouce à l'alimentation de la CG en l'upvoltant (oui on est dans le néologisme complet, mais vous avez compris! na! ![]() |
![]() |
|
|
Merci. Du maraboutage pour un truc censé fonctionner sans prise de tête quoi...
|
![]() |
|
|
750w ça va ptete aller, même pour une 3080...
|
![]() |
|
|
Oui, comme je te le disais, c'est normalement amplement suffisant, puisqu'en peak, la GTX 3080 suce dans les... *flemme de remonter le fil*... 350W environ. Auxquels tu ajoutes le TDP de ton processeur, un Ryzen 5 3600 si je me souviens bien (il semble me souvenir que j'avais mentionné avoir presque le même, ayant le 3600X), qui est de 65W. Et même en admettant qu'en mode boost l'enveloppe thermique grimpe ( je l'avais longuement expliqué par le passé... le TDP est proportionnel à la fréquence et au carré de la tension appliquée ), il ne dépassera pas les 100W à mon avis. Ta GTX3080 est-elle OC maintenant?
... la core frequency étant de 1,26 ou 1,44 Ghz en nominale sur les spécification nominales de nVidia pour, respectivement, les versions 12 et 10 Go, la fréquence de la GDDR n'est pas indiqué sur le site de nVidia ( wtf ? ) mais elle est commune entre la Gigabyte "OC", qui était en 12 Go, et la PNY en 10 Go, à savoir 1,9 Ghz. A priori, pas d'OC sur la mémoire en vue. Seulement sur le GPU, et seulement pour la Gigabyte. En effet, la PNY est aux fréquences nominales prescrites par nVidia pour une 10 G... et la Gigabyte se permet de mettre le label "OC", pour le seul motif d'avoir pousser la fréquence boost à 1755 Mhz en lieu et place de 1710. Wouah. On est au moins à +2,6% sur la fréquence boost. Et ça, si la carte ne throttle pas. Pfiou. Ce faisant je préfère de loin la PNY en ce qu'elle dispose d'une fréquence nominale de base de 1,44 Ghz, contrairement à la Gigabyte qui n'est qu'à 1,26. Eh oui. Ils n'ont pas OC la fréquence de base. Les coquins. ![]() Enfin bref, pour revenir à nos moutons, en admettant donc que le TDP nominal annoncé par nvidia ( de 320W pour la 10 Go, et de 350W pour la 12 Go!* ) soit celui à la fréquence de base, on peut estimer un TDP maximal qui, dans cette hypothèse pessimiste, serait de l'ordre de 1710 x 320 / 1440 soit 380W. Ce qui donnerait une hypothèse haute de 480W maximal pour le duo CG-CPU. Le reste sera très loin d'étouffer l'alimentation. Le seul regret que l'on pourrait avoir, c'est d'avoir un doute, selon la charge GPU et CPU, du fait que l'alimentation reste en mode fanless ( elle dispose d'un mode hybride il me semble, semi-fanless si tu préfères, donc à 0 rpm jusqu'à un certain seuil de charge, mais je ne retrouve plus son profil de ventilation ). |
![]() |
|
Alpha & Oméga
|
a bin ouai 620w ..
|
![]() |
|
|
Plait-il ?
![]() |
![]() |
|
|
Du mal à lire alors aussi, parce que les 620W, c'étaient ceux de l'Antec qui avait 10 ans et que THX a changé par une Corsair RM750 pour rappel.
![]() Ce qui, toi, ne t'a pas échappé, vu que tu pars sur la bonne base de puissance. ![]() Par contre tu n'as semble-t-il pas vu que la 10 Go avait, elle, un TDP nominal de 320W comme je l'évoquais. Mais bon, je te donne le crédit du fait que je fais souvent dans les pavés techniques. Toutes personnes m'ayant suffisamment connu ici ne le sait que trop. Et encore, je suis très soft là par rapport à dans le passé. ![]() Une différence qui est intrigante en ce que, avec 2 Go de GDDR6X de plus mais une fréquence de base revue à la baisse, en descendant de 1440 à 1210 Mhz, le TDP est plus grand. Alors soit nVidia s'est planté dans ses informations, soit la GDDR consomme énormément pour ce que c'est. Donc malgré une consommation du GPU diminuée de 16%, la consommation, elle, grimperait, à les en croire, de 9,4%. Soit une surconsommation liée aux seuls 2 Go de l'ordre de 30% ! Pour moi il y'a forcément erreur quelque part. C'est fou que les gars de nVidia ne réalise pas des choses aussi évidentes. C'est plus probablement l'inverse donc...et la 10 Go aurait un TDP de 350W, tandis que la 12 Go aurait un TDP de 320W. Ceci en nominal, à fréquences de base très probablement (d'où mon calcul faisant intervenir la fréquence de boost). Par contre j'aurais dû, à l'encontre des spécifications, partir de suite sur la base de 350W. Et ça donnerait alors un TDP peak de 415W. Mais même là, et même en ajoutant 100W pour le CPU sur le fondement de ce qu'il pourrait consommer plus que son TDP en cas de boost*, hypothèse purement formelle de ma part n'arrivant pas à estimer comment la consommation évolue alors (ça devient juste trop compliqué à décortiquer...), il nous reste de la marge... D'autant plus qu'à part un stress test, nous n'aurons jamais un peak de consommation sur CPU ET GPU en même temps et sur un temps significatif. * lequel pour le CPU intervient quand tous les cores ne sont pas activés, pour rappel à ceux du fond de la salle Par contre 620W, ça commencerait à devenir une sacré charge ouai... pour peu que tu blindes de ventilateurs ta tour, que tu aies de multiples HDD de forte capacité ou des SSD M.2 gen4, ça aurait pu ne pas passer. Mais justement, nous ne sommes pas dans ce cas là. Alors soufflez tous, tout va bien. Enfin, du moins sur ce plan. ![]() Edit : Et dire que le TDP de la RX 6950XT est de 335W... et qu'on en trouve des modèles à moins de 1k€ (bon, faut être frontalier suisse...ou prévoir le voyage* ![]() * ou se rabattre sur d'autres, genre ce monstre de Sapphire Toxic RX 6900 XT Limited Edition - 16 Go, WaterCooling 360mm. 950€ frais de port inclus depuis un marchand espagnol, ici. ![]() Avouez qu'elle a de la gueule. Et avec ça, t'es tranquille côté températures. ![]() Dernière modification par Drys Kaine ; 31/08/2022 à 22h32. |
![]() |
|
Nan j'avais vu le 320. Mais si tu dimensionnes une alim, tu ne vas pas partir sur les plus faibles valeur. L'évolution de la conso fait encore plus froid dans le dos quand tu prends les taux d'augmentation au lieu des valeurs brutes. Genre la CM / RAM / 1-2 SSD avec PCIe 3.0, on tournait autour de 5W et on monte à 15W avec les PCIe 4.0. Soit 300% d'augmentation sur une seule gen. Conso entre Ryzen 5XXX et 7XXX on est autour des 61% sur 2 gens. Mais les pires restent les GPU avec +71% entre 2 gens (2070/3070/4070) pour les verts et 46% chez les rouges (RX 470/5700/6700) , hors version OC/Ti/XT. Y'a que les bons vieux ventirads qui restent avec leurs 5V (2,8W ventilos à fond). Croisons les doigts que ça ne change pas. Pour les GPU, à terme, y'a des chances que les prochaines gens proposent toutes des refroidissements déportés. Au train où ça va. Si ça se trouve, les boîtiers PC seront vendus avec WC intégrés at t'auras plus qu'à brancher les pads CPU et GPU. |
![]() |
|
Suivre Répondre |
Fil d'ariane
Connectés sur ce fil1 connecté (0 membre et 1 invité)
Afficher la liste détaillée des connectés
|