[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Christobale
Franchement prenez un 5800 au lieu du 5900, il coute 150/200 euros de moins et est aussi voir plus performant que le 5900 pour la plupart des utilisations.
Plutôt entre 100 et 150€ d'écart entre le 5800 et le 5900 en ce moment. Et pour le coup, si je déconseille toujours de mettre plus qu'il n'en faut pour un CPU ou un GPU, jamais de la vie j'achèterai un 5800X. C'est un radiateur ambulant dont la conception a été hyper mal optimisée pour la dissipation thermique. Les performances sont excellentes, aucun souci là dessus, mais niveau températures ce CPU n'a aucun sens et se permet de prendre 10°C de plus que les 5900X et 5950X en situation identique, ce qui est complètement débile. Prendre un 5600X, je comprends et si c'est pour du jeu, ça suffit, mais un 5800X, c'est vivre l'enfer en été
J'ai un 5800x et il tourne à 70 degrés en full charge avec des pointes à 4,9ghz en mono core.

Ce qui fait chauffer le plus les cpu c'est les charges en mono core, donc 5900 et 5800 même combat.

Les histoires de chauffe c'est des soucis qu'il y a eu sur les premiers cpu de review, ce n'est plus le cas maintenant.

A pars pour des applications pro d'encodage ou autre il n'y a pas d'intérêt à prendre le 5900
Citation :
Publié par Jyharl
Non site officiel (Caseking). Mais my bad, c'est le modèle Ti de ma carte qui est à 2.4k€.
La mienne (Asus ROG Strix) est vers les 2k€. Je parle des prix en stock hein. Après oui, tu la vois un peu partout à 1.7k mais comme par hasard out of stock. Et c'est déjà énorme par rapport aux 1.1k payés fin juillet/debut aout.
Je parlais des 2 liens vers la marketplace Darty juste au dessus, qui sont du x3/x4
Actuellement une 3090 annoncée comme ayant miné h24 pendant un an ça part dans la minute au prix d'achat. Les gens sont fous.
Citation :
Publié par Lianai
Plutôt entre 100 et 150€ d'écart entre le 5800 et le 5900 en ce moment. Et pour le coup, si je déconseille toujours de mettre plus qu'il n'en faut pour un CPU ou un GPU, jamais de la vie j'achèterai un 5800X. C'est un radiateur ambulant dont la conception a été hyper mal optimisée pour la dissipation thermique. Les performances sont excellentes, aucun souci là dessus, mais niveau températures ce CPU n'a aucun sens et se permet de prendre 10°C de plus que les 5900X et 5950X en situation identique, ce qui est complètement débile. Prendre un 5600X, je comprends et si c'est pour du jeu, ça suffit, mais un 5800X, c'est vivre l'enfer en été
Les nouveaux CPU Intel font pareil voir pire peut-être, ça ne les empêche pas d'être plébiscités un peu partout pour leurs performances...
Citation :
Publié par Christobale
Ce qui fait chauffer le plus les cpu c'est les charges en mono core, donc 5900 et 5800 même combat.
Ce qui fait chauffer un CPU, c'est sa consommation électrique sur une surface réduite. Plus un CPU consomme d'énergie, plus il dégage de la chaleur qu'il faut dissiper et plus la surface est petite, plus ça devient difficile. Un logiciel single-core ne fera pas consommer tant que ça à un CPU actuel, même si c'est à son boost le plus élevé. Certes ce sera sur une petite surface, mais la production de chaleur restera maitrisée grâce une consommation électrique limitée de l'ordre de quelques dizaines de W.

Tu peux le voir ici pour le 5950X :

PerCore-1-5950X-Total.png

La consommation en charge en single core n'est même pas de 50W, donc ce n'est certainement pas ce cas de figure qui dégagera le plus de chaleur.

Par contre, le 5800X contient 8 coeurs dans un seul CCD avec un TDP important de 105W, ce qui fait qu'à chaque fois que le CPU est très sollicité en multithread et qu'il a donc besoin de cette énergie, c'est un unique CCD qui reçoit tout dans les gencives, ce qui fait grimper la température. Et sa dissipation est complexe parce que ce CCD est décalé, ce qui fait que toute la chaleur se trouve dans un coin de l'IHS (qui ne fait pas des miracles pour l'"étaler" sur toute sa surface). A contrario, le 5900X possède deux CCD de 6 coeurs chacun, donc en multithread, même s'il a aussi un TDP de 105W, il peut répartir la charge sur les deux CCD, ce qui augmente la surface de dissipation, limite l'énergie dévorée par chacun d'eux et facilite la dissipation en profitant davantage de l'IHS.

Bref, si le 5800X chauffe plus, ça n'a rien à voir avec une histoire de CPU de review, qui étaient peut-être pires, je peux le concevoir. Le problème du 5800X, c'est son unique CCD décalé et son TDP de 105W. Encore aujourd'hui, on voit sur les reviews des écarts de 6 à 10°C en charge entre le 5800X et le 5900X à situation identique en multithread. Et c'est tout à fait normal parce qu'ils ont tous les deux le même TDP, consomment autant en charge (environ 130/140W), mais le 5800X n'a qu'un seul CCD contre deux pour le 5900X (aussi valable pour le 5950X).

Par contre, je ne conseille pas de prendre un 5900X au lieu d'un 5800X, je dis juste que personnellement je n'achèterai jamais un 5800X parce que je sais ce que c'est qu'un CPU qui chauffe beaucoup en été Si l'idée me vient de changer et si j'ai les moyens, ce sera un 5900X et sinon, je resterai sur mon 3700X, vu que le gain par rapport à un 5600X est bien trop faible.


@Sinly parce que les performances sont réellement excellentes et il en va de même pour le 5800X. Mais attention, seul le 12900K est catastrophique au niveau thermique (bien pire que le 5800X) et la plupart des reviews sérieuses en parlent. Le 12600K, lui, s'en sort très bien. Si le 5800X est un radiateur, le 12900K est un BBQ

Dernière modification par Lianai ; 01/12/2021 à 10h47.
Citation :
Publié par Eyce Karmina
Je parlais des 2 liens vers la marketplace Darty juste au dessus, qui sont du x3/x4
Actuellement une 3090 annoncée comme ayant miné h24 pendant un an ça part dans la minute au prix d'achat. Les gens sont fous.
Fous je sais pas, mais cons colle des pelles ça j'en doute pas. Personne ne devrait acheter ces cartes, on devrait les foutre profondément dans le cul des mineurs, pas leur racheter. C'est du syndrome de Stockholm a ce niveau, didju.
Des scalpers tu veux dire.

Après, même à 3000 €, les mineurs achèteront. L'énergie reste gratuite ou presque dans plein de pays, et il y a chaque jour des milliards de $ supplémentaires qui viennent s'engouffre dans le ponzi géant que sont les crypto-monnaies et les NFT.

L'Ethereum vient de pulvériser son record en € à l'instant, passant 4177 €. On s'est foutu de la gueule de hollandais et de la tulipomania, mais nous on a des gens qui investissent de centaines de milliers de $ pour acheter un lien crypté vers l'adresse d'un gif de lolcat... Les bulbes de tulipe, on pouvait les bouffer en cas de famine (et s'intoxiquer certes). Essayez de bouffer une erreur 404 pour voir.
Citation :
Publié par Aloïsius
De mémoire, sur les tests fait dans l'équipe de LTT, au-delà de 100hz ils ne faisaient plus la différence et se plantaient aussi souvent qu'ils avaient juste.

Raison pour laquelle, étant donné mon âge et le peu de temps qu'il me reste pour buter des démons sur doom, je me suis contenté d'un 100 hz. Par contre, j'aimerai bien avoir un GPU qui ne crache pas ses tripes en 1440...
ça s'applique surtout au fps multijoueur ça et particulièrement au BR où tu dois scanner régulièrement et faire beaucoup de mouvements. y'a une différence net entre 100hz et 144hz, par contre au delà ça devient clairement peanuts.
Citation :
Publié par baboudumonde42
Fous je sais pas, mais cons colle des pelles ça j'en doute pas. Personne ne devrait acheter ces cartes, on devrait les foutre profondément dans le cul des mineurs, pas leur racheter. C'est du syndrome de Stockholm a ce niveau, didju.
L'acheteur compte miner, et le vendeur s'est mis à miner quand il n'a plus eu le temps de jouer avec sa carte donc bon.
La folie c'est l'avidité et la spéculation associée, c'est elle qui fait s'envoler les prix et la richesse des scalpers.
Citation :
Publié par Aloïsius
Des scalpers tu veux dire.

Après, même à 3000 €, les mineurs achèteront. L'énergie reste gratuite ou presque dans plein de pays
On est en hiver et je dois chauffer. Autant être payé pour le faire en utilisant un GPU pour ca
Bon, semi-verdict après avoir installé ma nouvelle config.

- 2x NvME en PCIe 4 - Ca dépasse pas les 50C° même en benchmark. A noter qu'ils sont tous sous heatsinks fournis par la carte mère

- Ryzen 5900x - J'attends de voir en utilisation plus poussée (genre ce week-end ). Le pic que j'ai eu pour le moment c'est 72C° mais d'après ce que je lis sur le net, faut que je m'attende à des pics pouvant monter jusqu'à 90C° donc à voir.

Edit : Bon. Après une session gaming de 2h, mon CPU a pic à 84C° et restait stable autour de 70. Par contre j'ai bien fait chauffer ma RTX3080 (New World en 4k tout en ultra) qui est montée à 80C°.

Dernière modification par Jyharl ; 02/12/2021 à 21h57.
On a des nouvelles de l'achat d'ARM par nVidia, et oops

"FTC Sues to Block $40 Billion Semiconductor Chip Merger"
"The complaint also alleges that the acquisition will harm competition by giving Nvidia access to the competitively sensitive information of Arm’s licensees, some of whom are Nvidia’s rivals, and that it is likely to decrease the incentive for Arm to pursue innovations that are perceived to conflict with Nvidia’s business interests. "
"The Commission vote to issue the administrative complaint was 4-0"
"Moore's law is dead" était assez convaincant dans son analyse du truc : Nvidia veut rester au-dessus d'AMD, sauf qu'ils n'ont pas encore de technologie "chiplet". Comme les RX 7900 seront monstrueuses elles aussi, avec au moins deux chiplets, la seule option qui reste à Nvidia c'est de gonfler la consommation.

Sauf que 600 watts, c'est de la démence. Avec le reste du PC, ça va pousser dans les 800 watts. C'est un radiateur. Même avec la clim, si tu as 800 watts de chaleur dans ton bureau ou ta chambre, tu vas le sentir passer. Surtout si ta tour est à 50 cm de toi.

Si effectivement le plan de Nvidia c'est de balancer un GPU à 600 watts pour affronter un GPU à 400 watts, ils sont mal.
J'ai un peu de mal avec les TDP et les consommations électriques.

Un TDP de 600 W : le transfert thermique vers l'extérieur requis pour que le composant fonctionne bien, dit wikipédia, ne me semble pas signifier que ce composant consomme pour autant 600 Watts par lui-même.
Effectivement les composants consomment toujours plus que le TDP annoncé.
Mais dans l'article ils parlent du TDP de 450W de la 3090Ti avant de dire que la 4090 devrait consommer 600W.

Si c'est un TDP de 600W il va falloir qu'ils nous sortent des alim de 1500W quand on couple la 4090 avec un 12900K
Même si c'est la consommation réelle de la CG, ça reste du grand n'importe quoi (idem pour la 3090Ti d'ailleurs et elle on est sûr qu'elle consomme dans les 500W)
Citation :
Publié par Caniveau Royal
J'ai un peu de mal avec les TDP et les consommations électriques.

Un TDP de 600 W : le transfert thermique vers l'extérieur requis pour que le composant fonctionne bien, dit wikipédia, ne me semble pas signifier que ce composant consomme pour autant 600 Watts par lui-même.
La chaleur en dispersion c'est de la pur perte. Avec des matériaux différents on pourrait diviser voir presque supprimer la chaleur.
Pour disperser 600W il faut au moins qu'un processeur au silicium consomme au minimum autant. Sauf que tu ne peux pas avoir 600W de consommé pour 600w en dispersion de chaleur sur un CPU, ou sinon on appel ca un convecteur.
Citation :
Publié par Dr. Troy
Ça serait marrant de faire le calcul sur 10 générations de cartes si ils avaient augmenté la conso proportionnellement aux perfs.
Spoiler : Non pas normal non.
Non mais réfléchis un peu. En deux ans, NVidia n'a pas pu développer une nouvelle gamme de processeurs donc le seul moyen qu'ils ont de faire gagner leur processeur en puissance, c'est de jouer sur les paramètres de la série actuelle en la boostant. Le puissance va avec ça donc oui, c'est normal et logique vu que ce ne sera pas une nouvelle gamme de processeur à proprement parler. C'est pas comme si NVidia n'était pas coutumier du fait avec des puissances qui pètent le plafond.
Comme d'habitude tu racontes un peu n'importe quoi.
Même si ils ne changent pas l'architecture globale de leurs GPU, bien sûr qu'il y a d'autres paramètres qui entrent en compte pour limiter la conso.
Les 3xxx sont gravées en 8nm, les 4xxx le seront en 5nm.
C'est principalement ça qui leur permet de limiter la conso des futures 4090: si ils étaient restés sur les mêmes technologie que la 3090, avoir une puissance de calcul doublé aurait été impossible simplement en augmentant la conso ou alors il aurait fallu tricher en faisant du biGPU, donc conso doublée proche des 1kW

Avec Nvidia on peut d'attendre à tout donc c'est tout à fait possible qu'un GPU consommant 1kW sorte un jour.
J'espère juste que l'UE (ou les US) vont nous sortir des normes rapidement pour limiter drastiquement la conso des ordi.
Au moins les fabricants seront obligés de se sortir les doigts pour innover au lieu de simplement faire exploser la conso malgré les gains assez énormes obtenus grâce à la finesse de gravure.
@aziraphale : La gravure fait partie des paramètres et donc tu confirmes ce que je dis concernant l'architecture des processeurs....
La gravure plus fait normalement baisser le TDP. Cela veut dire qu'il y a d'autres choses qui ont changé pour faire monter la puissance ainsi
Citation :
En résumé, la finesse de gravure, la fréquence d'horloge, le nombre de transistors, la tension et la taille physique du semi-conducteur influent sur le TDP et bien sûr les optimisations.
https://fr.wikipedia.org/wiki/Enveloppe_thermique

Mais encore une fois tu m'expliques comment doubler la puissance de calcul sans augmenter la puissance quand tu ne change pas d'architecture ? Parce que la gravure ne peut pas expliquer tout.....
Citation :
Publié par Leydjin
La chaleur en dispersion c'est de la pur perte. Avec des matériaux différents on pourrait diviser voir presque supprimer la chaleur.
Pour disperser 600W il faut au moins qu'un processeur au silicium consomme au minimum autant. Sauf que tu ne peux pas avoir 600W de consommé pour 600w en dispersion de chaleur sur un CPU, ou sinon on appel ca un convecteur.
J'ai peut être mal compris mais pourtant c'est exactement ce qu'il se passe. Il n'y a pas 36 manières de dépenser l'énergie : générer de la chaleur, de la lumière ou du mouvement (en gros)
Les GPU/CPU ne brillent pas dans le noir et ne danse pas la java non plus -> 100% de l'énergie utilisée est dissipée en chaleur.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés