[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par THX
Après honnêtement je veux juste voir à combien je suis des 1000w de mon alim avec une 3080, et si j'ai de la marge pour une 5090
Le problème des alims, c'est pas la puissance délivrée en continue, ce sont les pics de consommation, parfois très court et quasi indétectables sur ton wattmètre, des GPU. Donc le test que tu veux faire aura forcément des résultats positifs parce que "ça passe à l'aise".

Mais si ça se trouve, suivant les drivers de la 5090, l'overclock, le jeux que tu utilises, la qualité des composants de ton alim, de ton GPU et de ta carte mère, la solidité des câbles d'alimentation... Tu auras quand même des instabilités.
Oui y a des variables. Mais si je lance au hasard Cyberpunk77 à fond de balle et que je suis à genre 700w par exemple avec la 3080, bon, ça devrait quand même être "large".
Citation :
Publié par Aloïsius
Mais comme on a mis la main dans l'engrenage il y a plus de 25 ans, les machines consomment toujours plus, les éditeurs développent des jeux qui boivent cette puissance comme les rentiers absorbent les APL et le cycle infernal s'aggrave d'année en année. On risque de voir débouler des 5090 avec deux connecteurs de 600 watts, des alims de 1500 watts "normalisées" et l'obligation d'avoir du watercooling ou des blocks ventirads de 4 kg sur les cartes graphiques.
En relisant ce que tu as écris, je me disais ... mais ... va yavoir un soucis là. En AdN ou au Japon, du 110 volts, les prises c'est du 15A max, c'est 95% des prises résidentielles. On va finir par foutre le feu là ... . (et les maisons sont en bois )
De toute façon en France les prises standard sont limitées à 2,1 kW (au max du max, plutôt 1,7 kW en usage normal il me semble), sachant que dans un logement classique, une prise doit alimenter l'ordinateur et ses périphériques, on est déjà proche de la limite à ce niveau.
images.jpg
Je ne vois pas où est le problème. Des sorties de fil en 32A pour avoir 10 FPS de plus en 8K, ça ira parfaitement.

Sinon, il y a un paquet de consoles portables avec les nouveaux ryzen AI qui sont en train de sortir, dont certaines vendues à plus de 1600$.
https://videocardz.com/newz/first-ry...han-rog-ally-x
Je pense qu'elles s'accorderont bien avec les flipphone à 3000$ et les PC dotés d'une alim de 2500 watts, d'un watercooling custom à 1000$ et d'un clavier à 500$.
Faut bien ça pour qu'un trader ou un pharmacien vieillissant puisse se croire être un gamer d'élite.
Citation :
Publié par Borh
Les prises standard en France, c'est 16 A maximum, donc 3520W.
Ou sinon y a un truc que j'ai pas compris.
Je pense que tu as une installation custom.
C'est le coupe circuit/disjoncteur qui est à 16A max.
32A pour le gros électroménager. Un circuit qui n'est dirigé, souvent, qu'en cuisine avec au mieux 2 attentes, soit 2 PC à la cuisine avec 3520W possibles, mais pas de four/cuisinière électrique.

Pour le reste, c'est 16A par CIRCUIT. Donc ça dépend de ton installation électrique. Généralement, c'est 1 circuit par pièce de vie. 1 circuit lumière par étage pour les pièces d'usage commun + 1 circuit pour les prises (souvent pour 4 à 5 prises, sauf qu'en pratique c'est différent à la hausse ou à la baisse).
Donc max 3520W n'est vrai que si tu n'utilises qu'une seule prise dans la pièce où es ton bureau.
Citation :
Publié par Borh
Les prises standard en France, c'est 16 A maximum, donc 3520W.
Ou sinon y a un truc que j'ai pas compris.
De façon générale, il me semble que les prises standard ne sont pas supposées sortir plus que 10A. D'où l'utilisation de prises renforcées qui tiennent le 16A de façon sécurisée pour la recharge de voiture.

Dans tous les cas, je doute qu'on arrive à un point où on dépasse les 1000W (ce qui est déjà énorme), ou alors vraiment pour des edge cases pas du tout grand public.

Perso je serais vraiment très pour que les générations de cartes graphiques (et CPU, coucou Intel) aient un gain de performance réduit, voire très réduit, mais un gain d'efficacité énergétique conséquent entre deux générations, et qu'on redescende progressivement à une situation plus normale. Ce serait très difficile à vendre mais vraiment, un ordinateur n'est pas supposé servir de chauffage d'appoint, et le coût de l'électricité ne fera que monter à l'avenir.
Citation :
Publié par Von
(...) Ce serait très difficile à vendre mais vraiment, un ordinateur n'est pas supposé servir de chauffage d'appoint, et le coût de l'électricité ne fera que monter à l'avenir.
Pas forcement si difficile à vendre à terme peut-être. Si tu gagnes 100W, vu la progression des prix de l'électricité dans pas mal de pays, ca peut faire 100€ ou plus de gagner par an j'imagine ...
Les derniers Intel visaient à réduire la consommation, tout comme les derniers AMD. Ils se sont faits démolir parce qu'ils n'offraient pas de performances supérieures à leurs prédécesseurs.
Citation :
Publié par Aloïsius
Les derniers Intel visaient à réduire la consommation, tout comme les derniers AMD. Ils se sont faits démolir parce qu'ils n'offraient pas de performances supérieures à leurs prédécesseurs.
Oui c'est bien ce que je dis quand je dis que ce sera difficile à vendre. Et une grande partie du problème réside dans la presse/YT spécialisée qui ne regarde que les fps.
Citation :
Publié par Aloïsius
Les derniers Intel visaient à réduire la consommation, tout comme les derniers AMD. Ils se sont faits démolir parce qu'ils n'offraient pas de performances supérieures à leurs prédécesseurs.
Il y a des avancées, des laptops modernes permettent aujourd'hui d'afficher pour bien moins de kwh des jeux qui en consommaient le triple/quadruple il y a des années.
On peut jouer à cyberpunk sur un mac mini. Certes, pas toutafon, mais il tire 65W au maximum, 140w pour le M4Pro.
Même chose pour les laptops portables windows avec un ARM.

Avec ce que les datacenters consomment en électricité, il va y avoir une bascule financière un jour. Le souci est qu'avec le boom de l'IA les couts sont mis de coté, dans une optique de capture de parts de marché avec une énorme prime au premier arrivé.

Citation :
Publié par Von
Oui c'est bien ce que je dis quand je dis que ce sera difficile à vendre. Et une grande partie du problème réside dans la presse/YT spécialisée qui ne regarde que les fps.
La seule raison pour laquelle je n'achète pas un mac mini c'est le catalogue. (Ok et le fait que j'ai pas besoin de changer de PC actuellement) La proposition est vraiment intéressante, pour la première fois depuis Mathusalem.

Dernière modification par Touful Khan ; 02/12/2024 à 15h02. Motif: Auto-fusion
Pour les CPU, une nouvelle génération qui réduit la conso (nettement, pas du -2%) en gardant des perfs égales ça ne serait pas si difficile à vendre si nos amis ne s'amusaient pas à augmenter les prix à chaque génération.
Un CPU ça se garde facilement 5 à 10 ans si on le choisit bien dès le départ.

Concernant les GPU c'est plus compliqué à faire passer, mais une petite hausse des perfs couplé à une baisse légère de la conso ça pourrait passer.
Sauf que ça n'intéresse absolument pas Nvidia qui fait sont beurre sur le renouvellement frénétique du haut de gamme.
Hors personne ne changerait sa 4090 payée 2k€ il y a 18 mois par une 5090 si le gain de perf n'était que de 10%, même si cette dernière était proposée au même prix (on peut toujours rêver).
Par contre ça pourrait largement fonctionner pour les x060, sauf que ce ne sont pas ces cartes qui ont des vrais problèmes de conso.

A voir ce que vont donner les Intel Battlemage qui doivent être annoncées ces prochains jours.
A priori elles devraient être en concurrence avec les 4060Ti en terme de perf tout en consommant moins.
Intel a encore une guerre de retard puisqu'on va avoir les 5060 (et les nouvelles AMD) d'ici mars/avril en principe et qu'elles devraient normalement être plus perfo que la 4060Ti.
Citation :
Publié par Borh
Les prises standard en France, c'est 16 A maximum, donc 3520W.
Ou sinon y a un truc que j'ai pas compris.
Comme dit NFC-15100 vis à vis de l'électricité
Au tableau : 8 prises sur un circuit maximum avec un disjoncteur de 16A soit 3,7 Kw
Au niveau de chaque prise : si prise renforcé : 16A soit 3,7 Kw - si prise classique ne pas dépasser 10A soit 2,3Kw

En soit ca laisse pas mal de marge sur un pc, ca posera plus de problème en été ou le pc fournira la chaleur d'un bon gros radiateur électrique.

Après ca e pose que pour l'ultra haut de gamme, car pour le gros du marché on retrouve par exemple une 4060 de seulement 115W pour des performances décentes.
Citation :
Publié par aziraphale
Sauf que ça n'intéresse absolument pas Nvidia qui fait sont beurre sur le renouvellement frénétique du haut de gamme.
Les Geforces 40 Series consomment globalement moins que les Geforces 30 Series.

La principale exception est la 4090 qui consomme un poil plus que la 3090 (pour un ratio perf/conso quasi doublé).
Mais la 4090 consomme aussi nettement moins que la 3090 Ti.
Et elle bénéficie d'un bel effort sur l'étage de puissance permettant d'éviter les importants pics transitoires de conso que pouvaient connaitre ses prédécesseuses.
J'espère que les rumeurs sur les 8800XT d'AMD sont vraies.
Si ils sortent vraiment un GPU qui a les perfs d'une 4080, au prix d'une 4070 (500$), tout en consommant comme une 4060 (250W), ça sera du tout bon.

Enfin tout dépend de ce que seront les 5xxx de Nvidia et de leurs prix.
Surtout la 5060, mais ça on le saura qu'en mars/avril normalement.
L'embargo a été levé sur les B580 et la plupart des commentateurs parlent d'une réussite, avec une carte à 250$ qui rivalise parfois avec les modèles à 400$ de Nvidia ou offre de meilleures performances que ceux à 300$ d'AMD/Nvdia.

Surtout, les bugs de drivers semblent rare, le ray-tracing est OK (mieux que AMD) et le XeSS semble au moins aussi bon, voire meilleur que le DLSS de Nvidia.

Bref, pour les joueurs à petit budget (enfin, 250$ pour le seul GPU quand même), c'est une bonne nouvelle.
La B580 offre une bonne prestation, globalement entre la 7600 XT et la 4060 en jeu (avec malgré tout la 7600XT qui garde l'avantage sans RT et la 4060 qui garde l'avantage avec RT, et la B580 qui n'est jamais dernière).
cf https://hardwareand.co/dossiers/gpu/...sous-les-300-e

Par contre, elle se trouve effectivement dans les 350e quand la 7600 XT commence dans les mêmes eaux et la 4060 commence un peu plus bas.
Alors que le MSRP fait qu'on l'attendrait plutôt à un peu moins de 300e où elle serait plus une évidence.

Puis, si cette 580 est compétitive aujourd'hui face à des 4060 et 7600 XT, dans un mois va commencer à arriver la nouvelle génération des deux autres constructeurs.
Ca va commencer par le haut mais tôt ou tard vont arriver des 5060 (Ti) et 8600 (XT) qui devraient pas mal changer la donne.
D'ici là, le XeSS 2 aura eu le temps d'arriver sur plus de jeux, mais pas sûr que la nouvelle carte d'Intel reste compétitive malgré tout.

Bref, c'est bien, mais peut être un peu tard.
Elle a 12 giga, si Nvidia et AMD persiste à n'en proposer que 8, ce sera vite vu. En attendant, à l'instant "T" et dans cette gamme de prix, elle est devant. Du moins aux USA, parce que les tarifs ne sont pas les mêmes ici.
Apparement, le MSRP ne concerne que la Limited Edition de Intel et pas les cartes des constructeurs (qui sont généralement plus chères).
Et si la Limited Edition est dispo aux USA, ce n'est pas le cas chez nous (où on peut éventuellement espérer la voir débarquer en 2025, lorsqu'il sera encore plus trop tard).
:/
Il y a eu les annonces du CES :
- AMD et ses nouveaux processeurs : AMD annonce ses Ryzen 9 X3D au CES 2025... et c'est pas fini ! - Hardware & Co
(avec notamment les 9900X3D et 9950X3D qui s'annoncent très bon - mais sans prix - et un flot d'autres références qui rendent le tout assez imbitable - avec en prime des "200 series" qui vont pas foutre la merde avec le nommage des dernier Intel...)
- AMD et ses nouvelles CG : RDNA 4 et la RX 9070 (XT) sont au CES, mais il faudra attendre pour les tester ! - Hardware & Co
(essentiellement 9070 et 9070 XT, avec pas vraiment d'info : on sent qu'elles sont officialisées pour ne pas laisser toute la visibilité à nVidia mais qu'ils ne sont pas vraiment prêt à en parler - et un changement de nom pour mettre en face des concurrentes mais qui risque d'apporter un peu de confusion - et de faire chier nVidia dans quelques générations lorsqu'ils ne pourront pas utiliser les noms vers lesquels ils se dirigeaient naturellement)
- nVidia et ses nouvelles CG : Les GeForce RTX 50 sont officielles : caractéristiques, prix, disponibilités, voici tout ce que vous vouliez savoir ! - Hardware & Co
(officialisation des 5090, 5080, 5070 Ti et 5070, avec 5090 et 5080 qui arrivent à la fin du mois, les autres qui arrivent plus tard... toutes ont le droit à leur spec et à leur MSRP - respectivement $2000, $1000, $750, $550, ce qui est une évolution assez intéressante des prix pour les trois dernières alors qu'on s'attendait pluôt à une hausse)
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés