[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
La solution serait plutôt à chercher du côté de la consommation selon moi... Désormais, 1000 watts, c'est une puissance qui n'est pas délirante pour une alim, la faute principalement aux verts et aux rouges.
Citation :
Publié par Christobale
Oui enfin comment tu expliques que 100% des cas de melt depuis plus de 6 mois sont tous des adaptateurs cablemod ? Sachant les gens qui utilisent des adaptateurs cablemod sont une minorité. Si tu arrives à trouver un cas hors cablemod depuis moins de 6 mois tu me dis.
Je ne peux pas expliquer une affrmation fausse. Roman a eu des cas avec son wattmètre. Et sur le forum CanardPC, il y a un utilisateur dont la 4090 a eu son connecteur fondu sans aucun adaptateur, et on doit peut-être être 3 ou 4 à avoir une 4090, c'est un gros ratio.

Northridge Fix a fait une vidéo sur le sujet en disant que les 4090 avec connecteur qui fondait ne venait pas de toutes de cablemod, c'est une minorité.

Évidemment si tu suis le Reddit cablemod tu vas avoir ce biais, mais en faisant une recherche en 2 secondes je t'en trouve des melt sans cablemod de moins de 6 mois
https://www.reddit.com/r/pcmasterrac..._after_a_year/


Après l'avantage de la vidéo de Roman, c'est qu'il rentre dans l'analyse technique et pas juste dans les stats (impossibles à faire en vrai, on fait pas des stats avec Reddit, la majorité passe sous le radar, le mec de Canard PC et ceux avec le wattmètre de Thermal Grizzly n'ont pas été postés sur Reddit et sont pourtant vrais). On a un connecteur prévu pour faire passer 50A avec un maximum de 51A. 1A de marge, y a un problème non ? Surtout que les spécifications sont en conditions contrôlées à 20°, c'est pas des vraies conditions d'utilisation.

Tiens un tweet de Doc TB (ex pilier de Canard PC Hardware) que j'avais loupé mais intéressant

Je me rappelle de son tweet de 2020 mais je percute que maintenant qu'il parlait du 12VHPWR.

Dernière modification par Borh ; 04/01/2024 à 22h33.
Citation :
Publié par Christobale
Parce qu’augmenter le tension sur un circuit de microélectronique implique bien plus de problèmes qu'un hypothétique cas de melt.

Si on pouvait mettre la tension qu'on veut on ferait tout tourner à 230V/110V sans avoir besoin d'alim et sans avoir besoin de refroidir, sauf que ça n'est pas possible.
J'ai des serveurs avec des CPU de 400W et des GPU de 300W alimentés en 24V, donc si tu as des explications sur le fait que ce genre de tension pose des problèmes particuliers en microélec, je suis preneur.
En fait très probablement que si on considère ce connecteur comme limité à 400W ça devrait régler tous les problèmes.
Après, ça nécessite d'en mettre 2 sur les gros modèles, ce qui est exactement l'inverse de l'objectif, mais j'espère que ce sera la sagesse qui l'emportera pour les RTX 5000.
Citation :
Publié par Borh
Je ne peux pas expliquer une affrmation fausse. Roman a eu des cas avec son wattmètre. Et sur le forum CanardPC, il y a un utilisateur dont la 4090 a eu son connecteur fondu sans aucun adaptateur, et on doit peut-être être 3 ou 4 à avoir une 4090, c'est un gros ratio.

Northridge Fix a fait une vidéo sur le sujet en disant que les 4090 avec connecteur qui fondait ne venait pas de toutes de cablemod, c'est une minorité.

Évidemment si tu suis le Reddit cablemod tu vas avoir ce biais, mais en faisant une recherche en 2 secondes je t'en trouve des melt sans cablemod de moins de 6 mois
https://www.reddit.com/r/pcmasterrac..._after_a_year/


Après l'avantage de la vidéo de Roman, c'est qu'il rentre dans l'analyse technique et pas juste dans les stats (impossibles à faire en vrai, on fait pas des stats avec Reddit, la majorité passe sous le radar, le mec de Canard PC et ceux avec le wattmètre de Thermal Grizzly n'ont pas été postés sur Reddit et sont pourtant vrais). On a un connecteur prévu pour faire passer 50A avec un maximum de 51A. 1A de marge, y a un problème non ? Surtout que les spécifications sont en conditions contrôlées à 20°, c'est pas des vraies conditions d'utilisation.

Tiens un tweet de Doc TB (ex pilier de Canard PC Hardware) que j'avais loupé mais intéressant

Je me rappelle de son tweet de 2020 mais je percute que maintenant qu'il parlait du 12VHPWR.
Attention la vidéo est très orientée, le gars bosse pour Thermal grizzly donc forcement le problème viens du connecteur.

Le cas que tu as link que je n'avais pas vu est un adapateur nvidia gen1 qui sont connus pour avoir des problèmes.

Maintenant allons plus loin dans l'analyse, si le problème était le connecteur lui même, la répartition des cas de melt serait indépendant des adaptateurs/cables utilisés, vrai ?

Hors c'est tout sauf le cas. Même dans la vidéo il confirme ce point de vue puisqu'il dit que sur 12 000 adaptateurs thermal grizzly vendu ils ont eu qu'un seul cas de melt et la cause serait une mauvaise utilisation puisqu'il n'arrivait pas à l'enfoncer jusqu'au bout.

Alors oui tous les cas ne passent pas sur reddit on est d'accord, mais çà donne une représentation. Si on fait une recherche sur r/nvidia avec le mot clef melt, le dernier cas hors cablemod remonte à 7 mois, si tu fais çà sur cablemod tu vas en avoir à foison, alors que les utilisateurs d'adaptateur cablemod ne représentent que 5% des utilisateurs de 4090.

Et pour aller plus loin, même cablemod dit que tous leur cas de melt sont les adaptateurs 90 et 180, et n'ont eu aucun cas avec leur cable directe 12vhpwr.

Donc on peut en conclure que le problème ne vient pas du connecteur mais des adaptateurs de mauvais qualité et/ou de leur mauvaise utilisation. D'ailleurs çà a été démontré dans plein de vidéos comme celles de GN and co.

Et pour rajouter ce connecteur n'a pas été ajouté depuis la 4090, ce connecteur date de la génération précédente avec les 3090ti et on pas eu vent de problème majeur avec celle-ci.

Maintenant je ne dit que pas nvidia n'a rien à voir dans cette histoire, ce qu'on peut reprocher à nvidia est de ne pas avoir imposé des câbles dédiers, de ne pas avoir plus communiqué sur les risques de mauvaise utilisation et surtout de ne pas avoir pris en compte que l'utilisateur lambda est idiot (ce qui est primordial à prendre en compte quand on fait des produits grand public)


Citation :
Publié par Eyce Karmina
J'ai des serveurs avec des CPU de 400W et des GPU de 300W alimentés en 24V, donc si tu as des explications sur le fait que ce genre de tension pose des problèmes particuliers en microélec, je suis preneur.

Car dans un core de gpu/cpu on ne peut pas mettre de trop forte tension car les distances entre chaque potentiel est si petit que les champs électriques induit crée de l'instabilité, c’est pour çà qu'on tourne en général entre 1et 1,2V.

D'ailleurs c'est tout l'art de l'O/C de réussi à augmenter le voltage sans faire crasher/cramer le cpu/gpu.

Maintenant le principale problème vient du fait qu'il faut passer cette tension de 12V à 1V et çà ça demande un transformateur. Et le problème c'est que l'efficience d'un transformateur est lié à la différence entre Vinput/Voutput comme on peut voir là page 5 https://semtech.my.salesforce.com/sf...0VHwbCldyYnEPg et çà se casse très vite la gueule.

Donc oui on pourrait, mais il faudrait rajouter des transformateurs plus efficients, plus gros et qui consomment plus alors que le 12V marche très bien. Les cables de la norme ATX 3.0 sont du 16 gauge, qui sont prévu pour un courant max de 13 ampère, soit 936W pour 6 cables. Sachant que les 4090 sont limité à 450W, çà faut un facteur de sécurité de 2

Dernière modification par Christobale ; 05/01/2024 à 11h34.
Citation :
Publié par Eyce Karmina
J'ai des serveurs avec des CPU de 400W et des GPU de 300W alimentés en 24V, donc si tu as des explications sur le fait que ce genre de tension pose des problèmes particuliers en microélec, je suis preneur.
C'est le passage des electrons dans un cable rikiki qui est le problème et au vu de la puissance qui doit transiter ça échauffe les connectique et je ne rentre pas dans les détails coté formule mathématique Tension/puissance etc..., c'est d'une logique implacable, forcément si le câble et plié ou les connectiques se touchent a peine/surface de contact ça augmente le débit des électrons donc des échauffements sur sur cer qui est en contact voir des possibilités d'incendie.

Et c'est très grave car c'est des problématiques qui doivent être travaillé en bureau d'étude pendant la conception , bonjour les ingénieurs qui ont pondus ce genre d'âneries car pour moi ces ingénieurs sont des ânes !

Il vaut toujours mieux diviser la puissance en plusieurs câbles que de la faire transiter en un seul car mathématiquement et electro/informatique ça réduit les contraintes a tout points de vue.


Quand aux serveurs le problème ne se posent pas , Les planches serveurs sont constituées différemment puisque les CG sont quasiment solidaire.
Citation :
Publié par Anngelle Silverstar
C'est le passage des electrons dans un cable rikiki qui est le problème et au vu de la puissance qui doit transiter ça échauffe les connectique et je ne rentre pas dans les détails coté formule mathématique Tension/puissance etc..., c'est d'une logique implacable, forcément si le câble et plié ou les connectiques se touchent a peine/surface de contact ça augmente le débit des électrons donc des échauffements sur sur cer qui est en contact voir des possibilités d'incendie.

Et c'est très grave car c'est des problématiques qui doivent être travaillé en bureau d'étude pendant la conception , bonjour les ingénieurs qui ont pondus ce genre d'âneries car pour moi ces ingénieurs sont des ânes !

Il vaut toujours mieux diviser la puissance en plusieurs câbles que de la faire transiter en un seul car mathématiquement et electro/informatique ça réduit les contraintes a tout points de vue.


Quand aux serveurs le problème ne se posent pas , Les planches serveurs sont constituées différemment puisque les CG sont quasiment solidaire.
Mais de mes vieux souvenirs, le débit d'électron, c'est l'ampérage pas la tension. Et augmenter la tension diminue l'ampérage à puissance équivalente.
L'idée d'augmenter la tension pour gagner en sécurité sur de grosses puissances me paraît logique.
Citation :
Publié par Christobale
Maintenant le principale problème vient du fait qu'il faut passer cette tension de 12V à 1V et çà ça demande un transformateur. Et le problème c'est que l'efficience d'un transformateur est lié à la différence entre Vinput/Voutput comme on peut voir là page 5 https://semtech.my.salesforce.com/sf...0VHwbCldyYnEPg et çà se casse très vite la gueule.
Merci, c'est ce point là qui m'échappait
Citation :
Publié par Anngelle Silverstar
Quand aux serveurs le problème ne se posent pas , Les planches serveurs sont constituées différemment puisque les CG sont quasiment solidaire.
Le problème se pose dans les serveurs car la majorité du marché des GPU pour serveur c'est des cartes tout ce qu'il y a de plus classique (PCI-e CEM), à part le connecteur d'alim (commun pour cpu et gpu)
Et sur les ada lovelace, ça va être du 12VHPWR.

L'OAM c'est cool (et ça permet de faire du 48V) mais c'est encore très spécifique.
Le premier processeur en graphème vient d'être fabriqué, la problématique de ce genre de matériau était l'absence d'interdiction dans la polarisation des transistors.
Et la nous avons un labo chinois et 1 américain qui viennent de découvrir comment contourner le problème.

source : https://trustmyscience.com/premier-s...nnel-graphene/

graphene-fonctionnel.jpg

les avantages:
- c'est beaucoup moins cher que le silicium

- ça permet aux électrons de se déplacer 10 fois plus vite que sur un proc en silicium , donc un gros gain d'efficacité /rapidité des requêtes

- ça supporte des courants extrêmement plus puissant sans aucun échauffement ni effondrements

Inconvénient :
- ça prend un peu plus de place qu'un proc de silicium ( aussi gros qu'un Threadripper ? )

La Future évolution ?

ça permettrais de passer en dessous des 1 nm
Waouh… Cela mettra du temps avant d'arriver dans nos PC mais c'est prometteur.

Rêvons un peu, avec cette techno, la 4K@120fps en Ray-tracing pour tous, c'est possible.
Citation :
Publié par Persée
Rêvons un peu, avec cette techno, la 4K@120fps en Ray-tracing pour tous, c'est possible.
Avec les technos actuelles, c'est probablement pour dans 5 ans.
Cette technologie là permettra d'aller beaucoup, beaucoup plus loin. On peut attendre en particulier des moteurs physiques bien plus réalistes encore.

Mais un changement aussi radical va demander du temps.
Citation :
Publié par Ryu Seiken
A mon avis, pour le grand public, il faudra compter pas loin de deux fois ce temps.
Peut-être même plus. Parce qu'entre temps, le silicium va continuer ses progrès. C'est comme pour le match LCD vs OLED : le temps que l'OLED arrive à un niveau de prix comparable au LCD, la qualité des LCD s'est accrue et leurs prix ont baissé et du coup le match n'est pas encore plié.
Plutôt une bonne surprise sur les prix en ce qui me concerne pour ces RTX 4000 Super. Et c'est rare pour NVidia.

La 4070 Super au même prix que la 4070, mais avec 20% de core en plus
La 4070 Ti Super au même prix que la 4070 Ti mais avec 16 Go de Ram, et plus de core.
Et la 4080 Super moins chère que la 4080, ça la rend intéressante sur le haut de gamme.

Dernière modification par Borh ; 08/01/2024 à 21h19.
Citation :
Publié par Aloïsius
Avec les technos actuelles, c'est probablement pour dans 5 ans.
Cette technologie là permettra d'aller beaucoup, beaucoup plus loin. On peut attendre en particulier des moteurs physiques bien plus réalistes encore.

Mais un changement aussi radical va demander du temps.
Dans 5 ans ? Avec un pc à 800-1000 € ? (c'est ce que j'entendais dans "pour tous")
Citation :
Publié par Persée
Dans 5 ans ? Avec un pc à 800-1000 € ? (c'est ce que j'entendais dans "pour tous")
On peut compte sur deux générations de GPU d'ici 5 ans. Alors, 2000 €, non. Mais 1500, sans probablement. C'est Intel et les progrès dans l'upscalling qui me rendent optimiste.
La carte graphique chinoise MTT S80 et sortie , c'est une concurrente de la RTX 3060 TI et avec l'AV1 en prime en moins chère.

mtt80test-1024x683.jpg


mtt80test2-1024x683.jpg

Ils ne le disent pas dans l'article mais le directeur de cette société et un ancien de NVIDIA , ont peut donc s'attendre a une sérieuse concurrence !

ARTICLE : https://www.tomshardware.fr/la-carte...x-3060-testee/


EDIT : ha ba ça tombe bien, testé chez French Hardware ce week end.


.

Dernière modification par Anngelle Silverstar ; 09/01/2024 à 08h24.
Nvidia se fait tellement de fric et abuse tellement avec des marges délirantes sur ses GPU que ça ne peut qu'inciter la concurrence à investir ce marché. Jusqu'à présent, leur avance technologique et la frilosité d'AMD les préservaient. Mais avec Intel et les Chinois en plus, ça peut changer.
Ça dépend de la politique tarifaire à long terme.
Si c'est comme Huawei qui applique les tarifs premium de Apple et Samsung quand ils ont pris des parts de marché, ça craint.
Si ça reste contenu comme Xiaomi, on peut s'attendre à un marché plus raisonnable. Pas idéal, mais plus raisonnable.
Plus il y aura de concurrence, mieux ce sera, de toute façon.

C'est moi où y'a pas grand chose de vraiment intéressant au CES 2024 ?
Je sais bien que c'est que le début, mais j'ai rien vu qui fasse rêver.

Dernière modification par Ryu Seiken ; 10/01/2024 à 20h54.
Citation :
Publié par Anngelle Silverstar
Fin de vie confirmée pour les RTX 4070 TI et RTX 4080 , elle n'auront pas durer longtemps :

https://www.clubic.com/actualite-514...-rtx-4080.html
Est-ce qu'on peut espérer une baisse de prix sur ces cartes du coup ? Parce que même en fin de vie, une 4070 ti neuve à 500€ m'irait très bien
Citation :
Publié par Daynos de Nory
Est-ce qu'on peut espérer une baisse de prix sur ces cartes du coup ? Parce que même en fin de vie, une 4070 ti neuve à 500€ m'irait très bien
J'aurais même attendu que ça commence dès maintenant à baisser pour écouler les stocks, ne tout cas les 4080 vu que la 4080 Super va perdre 200€... Mais pour le moment ça bouge pas d'un centime.
Citation :
Publié par Borh
J'aurais même attendu que ça commence dès maintenant à baisser pour écouler les stocks, ne tout cas les 4080 vu que la 4080 Super va perdre 200€... Mais pour le moment ça bouge pas d'un centime.
J'ai cru voir passer des promos y'a une dizaine de jours, à 1200 la 4080, mais j'ai tellement décroché ce marché que je ne me rends pas compte de si c'est vraiment de la promo. D'ailleurs, tu parlais de la bonne nouvelle du prix des Super, mais c'est une bonne nouvelle relative au marché actuel ou dans l'absolu ?
Citation :
Publié par Dr. Troy
J'ai cru voir passer des promos y'a une dizaine de jours, à 1200 la 4080, mais j'ai tellement décroché ce marché que je ne me rends pas compte de si c'est vraiment de la promo. D'ailleurs, tu parlais de la bonne nouvelle du prix des Super, mais c'est une bonne nouvelle relative au marché actuel ou dans l'absolu ?
Personne ne sait.
Dans un contexte normal, avoir une CG un peu plus performante pour le même prix ça serait une bonne nouvelle, surtout venant de NVidia.
Dans le contexte actuel où les prix devraient baisser, est-ce que ne pas changer le prix est vraiment une si bonne nouvelle ou l'application habituelle de la grille tarifaire de NVidia suite à la baisse de prix des anciens modèles?
Baisse des anciens modèles qui ne sera pas appliquée en réalité puisque qu'ils sortent de la gamme.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés