[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Aloïsius
Trois ans putain... Que les mineurs rôtissent en enfer.
Deux ans, non ? Les RTX 30 sont arrivées en septembre 2020 et avant cela, même si les cryptos commençaient déjà à augmenter, les CG se vendaient à des prix corrects. Ou bien je me plante ? Avant ma 3080, j'avais pris une 1080 Ti d'occaz, donc je n'avais pas acheté de CG neuve depuis 2017.
Citation :
Publié par Lianai
Deux ans, non ? Les RTX 30 sont arrivées en septembre 2020 et avant cela, même si les cryptos commençaient déjà à augmenter, les CG se vendaient à des prix corrects. Ou bien je me plante ? Avant ma 3080, j'avais pris une 1080 Ti d'occaz, donc je n'avais pas acheté de CG neuve depuis 2017.
Ça a commencé un peu après le confinement mondial.
C'est devenu plus violent avec le problème d'appro de matière première et c'est parti en couille avec la flambée du BTC.
Donc on n'est pas loin des 3 ans.
Citation :
Publié par Ryu Seiken
Ça a commencé un peu après le confinement mondial.
C'est devenu plus violent avec le problème d'appro de matière première et c'est parti en couille avec la flambée du BTC.
Donc on n'est pas loin des 3 ans.
Ok, je vois effectivement ici qu'à partir du mai 2020 on peut constater une légère augmentation d'environ 10%, puis la grosse chute post sortie des RTX 3080, qui s'est très très vite transformée en cette hausse débile que l'on connaît. Et j'ai vérifié, on constate la même fluctuation pour la plupart des autres modèles. Donc une hausse de 5 à 20% en avril-mai 2020, puis chute vertigineuse pour les modèles remplacés (2070 / 2080 / 2080 Ti) et hausse cataclysmique.

Je n'avais pas trop fait gaffe à cette première hausse.
Mai 2020 -> Septembre 2022, ça reste plus près de 2 ans que de 3.

La première hausse, c'était les gens confinés qui ont reporté les dépenses pour les loisirs qu'ils ne pouvaient plus pratiquer vers des loisirs qu'ils pouvaient pratiquer, ie le jeu vidéo.
En plus à une période où la production était ralentie et donc l'offre qui reposait essentiellement sur les stocks.
Mais elle est restée assez limitée.

La vrai hausse était plus tard, avec le cumul de :
- nouveaux produits qui n'avaient pas assez de stocks pour répondre à la demande ;
- production limitée (manque de slots et de matériaux) car tout le monde cherchait à reprendre post confinement ;
- hausse de la valeur de l'Ethereum (le Bitcoin n'a pas d'impact sur le prix des CG comme elles ne permettent pas de miner le Bitcoin).
Citation :
Publié par Aloïsius
Pour ceux qui n'avaient pas encore sorti la CB, les prix des anciens modèles deviennent enfin intéressants.

https://www.amazon.fr/s?i=merchant-i...05&ref=sr_pg_2

Trois ans putain... Que les mineurs rôtissent en enfer.
Pour la 6800 ça reste légèrement plus cher que ce que j'avais payé sur le site d'AMD, par contre la 6950XT à 900 boules c'est une sacrée bonne affaire.
Je viens de voir le nom des Quadro de la génération à venir : RTX 6000 génération Ada.
C'est pas possible ils sont trop cons
La première gen de Quadro RTX, c'était Turing, et ils avaient 2 modèles RTX 6000 :
Les Quadro RTX 6000, destinées aux workstations et qui avaient un refroidissement actif et un connecteur d'alim PCI-e
Les Quadro RTX 6000 passives, destinées aux serveur et qui avaient un refroidissement passif et un connecteur d'alim CPU 8 pins

Forcément, ça a généré des erreurs chez les fournisseurs, et perso ça m'a bien emmerdé car dans un cluster on ne peut pas migrer à chaud des workloads d'une carte à l'autre (les fréquences sont différentes). Et bien sûr les fournisseurs s'en branlent quand tu leur signale que la livraison correspond pas à la commande : "on n'a que ça".

Sur Ampère, ils ont mieux géré le truc, RTX A6000 en actif pour les WS vs A40 en passif pour les serveurs.

Ils pouvaient pas continuer sur la même lignée, avec RTX L6000 vs L40 ?
Non il faut qu'ils réutilisent RTX 6000 pour les WS.

Ca va être la fête lors des RMA, je sens bien des charlots qui te essaient de refourguer des Turing pour remplacer des Lovelace.
Je pense qu’il apparaît assez évident que pour ce faire un PC en fin d’année il vaut mieux se tourner sur AMD.

Je suis toujours sur une 1080 et je regrette pas mon achat, c’est dommage qu’ils aient vrillé dans de telles proportions.

Il ne reste plus qu’à attendre le conf sur les GPU AMD
660W en pic ? Une fois OC, l'alim 1000W risque d'être juste !
Heureusement, je ne joue plus, leur 4090, ils peuvent se la carrer où je pense.
Il y a des chances que les gens restent sur les RTX 30XX.

J'attends de voir ce que AMD va annoncer en conso pour ses cartes high end.
Citation :
Publié par Ryu Seiken
J'attends de voir ce que AMD va annoncer en conso pour ses cartes high end.
Hey les gars, ya Nvidia qui vends ses cartes un prix complètement fumée. Du coup on va les augmenter de 250€ sur ce qu'on avait prévu pendant la conf et mettre 150€ de moins qu'eux. Les clients auront pas le choix et ils auront l'impression de faire une super affaire *rire satanique capitaliste*

"Le lancement de GPU le plus absurde de ma carrière" dit-il, ou quelque chose approchant. La carte la plus "petite" fait "3.15 slots". Rien que l'idée d'un ".15 slot" confine à l'absurde. Enfin bref, c'est marrant à regarder.
AMD a l'opportunité de tuer le marché simplement en maintenant sa même gamme de prix que les 6000. Mais entre ça et le greed parce que aucune autre concurrence sérieuse... je crains le pire.
Encore un clou dans le cercueil des RTX 40 :


Pour résumer, les RTX 40 intègrent le nouveau format ATX 3.0 pour l'alimentation avec un seul port délivrant la totalité du courant, au lieu de deux ou trois ports auparavant (les 6 ou 8 pins que l'on connait). Le souci, c'est qu'il y a un défaut reconnu au niveau de l'embout, trop fragile, qui aurait tendance à se dégrader après 30 branchements ou simplement en tordant un peu trop le câble comme c'est souvent le cas lorsque l'on souhaite le cacher un minimum. Conséquence ? Les pins se décalent et peuvent faire cramer le câble, le PCB de la carte graphique et donc tout le PC si ce n'est pas remarqué à temps.

L'autre souci, c'est que le port ATX 3.0 permet aussi de transférer des informations à partir de l'alimentation afin de communiquer les imitations de cette dernière. Ainsi, si l'alimentation n'est pas capable de fournir un pic de 600W à une 4090, la CG limitera sa consommation afin de ne pas prendre de risque. Problème, les RTX 40 restent compatibles ATX 2.0 (donc nos alimentations actuelles) via un adaptateur, qui bien entendu ne permet pas cette communication. De facto, au boot, la CG peut consommer le max autorisé par le vbios sans aucune limitation autre que ce que l'alimentation peut fournir avant de cracher ses poumons voire pire. Ce dernier problème concernera essentiellement les possesseurs de 4090, mais c'est encore un bad buzz supplémentaire sur cette nouvelle génération.

Encore de bonnes raisons d'attendre AMD ou tout simplement de passer cette génération si vous le pouvez. On risque de rapidement avoir des retours sur Reddit de CG ou d'alimentations cramées, ça va être chouette
donc pour la série 4000 il vas falloir un gros boîtier une gros alimentation avec des norme spéciale un détecteur de fumer dans le pc et une bonne assurance maison pour risque d incendie ! chaud le gpu !


l avantage sava refroidir les mineurs de bitcoin au risque de tout perdre leur ferme !
Citation :
Publié par Lianai
Problème, les RTX 40 restent compatibles ATX 2.0 (donc nos alimentations actuelles) via un adaptateur, qui bien entendu ne permet pas cette communication. De facto, au boot, la CG peut consommer le max autorisé par le vbios sans aucune limitation autre que ce que l'alimentation peut fournir avant de cracher ses poumons voire pire. Ce dernier problème concernera essentiellement les possesseurs de 4090, mais c'est encore un bad buzz supplémentaire sur cette nouvelle génération.
Mais ça ne veut pas simplement dire que ça se comportera comme les cartes de génération précédentes qui ne pouvait pas plus faire la communication permise par l'ATX 3.0 et donc que ça ne pose pas de problème si l'alimentation est dimensionnée correctement ?
Après, les nouvelles cartes consomment plus mais ont a priori un meilleur étage d'alimentation qui font qu'il ne devrait pas y avoir les pics les plus problématiques comme il pouvait y avoir auparavant.
Citation :
Publié par Peredur
Mais ça ne veut pas simplement dire que ça se comportera comme les cartes de génération précédentes qui ne pouvait pas plus faire la communication permise par l'ATX 3.0 et donc que ça ne pose pas de problème si l'alimentation est dimensionnée correctement ?
Après, les nouvelles cartes consomment plus mais ont a priori un meilleur étage d'alimentation qui font qu'il ne devrait pas y avoir les pics les plus problématiques comme il pouvait y avoir auparavant.
Le problème, c'est justement le dimensionnement. Comme précisé, c'est un souci qui ne concernera probablement que les possesseurs de 4090, parce qu'elles peuvent consommer jusqu'à 600W (limite autorisée par le vbios) et même une alimentation de 1000W n'a pas forcément été conçue pour un pic soutenu de 600W sur ses câbles 8 pins. Certes, tu vas avoir 4 ou 6 ports pci-e 8 pins (150W chacun), mais à la base, beaucoup de ces alimentations ont été conçues pour du SLI avec des fluctuations de consommation (les deux CG rarement à 100% de la conso max), pas pour une carte seule. Cela ne devrait pas être trop gênant pour les alimentation assez récentes de qualité, mais pour les modèles un peu plus anciens (4 ou 5 ans+), qui ont potentiellement une limite de consommation sur le rail 12V dédié au pci-e, ce qui n'est plus vraiment le cas depuis quelques temps, cela peut devenir un problème lors d'un pic soutenu sur la durée.

C'est un risque marginal en comparaison du souci du port ATX 3.0, qui concerne toutes les RTX 40 et possiblement les futures AMD si elles intègrent aussi ce format, mais faut bien faire attention.
De ce que j'ai pu voir pour essayer d'en apprendre plus sur ces problèmes, le plus gros (le seul ?) risque là dedans est de faire passer 600W via un adaptateur dans 2/3 (selon l'adaptateur) câbles 8 pins comme on se retrouve dans (respectivement) 2/1 câble à faire circuler 300W au lieu des 150W recommandé. Il y a une marge de sécurité qui fait que ça fonctionne mais il y a un risque. Surtout sur un usage longue durée.

Pour le connecteur, j'ai cru que c'était un soucis de soudure qui lâchait sous l'effort mais apparemment c'est simplement que des gens ont vu dans les specs des nouvelles cartes que les connecteurs avait une durabilité de 30 cycles de connexion/reconnexion.
Ca ne parait pas forcément énorme mais nVidia a pointé que c'est en fait la même durabilité que les connecteurs utilisés depuis plus de 20 ans. Du coup, pas forcément besoin de s'inquiéter pour le commun des mortels. A moins que j'ai raté une info.
https://wccftech.com/nvidia-geforce-...-of-30-cycles/
Citation :
Publié par Peredur
A moins que j'ai raté une info.
En fait, cela concerne aussi la courbure du câble. Le cycle de 30 branchements / débranchements est un des deux problèmes reconnus par PCI-SIG (le consortium responsable des normes PCI) et Nvidia (qui a fait des tests) et probablement le moins gênant, même si cela peut le devenir en cas d'économie de bout de chandelle de la part de certains partenaires sur l'adaptateur, qui pourrait lâcher avant. Le souci de la courbure du câble est plus gênant, parce que beaucoup de personnes montant leurs propres PC ont cette tendance à vouloir cacher les câbles et pour cela, ils vont les plier, parfois à la limite et dans le cas du format ATX 3.0, cette limite arrive assez tôt (sur le schéma de la méthodologie utilisée par PCI-SIG, ça parle de 30 mm de courbure). Lorsque cela arrive, certains pins vont remonter, créer une pression diminuant la résistance, donc haute consommation + basse résistance = ça chauffe = ça fond.

Pour résumer le rapport de PCI-SIG :

- La courbure du câble, la consommation élevée et soutenue dans le temps peuvent créer des surchauffes.
- Ce problème a aussi été constaté après de multiples utilisations de la prise (~40).
- La surchauffe intervient au bout de 2h30 et peut faire fondre le câble après 10 à 30h.
- Le problème peut toucher aussi bien l'embout du câble que la prise sur la carte graphique (d'où le risque pour le PCB).
- Les câbles avec un taux de branchements faible et sans courbure n'ont pas de problème.

EDIT : Je vois que ça minimise pas mal le problème sur wccftech et je ne trouve pas ça très intelligent de leur part pour le coup. Même si c'était un problème similaire aux précédents formats, il faut prendre en compte quelque chose de nouveau ou de plus poussé : la consommation. C'est bien gentil de dire que l'ATX 2.0 pouvait rencontrer des soucis similaires (ne serait-ce qu'au niveau du cycle plug / unplug), mais il n'y avait pas de telles puissances en transit avec un ampérage débile si ce n'est sur la précédente génération (et surtout avec la 3090 et 3090 Ti), à une époque où l'ATX 2.0 était arrivé à maturation, même s'il y a eu des soucis. Au départ, une alim ATX 2.0 n'avait à gérer qu'une CG de 100/150W au pire sur du 10 ou 12A. Là on parle de 450 à 600W pour du 37,5 à 55A, donc quand ça chauffe, ça chauffe beaucoup plus et bien plus vite.

Dernière modification par Lianai ; 24/09/2022 à 01h29.
Oui enfin ça ressemble pas mal à une tempête dans un verre d'eau.

Vu que pas mal de monde comme moi a du acheter un RTX 30XX, à part une course à la puissance débile, l'intérêt de changer de carte est quasi nulle.

Quand je lis ce qu'il y a ici, j'ai l'impression de voir un nouvelle épisode de la guerre entre pro-Nvidia et pro-AMD.

Dernière modification par Gratiano ; 24/09/2022 à 10h42.
C'est pas une question de guerre, ce sont des constats.
nVidia se fout royalement des ses clients et de ses partenaires, c'est un fait. C'est le cas d'à peu près toutes les marques avec de solides réputations et qui sont en position dominante.
La seule concurrence digne, pour le moment, c'est AMD. Ce qui peut signifier de bonnes et mauvaises choses pour le consommateur final.
Soit AMD se cale sur nVidia comme concurrent unique, en étant à peine derrière en pricing et consommation énergétique. Auquel cas, il grignottera des parts de marché pour le court et moyen terme.
Soit AMD attaque le marché avec un pricing agressif et, éventuellement, des enveloppes énergétiques plus maîtrisées. Avec leur courbe de performances actuelles, entre les générations, on peut s'attendre à ce qu'ils rattrapent nVidia en volume de marché.
Ce qui posera un autre problème : le risque d'entente commerciale.

De mon point de vue, si Intel ou un autre acteur ne pointe pas le bout de son nez bientôt au moins sur le segment moyenne gamme, on risque de voir le marché des GPU devenir stagnant, comme lorsque Intel menait le jeu. Des évolutions infimes pour des marges toujours plus fortes jusqu'à l'arrivée de Ryzen.

Maintenant, à voir si Intel persistera dans cette nouvelle tentative de percer sur le marché GPU ou si les chinois arriveront avant. Ce qui est plus probable, avec un marché intérieur plus "dynamique" qui peut quasiment servir de marché test.

Et sinon, je suis d'accord qu'en termes de besoin, et uniquement de besoin (on ne parle pas des geeks purs et durs), les RTX 30XXX et RX 6XXX sont au top pour le commun des mortels.
Il faut aussi relativiser par rapport aux éditeurs de jeux vidéos qui ne se lancent plus dans des projets pharaoniques sur 5,7 ou 10 ans que même les cartes qui sortent en même temps ne peuvent pas faire tourner correctement.
Que NVidia se moque du monde, ce n'est pas récent. Cela dure depuis des années. Sony de son côté fait la même chose et je ne parle même pas des développeurs de jeux vidéos.

Donc je ne vois toujours pas l'intérêt de redire que NVidia se moque du monde. AMD à une époque a fait la même chose et d'ailleurs quelque part, il continue.

On est sur du bad buzz à tort ou à raison mais est-ce que ça a un réel intérêt ?

Et pour Intel, l'impression que ça donne, c'est qu'ils ont jeté l'éponge.
Citation :
Publié par Gratiano
Donc je ne vois toujours pas l'intérêt de redire que NVidia se moque du monde. AMD à une époque a fait la même chose et d'ailleurs quelque part, il continue.
C'est pas juste Nvidia continue, ils en rajoutent une énorme couche. Et dans tous les cas, ce n'est pas parce qu'une mauvaise pratique est habituelle qu'il faut l'accepter.
La course à la puissance de Nvidia, c'est pour répondre à la menace AMD et pour garder la couronne de "carte la plus performante".

Que ce soit au sacrifice de la logique et de la sécurité est assez intéressant, cela montre que Nvidia prend au sérieux la menace d'AMD. Par contre, ça montre aussi que la concurrence n'est pas forcément la panacée pour le consommateur. En réalité, pour l'informatique, c'est le contraire : moins de concurrence = moins d'innovation = moins d'obsolescence = moins de dépenses.
Quand AMD était à la ramasse, on pouvait garder son proc Intel 6 ans sans pratiquement souffrir. Depuis que la course a repris, on se retrouve assez vite largué, et les éditeurs en profitent pour se lâcher sur leurs logiciels.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés