[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Drys Kaine
Personnellement, je trouve le FSR clairement perfectible. Quant au RT, face à la gargantuesque 5090, l'écart est immense (de l'ordre de 40% de mémoire avec le high end AMD ).
Je pense qu'il parle plus du FSR4 qui est désormais au même niveau que le DLSS 3.5 CNN (même un poil meilleur).
Citation :
Publié par Dr. Troy
Je ne vois pas en quoi la situation est comparable avec Intel. Même si la bulle IA s'effondrait, Nvidia garderait toujours ses revenus en gaming (dans l'absolu ils augmentent toujours, c'est juste que relativement, ils représentent plus grand chose). Leurs produits sont toujours bons, meilleurs que la concurrence, bouger le curseur du prix c'est facile au besoin, contrairement à Intel qui doit regagner une confiance et rattraper un retard technologique.
Le secteur gaming c'est peanuts aujourd'hui pour Nvidia : 7 à 8% cette année, et au max 10% si ils décidaient de remettre le même nombre de puces en circulation que les années précédentes).
Si un jour le secteur IA s'effondre ils ferment, comme n'importe quelle boite qui perdrait 90% de son CA brutalement.
Bon on parle d'un truc qui doit avoir une probabilité infinitésimale aujourd'hui.
Si demain on a des proc quantiques qui font bien mieux que ce qu'ils proposent aujourd'hui, que Amazon/Micro$oft/Google utilisent des puces maison, ou je ne sais quoi d'autre, on en reparlera.
Et encore, vu les dizaines de milliards de bénef net que la boite met de côté chaque année, ils auront surement moyen de racheter les petits malins qui tenteraient de les ruiner.
C'est peanut en relatif pas en absolu, ils font plus d'argent en gaming qu'ils n'en n'ont jamais fait si tu regardes leurs revenus.

Je ne dis pas que ça ne leur ferait pas mal mais leur activité de datacenter/IA n'a pas remplacé le gaming mais complété.

Ça et leur avance technologique sont pour moi ce qui peut expliquer qu'ils peuvent faire un peu ce qu'ils veulent avec leurs prix, qu'ils n'ont aucun intérêt à avoir une politique agressive sur les prix (ce que doit faire AMD).
Sur le secteur gaming il semble qu'ils font moins en valeur que l'an dernier.

https://cosmo-games.com/nvidia-resul...estriels-2025/
Citation :

Pourquoi les revenus gaming sont en baisse ?

Le segment du gaming, autrefois pilier financier de Nvidia, a chuté à 2,54 milliards de dollars, soit -22 % par rapport au trimestre précédent et -11 % sur un an. Cette baisse s’explique en grande partie par :
Désolé pour le lien, mais il est difficile de trouver des analyses détaillées gratuites.
En tout cas les chiffres ont l'air cohérent avec ce que disait Frandroid il y a quelques mois sur le sujet.

Si le secteur de l'IA passe brutalement à 0, la boite ne s'en remettra pas.
Ils pourraient certainement se dire qu'ils redimensionnent tout pour redevenir une boite purement GPU comme ils l'étaient il n'y a pas si longtemps finalement.
Mais j'ai un énorme doute sur la faisabilité du truc.
Citation :
Publié par aziraphale
Sur le secteur gaming il semble qu'ils font moins en valeur que l'an dernier.

https://cosmo-games.com/nvidia-resul...estriels-2025/

Désolé pour le lien, mais il est difficile de trouver des analyses détaillées gratuites.
En tout cas les chiffres ont l'air cohérent avec ce que disait Frandroid il y a quelques mois sur le sujet.

Si le secteur de l'IA passe brutalement à 0, la boite ne s'en remettra pas.
Ils pourraient certainement se dire qu'ils redimensionnent tout pour redevenir une boite purement GPU comme ils l'étaient il n'y a pas si longtemps finalement.
Mais j'ai un énorme doute sur la faisabilité du truc.
Les chiffres plus récents :
Citation :
First-quarter Gaming revenue was a record $3.8 billion, up 48% from the previous quarter and up 42% from a year ago.
https://nvidianews.nvidia.com/news/n...er-fiscal-2026

De toute façon il n'est pas question que ça retombe à 0 d'un coup l'IA, mais c'est sûr que ça ne va pas rester sur ces montants stratosphériques, et je pense que Nvidia en est conscient.
Mon propos était à la base de dire que la situation de nvidia n'est pas comparable à celle d'Intel, Intel s'est viandé avec une mauvaise gestion en se reposant sur ses acquis, a fini par perdre la course à la techno, sorti des produits merdiques et perdre la confiance. Nvidia reste leader dans les GPU Gaming même en ayant "mis de côté" ce marché, on a beau dire ce qu'on veut, on ne fait pas mieux pour l'instant. Du coup ils peuvent bien faire ce qu'ils veulent, et ils ont une belle marge de manœuvre si on vient les titiller. D'ailleurs ça se voit, ça fait déjà 2 générations qu'ils ne se font pas plus chier que ça. M'est avis que si la concurrence allait un peu plus les chercher on aurait une nouvelle gen bien plus poussée, ou bien plus avantageuse niveau tarifaire.
Clairement certaines entreprises se sont lancées dans l'IA sans qu'il n'y ait derrière de vrai intérêt pour les utilisateurs. Parfois c'est même en tout connaissance de cause et juste pour pouvoir lever des fonds.

Mais il y a des utilisations de l'IA qui sont indiscutables, qui ne disparaitront pas et vont toujours avoir besoin de GPU. Je pense en particulier à certaines applications scientifiques et médicales. Mais c'est parce que c'est ce que je connais y en a certainement plein d'autres.

Au boulot on utilise une machine avec 4 A100 et c'est pas demain qu'on n'en aura plus besoin. Au contraire on cracherait pas sur plus de puissance pour aller plus vite. On est en train de négocier avec l'université pour accéder à leurs DGX.

Donc quand la bulle IA éclatera, ça fera mal à NVidia, mais leur division data center continuera de ramener de l'argent.

En fait à terme, si je m'inquiète pour NVidia, c'est plutôt vis à vis des futurs concurrents chinois. Surtout qu'on a bien vu une stagnation du rapport perf/consommation sur les dernières générations de GPU, donc ça aide les retardataires à revenir dans la course.

Dernière modification par Borh ; 13/06/2025 à 10h08.
Je pense surtout que le mot "IA" n'a pas beaucoup de sens actuellement et est utilisé à tord et à travers.

Il faut bien distinguer les modèles de machine learing ou deep learning qui sont actuellement utilisés pour des usages classiques (classification, comparaison, régression...), et qui sont notamment ceux utilisés en médecine pour des analyses d'imagerie par exemple. On a appelé ça ça IA à l'époque parce que c'était plus in et plus facile à appréhender pour le grand public. Cet usage a un coût total assez faible au final et répond en général à des besoins métier identifiés.

Et puis il y a les IA génératives, qui sont principalement les LLM et les générateurs d'images et vidéos. Et c'est là que se trouve la bulle, et où les coûts sont monstrueux pour entrainer et utiliser les modèles, le tout avec un business model qui reste encore à définir. Tout le monde se rue dedans (j'ai bien du mal à trouver une application qui n'a pas son assistant IA intégré de nos jours), alors que le besoin n'est absolument pas identifié, juste parce que il faut y être sous peine de... de quoi ? D'avoir l'air has been ? Il suffit de voir la sauce que se prend Apple avec son Apple Intelligence qui n'est pour le moment vraiment pas ouf, alors que ça sert environ à rien et que le peu que faisait Siri était largement suffisant pour 99% des usages.

De mémoire également, pour le moment aucune entreprise d'IA dans le monde n'a pu générer de profits avec ça. Toute cette bulle prospère avec des investissements tellement massifs qu'ils deviennent difficile à appréhender (tout ça pendant qu'on nous rabâche qu'il n'y a plus de sous).

Si la bulle éclate, c'est l'IA générative qui sera au sol (et ce sera pas plus mal), le reste des usages de ML ou DL ne seront pas affectés, et il y aura toujours un marché pour les GPU dédiés, même si du coup évidemment bien moindre qu'actuellement.
Citation :
Publié par Borh
Le compteur de FPS de Steam dans sa version béta permet de distinguer les "vraies" frames du frame generation
https://videocardz.com/newz/valve-up...tion-detection

Imo, ça va pas faire plaisir à NVidia qui essaie par tous les moyens, y compris de la rétorsion contre les médias, de ne plus faire la distinction.
A ce sujet :

La vidéo est longue, donc en résumé c'est une descente en flèche de Nvidia, de ses campagnes mensongères, des gros médias qui se sont pliés à leurs injonctions et de leurs prix délirants.
Un des rares avantages que conserve Intel et on y pense rarement (sauf en ce moment bizarrement), c'est la consommation au repos.
https://hardwareand.co/dossiers/cpu/...s-prix?start=6

Parce que perso, quand il fait 35°, le mini radiateur à mes pied qui consomme quasi 100W alors que je fais juste du browsing ou que je regarde youtube, je le ressens bien quand même.

D'ailleurs, j'avais pas remarqué mais ça s'est plutôt aggravé avec Zen 5 comparé à Zen 4...
J'avoue que ça a été un petit choc cette conso des AMD. La avec les températures, je me sers de ma tour que si j'ai vraiment besoin de tirer sur le GPU, pour le reste mon MBP n'a pas à rougir et consomme moins en pleine charge que mon 9900X en idle .

D'ailleurs j'ai fini par limiter mon CPU avec le PBO, et les 20 watts gagnés en pleine charge (et donc quelques degrés) versus le peu de perte en bench, je pense que je vais le laisser comme ça. Y'a surement moyen d'optimiser encore mais j'avoue que faire des tests à coups de -0,5V reboot/stress & Cie me gonfle au plus haut point sur du matoss censé être haut de gamme.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés