[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Généralement pour le matos vaut mieux attendre le Cyber Monday que le Black Friday de toutes les façons.

De mon côté je me tâte à rester avec mon 5900X ou upgrader. Pas encore pris de décision.
C'est moi ou des infos que je choppe les RTX 5000 sont principalement des RTX 4000 plus grosse et plus énergivore pour un gain de perf pas ouf en dehors des XX90 ?

L'idée c'est de finir avec des parpaings ? Oups ont y est déjà..... Plutôt avec des tours de refroidissement pour GPU faisant la taille d'une grand tour ATX ?
Une 4060 Ti en promo chez amazon (-9%) : 482€.

J'ai acheté une 3060 Ti en pleine frénésie crypto-monnaie à 575 € il y a deux ans et demi, une carte qui avait des performances similaires :
36049-1732357545-8157.png
Nvidia se fout tellement de notre gueule grâce à la faiblesse d'AMD...
Du reste, j'ai pas vu trace de carte AMD en promo sur ce site.
Citation :
Publié par Aloïsius
Nvidia se fout tellement de notre gueule grâce à la faiblesse d'AMD...
Quelle faiblesse ? Celle de performer moins bien que Nvidia sur une technologie inventée par... Nvidia ?
C'est plutôt logique là. Et à part le RTX, je ne vois pas trop en quoi AMD serait "faible".

Perso, après avoir été fidèle à Nvidia pendant 15 ans, je suis repassé chez les rouges y a un an et je ne regrette pas un seul instant.

Et je regrette encore moins quand je vois les 50XX annoncées.
Citation :
Publié par Aloïsius
Celle de vendre presque 8 fois moins de GPU que Nvidia.
parts-de-marche-gpu.png
Je pensais que mon message indiquait clairement se situer sur le plan technologique et non des ventes. Sinon à ce titre, c'est à peu près le même spread pour les CPU avec Intel en lead avec 76% de part de marché. Ca n'enlève rien aux qualités des Ryzen et je pense qu'il ne viendrait à l'idée de personne en ce moment de qualifier AMD d'être en état de faiblesse sur les CPU.

L'avantage principal de Nvidia par rapport à AMD c'est qu'à Y+2 du lancement de nouvelles séries, ils démultiplient les versions de leur carte histoire d'avoir un maillage hermétique du marché là où AMD sort une low, une mid et une high end et basta.
Citation :
Publié par Jyharl
Je pensais que mon message indiquait que tu posais une question puisqu'il se terminait par un "?"
Du coup, j'ai répondu. Nvidia écrase le marché GPU, en volume mais surtout en valeur. AMD aura une gamme encore plus restreinte pour sa prochaine génération (pas de haut de gamme) tandis que les Verts vont sortir rapidement une gamme complète.
Du coup, ils peuvent se permettre des prix obscènes, puisque même en étant très clairement moins compétitifs qu'AMD ils vendent 7 fois plus.


Par comparaison, le marché CPU :
AMD-Intel-CPU-Market-Share-_-PassMark-_1-728x472-1.png
Ce n'est pas comparable. Même au pire de l'ère Bulldozer, AMD était à 20% ou presque. Pour les GPU ils sont passés sous les 12%. Depuis deux ans, c'est la catastrophe, alors même que Nvidia viole les joueurs et nage dans le pognon depuis 5 ans.
À noter que pour la première fois que le monde est monde, AMD a dépassé Intel sur le secteur des datacenters.

Situation qui ne sera peut être pas pérenne, mais ce n'est pas anodin, c'est le résultat de la perte de confiance en Intel à mon avis.

Bon et j'ai craqué pour une 4080 SUPER reconditionnée à 1080€, ça pique mais au moins j'ai la conscience tranquille, c'était un modèle que je zieutais à l'époque.
Je vais aller faire mon petit sujet pour emmerder les forgerons
Citation :
Publié par Linou
Augmentation officielle du tarif du 9800x3d

https://www.cowcotland.com/news/9387...7-9800x3d.html
H&Co a publié un article très intéressant là dessus justement :
https://hardwareand.co/actualites/br...-mais-pourquoi

Citation :
Publié par Jyharl
Quelle faiblesse ? Celle de performer moins bien que Nvidia sur une technologie inventée par... Nvidia ?
C'est plutôt logique là. Et à part le RTX, je ne vois pas trop en quoi AMD serait "faible".
Tu parles bien du RT en disant que c'est une techno inventée par nVidia ?
Le RT est une technique qui existe depuis très longtemps mais était utilisée essentiellement dans le cinéma d'animation car trop couteuse en ressources pour être exploitable à la volée, en temps réel.
Ca a été introduit dans le jeu vidéo avec DirectX 12 (donc pas nVidia).
Et nVidia a simplement décidé de proposer des architectures de carte avec des composants qui peuvent être dédiés au calcul du RT lorsque le RT est utilisé, pour de meilleures performances de la carte.
Citation :
Publié par Peredur
Tu parles bien du RT en disant que c'est une techno inventée par nVidia ?
Le RT est une technique qui existe depuis très longtemps mais était utilisée essentiellement dans le cinéma d'animation car trop couteuse en ressources pour être exploitable à la volée, en temps réel.
Ca a été introduit dans le jeu vidéo avec DirectX 12 (donc pas nVidia).
Et nVidia a simplement décidé de proposer des architectures de carte avec des composants qui peuvent être dédiés au calcul du RT lorsque le RT est utilisé, pour de meilleures performances de la carte.
Non je parle de RTX comme je l'ai écris noir sur blanc.
Nvidia étaient bien les premiers sur l'accélération matérielle de Ray Tracing.

Et pour le RT, DirectX 12 date de 2015... OptiX de Nvidia date de 2009. Du coup, même sur un truc dont j'ai pas parlé tu te trompe. Nvidia était bien premier sur le sujet.

@Aloïsius : Je ne m'inquiète pas trop pour AMD. Les technos GPU sont cycliques. Nvidia & ATI/AMD se renvoient la balle depuis plus de 25 ans. Ils reviendront sur le High End une fois qu'ils auront maitrisé leur nouvelle techno en préparation.
Citation :
Publié par Jyharl
@Aloïsius : Je ne m'inquiète pas trop pour AMD. Les technos GPU sont cycliques. Nvidia & ATI/AMD se renvoient la balle depuis plus de 25 ans. Ils reviendront sur le High End une fois qu'ils auront maitrisé leur nouvelle techno en préparation.
Bof. Cela fait depuis quand que AMD n'a jamais eu la carte la plus puissante et a toujours été derrière Nvidia ? 15 ans ?

Et puisqu'on parle des serveurs...
36049-1732379908-9684.png

Nvidia a annoncé un CPU ARM pour l'an prochain accessoirement. Cette firme est en train de devenir monstrueuse, peut-être plus encore qu'Intel dans les années 2010.
Citation :
Publié par Aloïsius
Bof. Cela fait depuis quand que AMD n'a jamais eu la carte la plus puissante et a toujours été derrière Nvidia ? 15 ans ?
Pas loin, de mémoire la dernière génération ou AMD a eu le leadership technologique sur les GPU date des 4850/70-5850/70, Nvidia ayant un peu une génération catastrophe avec les 7xxx. De mémoire ca date de quand j'étais en Irlande donc 2008-2011.
Par contre après il ne faut pas faire le mouton non plus, on peut jouer dans de bonnes conditions aujourd'hui avec des cartes AMD bien moins chères que les flagships Nvidia, faut pas déconner.
Citation :
Publié par Touful Khan
Par contre après il ne faut pas faire le mouton non plus, on peut jouer dans de bonnes conditions aujourd'hui avec des cartes AMD bien moins chères que les flagships Nvidia, faut pas déconner.
J'ai jamais dit le contraire. Le soucis c'est que la population humaine est très largement composée de moutons. Du coup Nvidia écrase la concurrence sur les GPU.
Heureusement que AMD a les contrats avec Sony et Microsoft...

S'il n'en tenait qu'à moi, tous les CPU et GPU devraient avoir une consommation assez basse pour être refroidis passivement, comme au bon vieux temps. Genre 60 watts pour le CPU et 75 watts pour le GPU.

Mais comme on a mis la main dans l'engrenage il y a plus de 25 ans, les machines consomment toujours plus, les éditeurs développent des jeux qui boivent cette puissance comme les rentiers absorbent les APL et le cycle infernal s'aggrave d'année en année. On risque de voir débouler des 5090 avec deux connecteurs de 600 watts, des alims de 1500 watts "normalisées" et l'obligation d'avoir du watercooling ou des blocks ventirads de 4 kg sur les cartes graphiques.
Boh, la disparition du SLI est dû à la puissance des GPUs modernes, en limitant la consommation (et donc la puissance) ça n'aurait juste pas disparu et le SLI ce serait normalisé. A l'époque des 8800 GTX c'était pas si rare de voir des alims de 1200w, pas commun non plus parce que ça coûtait un bras mais ça demandait pas un montage de l'espace avec plusieurs alims non plus.

Vivement qu'on s'oriente vraiment vers une technologie à la Qarnot plutot, on a toujours besoin de source de chaleur été comme hiver, on peut sans trop de souci imaginer combiner un pc gamer avec chauffe-eau vu que Qarnot le fait déjà avec des calculateurs
Citation :
Publié par THX
En parlant consommation on peut voir la conso réelle à l'instant t, en jeu notamment, de son pc ?
Tu achètes un wattmetre, c'est une quinzaine d'euros.

Citation :
Publié par Metalovichinkov
Boh, la disparition du SLI est dû à la puissance des GPUs modernes, en limitant la consommation (et donc la puissance) ça n'aurait juste pas disparu et le SLI ce serait normalisé.
Pas du tout certain.
Le SLI et le Crossfire avaient des problèmes de synchro qui n'ont jamais été réglés. Malgré des fps haut, il y avait une grande instabilité et au final plus de saccades. De même beaucoup de problèmes de drivers, beaucoup de chances que ça crashe sur des jeux trop vieux et trop récents.

Perso, j'ai fait une fois du bi-GPU (7950 GX2), j'ai rarement eu autant de problème avec une carte graphique (égalité avec une ATI Rage Fury), ça m'a convaincu que plus jamais ça.

Imo, la vraie raison pour laquelle c'est mort, c'est simplement que c'était de la merde.

En applicatif, le multiGPU continue à être très utilisé mais sur des applications qui n'ont pas besoin d'être aussi rigoureusement synchronisées que les jeux vidéos. On a une tour avec 4xA100 au boulot, ça marche bien (à part que bruit de moteur d'avion et 2500W).

Dernière modification par Borh ; 24/11/2024 à 09h54. Motif: Auto-fusion
Même pas besoin d'un multimètre, comme dit une prise connectée qui mesure la consommation (et accessoirement permet d'allumer et éteindre à distance) ne coûte pas grand chose :
https://amzn.eu/d/8zzGIEJ

On utilise ce modèle à la maison pour pouvoir éteindre à distance l'imprimante 3D, et aussi savoir combien ça consomme réellement (et si il faut le prendre en compte dans le prix de fabrication d'un objet, spoiler non c'est négligeable).
Citation :
Publié par Von
Même pas besoin d'un multimètre, comme dit une prise connectée qui mesure la consommation (et accessoirement permet d'allumer et éteindre à distance) ne coûte pas grand chose :
https://amzn.eu/d/8zzGIEJ

On utilise ce modèle à la maison pour pouvoir éteindre à distance l'imprimante 3D, et aussi savoir combien ça consomme réellement (et si il faut le prendre en compte dans le prix de fabrication d'un objet, spoiler non c'est négligeable).
Rien dispo avant 1 mois voire 2. Surtout 2 vu qu'il me semble en ce cas pertinent de privilégier Matter.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés