[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
J'apprécie quand même la politique tarifaire d'AMD sur le milieu de gamme, si je ne m'abuse la 7800XT devrait être positionnée en face de la 4070 Ti, pour un prix quasiment deux fois moindre.
Les chiffres donnés lors de l'annonce d'une carte sont sélectionnés pour faire paraitre la carte plus puissante qu'elle ne l'est réellement.
Le fait que AMD la place en face de la 4070 est un indicateur bien plus fiable que les chiffres de comparaison qu'ils peuvent donner.
Si elle devrait être positionnée face à la 4070 Ti, elle serait positionnée face à la 4070 Ti.

Les gens avaient déjà fait le coup à l'annone de la 7900 XTX et annonçaient qu'elle était une concurrente à la 4090 alors que AMD disait qu'elle était une concurrente à la 4080.
Les tests ont montré que le placement d'AMD était le bon.
Starfield ne fonctionne tout simplement pas avec les cartes graphiques Intel. Bethesda n'a visiblement pas fait le moindre effort pour vérifier la compatibilité et Intel a eu accès au jeu au même moment que tous les joueurs.
Des nouveaux drivers corrigeront sans doute le problème mais je pense aux joueurs avec carte graphique Intel qui ont acheté le jeu en premium et qui ne peuvent pas y jouer...
Citation :
Publié par Borh
Starfield ne fonctionne tout simplement pas avec les cartes graphiques Intel. Bethesda n'a visiblement pas fait le moindre effort pour vérifier la compatibilité et Intel a eu accès au jeu au même moment que tous les joueurs.
Des nouveaux drivers corrigeront sans doute le problème mais je pense aux joueurs avec carte graphique Intel qui ont acheté le jeu en premium et qui ne peuvent pas y jouer...
C'est triste, mais cela ne m'étonne pas. Le plus terrible dans l'histoire, c'est que la prochaine génération d'Intel pourrait être assez énorme d'après les dernières rumeurs. On parle d'une B970 qui titillerait la 4080 pour un prix beaucoup plus faible d'ici Q1 ou Q2 2024, mais si les performances sont plombées par un manque de professionnalisme et d'intérêt de la part des développeurs / éditeurs ainsi que par un retard toujours aussi difficile à combler du côté d'Intel sur les drivers et la compatibilité des jeux passés et futurs, ce genre de situation continuera d'arriver.

La prochaine génération pourrait sérieusement m'intéresser, mais je sais par avance que ce serait une mauvaise idée, malgré une grille tarifaire beaucoup plus respectueuse des clients (je sais que c'est juste pour grignoter des parts de marché plus rapidement, mais cela permettrait aussi de bousculer les deux autres acteurs du secteur).
Globalement ça va de mieux en mieux avec les cartes Intel mais elles sont à éviter pour ceux qui veulent toujours acheter les jeux Day One (ou même avant car Starfield n'est pas encore sorti officiellement), ou ceux qui jouent pas mal à des vieux jeux < DirectX 11.
Citation :
Publié par Lianai
C'est triste, mais cela ne m'étonne pas. Le plus terrible dans l'histoire, c'est que la prochaine génération d'Intel pourrait être assez énorme d'après les dernières rumeurs. On parle d'une B970 qui titillerait la 4080 pour un prix beaucoup plus faible d'ici Q1 ou Q2 2024, mais si les performances sont plombées par un manque de professionnalisme et d'intérêt de la part des développeurs / éditeurs ainsi que par un retard toujours aussi difficile à combler du côté d'Intel sur les drivers et la compatibilité des jeux passés et futurs, ce genre de situation continuera d'arriver.

La prochaine génération pourrait sérieusement m'intéresser, mais je sais par avance que ce serait une mauvaise idée, malgré une grille tarifaire beaucoup plus respectueuse des clients (je sais que c'est juste pour grignoter des parts de marché plus rapidement, mais cela permettrait aussi de bousculer les deux autres acteurs du secteur).
Je pense qu'ils vont se caler sur AMD.
Persévérer jusqu'à un niveau de performances concurrentielles puis ajuster leurs prix.
Soit en retrait avec perfs légèrement en retrait et assumé. Soit en attaquant AMD de front.
Je pense qu'ils sont encore très loin de pouvoir affronter nVidia. S'ils y arrive, on peut (peut-être) espérer une politique tarifaire moins agressive de nVidia.

La difficulté est que nVidia et une firme essentiellement GPU. Là où AMD et Intel sont plus diversifiés et consacrent donc moins en R&D.
Le fait que AMD se hisse peu à peu au niveau des cartes haut de gamme et se donnent moins de pression face aux cartes High End est une excellente chose. C'est un gaspillage monstrueux de vouloir être présent sur tous les fronts sans les compétences et le passif nécessaire.
Si Intel fait de même, on pourra peut-être enfin avoir à nouveau des GPU à des tarifs raisonnables.

Le marché des GPU High end est encore plus anecdotique que le marché des haut de gamme, à mon sens. C'est une bataille d'image mais qui ne vaut pas forcément le coup et le coût.
Citation :
Publié par Ryu Seiken
La difficulté est que nVidia et une firme essentiellement GPU. Là où AMD et Intel sont plus diversifiés et consacrent donc moins en R&D.
De moins en moins. Ils pensaient avoir trouvé la martingale avec l'ethereum, mais désormais c'est l'IA.

Par exemple, Starfield a de "mauvais" résultats sur Nvidia (pour l'instant), parce qu'ils n'auraient pas misé un seul kopeck sur le département "gaming" pour l'aide à l'éditeur. Le département "IA/serveur" récupère les budgets et le personnel de R&D, en particulier parce qu'au lieu d'une misérable marge de 60% comme dans le gaming, ils font plutôt du 600% de mémoire…

Selon l'évolution de ce marché, attendez-vous à ce que Nvidia abandonne les joueurs comme de vieilles chaussettes.
Citation :
Publié par Aloïsius
Selon l'évolution de ce marché, attendez-vous à ce que Nvidia abandonne les joueurs comme de vieilles chaussettes.
Serait-ce une mauvaise chose ? Avec AMD et Intel sur les GPU et Nvidia out, on retrouverait peut-être marché plus ""sain"" comparable à celui des CPU, donc loin d'être parfait, mais beaucoup moins délirant que celui des GPU, qui a été complètement pourri par Nvidia.
Citation :
Publié par Aloïsius
De moins en moins. Ils pensaient avoir trouvé la martingale avec l'ethereum, mais désormais c'est l'IA.

Par exemple, Starfield a de "mauvais" résultats sur Nvidia (pour l'instant), parce qu'ils n'auraient pas misé un seul kopeck sur le département "gaming" pour l'aide à l'éditeur. Le département "IA/serveur" récupère les budgets et le personnel de R&D, en particulier parce qu'au lieu d'une misérable marge de 60% comme dans le gaming, ils font plutôt du 600% de mémoire…

Selon l'évolution de ce marché, attendez-vous à ce que Nvidia abandonne les joueurs comme de vieilles chaussettes.
On verra bien. Imo beaucoup de boîtes se lancent dans l'IA sans réellement se rendre compte qu'il suffit pas d'avoir plein de GPU et faire tourner un algorithme de deep learning. Faut surtout accès à une quantité massive de données curées et formatées pour entraîner ses modèles et ça c'est à la portée que de très peu d'acteurs.
C'est pas comme pendant le boom des crypto où il suffisait d'acheter des GPU, les faire miner et ça marchait.
J'pense pas qu'nVidia lâchera le marché gaming.
Par contre, il se peut qu'on ait moins de modèles et des prix toujours hauts.
Non mais parce que par exemple là, avec les 4060, j'sais pas ce qu'ils ont voulu faire, mais ils ont mal fait, ça s'est évident
Citation :
Publié par Duda
J'pense pas qu'nVidia lâchera le marché gaming.
Par contre, il se peut qu'on ait moins de modèles et des prix toujours hauts.
Non mais parce que par exemple là, avec les 4060, j'sais pas ce qu'ils ont voulu faire, mais ils ont mal fait, ça s'est évident
Ben, en rajoutant 0,10$ de led, ils peuvent vendre 3 fois plus cher et dire "si vous n'aimez pas, vous pouvez désactiver".

Y'a plein d'acheteurs pour ça.
Dernier rebondissement dans le partenariat AMD sur Starfield :
Hardware & Co - Un test processeur sur Starfield met à mal le partenariat AMD / Bethesda (hardwareand.co)
(L'article Hw&co est une version résumé d'un test plus complet d'un site allemand, dont le lien est présent dans l'article. J'aurais mis l'original directement en lien mais l'allemand me parait moins clair, ne parlant pas la langue. )

Mais on peut résumer l'important à ce tableau :
353133-1693811921-1299.png
Avec le R9 7950X3D derrière le R7 7800X3D derrière le i5 13600k. >.>

Une hypothèse est que le partenariat ne change pas le fait que Starfield tourne sur une version améliorée du Creation Engine (Skirim, Fallout 4, Fallout 76), qui est lui même basé sur le Gamebryo Engine (Morrowind, Oblivion, Fallout 3, Fallout NV), donc qu'il y a un héritage qui limite l'optimisation aujourd'hui.
Citation :
Publié par Peredur
...
Limité l'optimisation c'est une chose.
Avoir 26% d'écart, s'en est une autre, j'ai rarement vu un écart aussi important entre Intel et AMD sur leur proc flagship, pour un jeu issu d'un partenariat c'est juste ahurissant une telle différence - dans le mauvais sens -

Je suis en full AMD (5800X3D / 7900 XTX) et franchement au prochain refresh je prendrais Intel / Nvidia, AMD a suffisamment eu de chances et d'excuses de ma part.
Sans dec ils ont annoncé FSR3 y'a 1000 ans, toujours que dalle, pareil pour Hyper-RX et leur GPU flagship a toujours des bugs sur la consommation éclatée au sol en double écran. C'est pas la petite PME du coin, y'a un moment on paye le matos un bras, c'est pas pour être à la ramasse en terme de perfs à chaque fois.

Dernière modification par Paracelsus ; 04/09/2023 à 09h46.
Hardware Unboxed a fait ses benchmarks GPU avec un 7800X3D et Gamer Nexus avec un 13700k et en comparant leurs résultats il y a pas mal de différences, mais pas du tout cet ordre. J'ai même l'impression en 1080p high, les perfs sont plus importantes chez HU avec le 7800X3D. Après, ils ont pas benchmarké le même segment vu qu'il y a pas de benchmark intégré.

Ce que je vois aussi, c'est que les Radeon ont l'air de faire mieux comparativement au GeForce dans le test de HU, donc avec un CPU AMD.


GN.jpgHU.jpg


Après PCGH est un site très sérieux donc je ne remets pas en cause leurs résultats, mais il semble y avoir énormément de variables dans les benchmarks de Starfield qui changent les hiérarchies.
haha j'ai bien fait d'acheter un mariage 13600K + une 7900XTX , j'ai eu le nez creux pour une fois.

j'ai plus de 40 heures de jeu et je n'ai eu que 2 crash et avec les nouveaux Driver amd le week end dernier , plus rien.

Le seul Bug dans starfield que j'ai pus voir c'est un groupe de marines de l'UC qui sortait a poil sur Mars sans combinaison.....
Citation :
Publié par Anngelle Silverstar
haha j'ai bien fait d'acheter un mariage 13600K + une 7900XTX , j'ai eu le nez creux pour une fois.
Idem !
Sauf que j'ai pris une 7900XT pour l'OC et avoir une 7900XTX pour moins cher
Citation :
Publié par Peredur
Une hypothèse est que le partenariat ne change pas le fait que Starfield tourne sur une version améliorée du Creation Engine (Skirim, Fallout 4, Fallout 76), qui est lui même basé sur le Gamebryo Engine (Morrowind, Oblivion, Fallout 3, Fallout NV), donc qu'il y a un héritage qui limite l'optimisation aujourd'hui.
Morrowind, ça date de 2002. Les moins de 20 ans ne savent pas...

Sinon, ces résultats, c'est avec quelle résolution et GPU ? Parce que dans la vraie vie, je ne joue pas en 1080 et j'ai une 3060ti. Usuellement, dans ces conditions, tous les processeurs se valent grosso-merdo. Sauf avec certains jeux très exichiants.
C'est indiqué ils ont choisi une 4090 et du 1080p pour que le GPU ne soit pas un facteur limitant.
Là ils sont allé dans l'extrême pour trouver les limites, mais c'est vrai que ça n'a rien à voir avec la réalité.
De toute façon il est évident que le partenariat avec AMD ça ne pouvait être qu'au niveau du GPU puisqu'ils n'ont pas développé un tout nouveau moteur 3D à cette occasion. Et de toute façon, même si ça avait été le cas, ça n'aurait jamais pu être de l'optimisation pour les 7xxx qui sortis trop récemment.

Dans la vraie vie, personne ne se paye un GPU à 2000€ pour jouer en 1080p, ça parait évident.
Pour du 1080p il aurait mieux valu tester les procs avec une 4060Ti ou une 6700XT (en attendant la 7700).
Et garder la 4090 pour du 1440p et du 4k.
Ca aurait eu le mérite d'être un poil utile à ceux qui veulent se faire une config.
Perso j'attends surtout la prochaine génération de gpus amd RDNA4 qu'ils prévoient pour 2024.
Ca devrait être une des meilleures années pour se refaire une config complète ou améliorer sa cg.

Il est grand temps que les gens achètent intelligemment et politiquement afin d'éviter la domination totale d'intel et de nvidia.
Citation :
Publié par Persée
J'ai jeté un rapide coup d'œil aux tests de la 7800 XT et globalement c'est une 6800 XT qui consomme un peu moins.

C'est décevant.
Elle est meilleure !
De 2% mais meilleure !
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés