[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Ryu Seiken
Et sinon qui s'est équipé en PCIe 4.0 en sachant que le PCIe 5.0 venait quelques mois après ? Me regardez pas, c'est pas moi.
Je pense qu'avant que le 5.0 apporte quelque chose, de l'eau aura coulé sous les ponts... En ce qui me concerne, j'attends de pouvoir acheter un GPU à un prix abordable déjà.

Et vu le rythme auquel je renouvelle mon matos et la pression que les data-centers mettent sur la norme PCIe, je pense que quand je remplacerais ma B550, ce sera pour une carte compatible PCIe 6.0 ou 7.0.
pci-express-feeds-speeds-table.jpg
Intel est tellement au bout du mur au niveau des perfs qu'ils font l'impasse sur les consommations hallucinante.... 450 W pour un cpu.. il consomme a lui seul une petite alimentation électrique.

Et j'ai l'impression que c'est pas fini si ils ne font pas une autre architecture.
Citation :
Publié par Aloïsius
Je pense qu'avant que le 5.0 apporte quelque chose, de l'eau aura coulé sous les ponts... En ce qui me concerne, j'attends de pouvoir acheter un GPU à un prix abordable déjà.

Et vu le rythme auquel je renouvelle mon matos et la pression que les data-centers mettent sur la norme PCIe, je pense que quand je remplacerais ma B550, ce sera pour une carte compatible PCIe 6.0 ou 7.0.
pci-express-feeds-speeds-table.jpg
Personnellement, depuis PCIe 3.0, je ne prête plus trop attention à ça. D'autant que je joue moins, voire plus.
Ceci dit, le jour où la taille des fichiers augmente exponentiellement, comme au début de l'ère des ordinateurs personnels, ça vaudra le coup de plus se pencher sur les ports d'échange et les supports à grande vitesse et gros débits.

Pour l'heure, je pense que les évolutions CPU/RAM apporte des gains plus visibles que les version PCIe et Les vitesses de SSD. (Hors cas spécifiques, of course).
Citation :
Publié par Ryu Seiken
Et sinon qui s'est équipé en PCIe 4.0 en sachant que le PCIe 5.0 venait quelques mois après ? Me regardez pas, c'est pas moi.
Moi et j'ai même fait le coup sur la ddr 5 également.
Mon setup étant exclusivement gaming, d'ici à ce que l'architecture de la ddr4 soit limitante on en sera à la ddr6.
Pour le PCIe 5.0, sur le stockage ça ne m'apportera rien de plus vu que je ne manipule pas de gros et nombreux fichiers.
Pour l'écriture, mis à part les installations ou MàJ de jeux, je suis avant tout limité par le cuivre qui sature déjà bien avant le SSD

Vu le surcout de ces nouvelles techno à leur sortie et pendant un bon moment, je ne suis pas mécontent d'avoir investi dans du matos actuel.

Au final pour ce que je fais de mon PC, gaming et multimédia, ce qui compte le plus reste le GPU vu qu'un CPU moyenne gamme suffit largement.
Citation :
Publié par Anngelle Silverstar
Intel est tellement au bout du mur au niveau des perfs qu'ils font l'impasse sur les consommations hallucinante.... 450 W pour un cpu.. il consomme a lui seul une petite alimentation électrique.

Et j'ai l'impression que c'est pas fini si ils ne font pas une autre architecture.
C'est sérieux 450W ? C'est autant qu'une carte graphique haut de gamme....
Ca veut dire qu'il faudra obligatoirement une carte mère qui a 2 connecteurs 8 pins pour le CPU. Et pour refroidir ça, je pense pas que même le plus gros ventirad en soit capable...

Et avec 3080 Ti qui fait des pics à 450W, faudra une alim de 1000W...
Je ne vois pas d'où ça vient le 450W. De ce que je vois, le 12900K a une consommation max de 228W avec un TDP de 125W. Donc ça signifie que la consommation normale est de 125W avec des pics montant au maximum à 228W (ça ne s'additionne pas) lors des opérations les plus exigeantes et pour des durées assez courtes de l'ordre de quelques dizaines de secondes.

Donc oui, la consommation est élevée, bien plus que les CPU AMD, mais ce n'est pas non plus du niveau d'une carte graphique haut de gamme. Par contre, dissiper 228W pour un CPU est plus complexe que pour un GPU, pour la simple raison que le rad est directement au contact du die pour un GPU alors qu'il y a une couche supplémentaire protégeant le celui du CPU, qui réduit de pas mal l'efficacité d'un ventirad. Du coup, un CPU qui consomme 228W au max, c'est déjà beaucoup trop pour un PC de particulier parce que cela oblige à acheter un ventirad haut de gamme qui coûte la peau des fesses.
sérieux Intel qui se la pète avec un cpu qui consomme comme pas possible en plain changement climatique se pas bonne presse !

la futur pub d Intel se des photo de foret qui brûlé avec la formulation " jouer pour brûlé "


sa manque une loi qui oblige la limitation de consommation dans le monde des PC / console / smartphone ! etc..
Citation :
Publié par Lianai
Je ne vois pas d'où ça vient le 450W. De ce que je vois, le 12900K a une consommation max de 228W avec un TDP de 125W. Donc ça signifie que la consommation normale est de 125W avec des pics montant au maximum à 228W (ça ne s'additionne pas) lors des opérations les plus exigeantes et pour des durées assez courtes de l'ordre de quelques dizaines de secondes.
C'est beaucoup mais pas très différent du 5950X
Citation :
Publié par gorius
sérieux Intel qui se la pète avec un cpu qui consomme comme pas possible en plain changement climatique se pas bonne presse !

la futur pub d Intel se des photo de foret qui brûlé avec la formulation " jouer pour brûlé "


sa manque une loi qui oblige la limitation de consommation dans le monde des PC / console / smartphone ! etc..
C'est en train d'arriver. Il serait temps que les "gamers" arrêtent de surconsommer de toute façon, quand tu vois des gens qui upgrade des 2080 en 3080 pour au final rien faire de spécial, je me dis que bon, faut arrêter les conneries un moment.

J'entends qu'on est sur de la consommation "loisir" mais quand même, le fait que ce soit un loisir n'implique pas de déconnecter tout neurone... J'ai mal au coeur quand je pense à la quantité de CG qui a du être vendu pour que des gens jouent à Cyberbug pendant quoi, 1 à 2 semaines.

Enfin bref, oui, ça manque de limitation.
Citation :
Publié par OeufRoyal
C'est en train d'arriver. Il serait temps que les "gamers" arrêtent de surconsommer de toute façon, quand tu vois des gens qui upgrade des 2080 en 3080 pour au final rien faire de spécial, je me dis que bon, faut arrêter les conneries un moment.

J'entends qu'on est sur de la consommation "loisir" mais quand même, le fait que ce soit un loisir n'implique pas de déconnecter tout neurone... J'ai mal au coeur quand je pense à la quantité de CG qui a du être vendu pour que des gens jouent à Cyberbug pendant quoi, 1 à 2 semaines.

Enfin bref, oui, ça manque de limitation.
J'ai entendu le même genre d'argument pour la consommation d'eau, "changer vos habitudes de consommation", "économiser" etc
Alors que 92% de la consommation mondiale d'eau vient de l'agriculture et du secteur industriel (source)

Certes ce n'est pas une raison valable de ne pas économiser à titre personnel.
Mais les économies chez soi sont une goutte d'eau, c'est le cas de le dire, dans l'océan. Même tous ensemble c'est peanuts au final.

Après, comparé à la masse de gamers énergivores, je ne crois pas que l'échange 2080->3080 soit aussi répandu que tu le prétends, la 1060 caracole toujours en tête dans les stats steam. De toute façon ça a toujours été et ne concerne qu'une très faible minorité d'amateurs de techno qui changent à chaque génération de GPU. Un peu comme pour les iphones.
Puis vu le coût actuel des GPU, pas certains non plus qu'il s'en vende des masses aux gamers.
Je me tournerais plutôt vers une autre utilisation.

De toute façon un gamer qui se respecte sur PC, le monte lui même et ne prend pas un CPU overkill pour tourner des jeux

Sur ce, je déconnecte mes neurones et je retourne cramer de l'uranium pour jouer à Cyberbug
Pendant ce temps, à Dubaï, dans les entrepôts des fournisseurs des miners...

https://cdn.videocardz.com/1/2021/09/Radeon-cards-at-mining-retailer-2.jpg

https://cdn.videocardz.com/1/2021/09/Radeon-cards-at-mining-retailer.jpg

Visiblement, XFX, sapphire et les autres préfèrent livrer en masse ces grossistes spécialisés dans le cryptominage plutôt que les boutiques vendant aux particuliers.

Ce qui explique aussi en parti les parts de marchés dérisoires d'AMD sur la dernière génération de cartes, avec des chiffres ridicules sur Steam par rapport à Nvidia : les cartes AMD sont très majoritairement expédiées directement dans les pays pétroliers (où l'électricité produite à base de pétrole/gaz/charbon est très bon marché) par les fabriquant. Et AMD ne fait rien pour y remédier.
Avec une conséquence majeure, c'est que je ne vois pas pourquoi les studios se fatigueraient à optimiser leurs jeux qu'AMD et ses partenaires refusent de vendre aux joueurs. Et qu'il y a peu de chances qu'AMD recrute beaucoup de nouveaux clients parmi ces derniers.
Citation :
Publié par Ryu Seiken
Et sinon qui s'est équipé en PCIe 4.0 en sachant que le PCIe 5.0 venait quelques mois après ? Me regardez pas, c'est pas moi.
Je vois sur le tableau qu'après le PCIe 10.0 en 2029, c'est fini, donc perso, je vais attendre 2029 pour ma prochaine config, comme ça je pourrai la garder pour toujours
(y en a là dedans )
Citation :
Publié par Aloïsius
Avec une conséquence majeure, c'est que je ne vois pas pourquoi les studios se fatigueraient à optimiser leurs jeux qu'AMD et ses partenaires refusent de vendre aux joueurs. Et qu'il y a peu de chances qu'AMD recrute beaucoup de nouveaux clients parmi ces derniers.
Ma RX 5700 XT sera ma dernière carte graphique AMD. Lâcher 500 boules (c'était avant que le prix des CGs soit éclaté au sol hein) pour avoir des problèmes de drivers / perfs à cause de pilotes mal branlés et de jeux pas optimisés pour AMD, c'est juste inacceptable.
J'aurais du prendre une RTX 2070
Citation :
Publié par Aloïsius
Avec une conséquence majeure, c'est que je ne vois pas pourquoi les studios se fatigueraient à optimiser leurs jeux qu'AMD et ses partenaires refusent de vendre aux joueurs. Et qu'il y a peu de chances qu'AMD recrute beaucoup de nouveaux clients parmi ces derniers.
Tu oublies un peu vite les consoles, autant la PS5 que la Xbox Series ont du RDNA2 dedans (a priori un truc qui ressemble à la puce du 6700XT), c'est ça surtout qui va inciter les développeurs à optimiser pour AMD et à ajouter le support du FSR.
Citation :
Publié par Von
Tu oublies un peu vite les consoles, autant la PS5 que la Xbox Series ont du RDNA2 dedans (a priori un truc qui ressemble à la puce du 6700XT), c'est ça surtout qui va inciter les développeurs à optimiser pour AMD et à ajouter le support du FSR.
La PS5 est en pénurie aux dernières nouvelles... Par ailleurs, le marché consoles n'est pas totalement perméable avec celui des PC. Et surtout, l'autre problème de l'abandon des joueurs par AMD au profit des mineurs n'est pas résolu par les consoles : la création d'une clientèle fiable.

Quoiqu'il en soit, AMD a perdu encore des parts de marché, en dépit de la sortie de la 6600 XT. https://www.tomshardware.com/news/am...eclines-august

Je connais une team rouge qui risque d'en prendre plein la gueule quand le cours de l'ethereum baissera.
Ce n'est pas parce qu'elle est en pénurie qu'elle ne s'est pas vendue, la PS5 comme les nouvelles Xbox ont réalisé les meilleurs démarrages de leurs histoires respectives : https://www.frandroid.com/marques/so...fres-de-ventes

En gros si elle est en pénurie, c'est surtout que la demande est supérieure à l'offre, alors que celle-ci n'est pas franchement ridicule. Cela finira par se tasser, mais il est clairement faux de dire qu'il n'y en a pas chez les gens. De plus, ce ne sont pas des considérations que les développeurs prennent en compte.
Citation :
Publié par Borh
Je vois sur le tableau qu'après le PCIe 10.0 en 2029, c'est fini, donc perso, je vais attendre 2029 pour ma prochaine config, comme ça je pourrai la garder pour toujours
(y en a là dedans )
Genre tu vas pas craquer avant ...
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés