[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Tranquil Nirvana
Ah, mais je dis pas le contraire. C'est juste qu'ils pensaient se faire des couilles en or comme à la génération précédente, et que la, ils vont se retrouver avec un méga stock sur les bras (de 30 et de 40) qu'ils vont devoir brader si les cryptos ne remontent pas très vite.
Les cryptos ne remonteront pas car on est dans une récession occidentale.


Nvidia a tout fait au près de TSMC pour faire de la rétention de wafers et TSMC n'a pas accepter Alors oui ils sont dans la merde au niveau des futurs marges et le stock chinois de cartes graphique des miners ne sont pas encore arrivées jusqu'à chez nous.
Nvidia a déja démontré par le passé que décaler des sorties de plusieurs mois tant que les stocks d'ancienne gens sont pleins ne les dérange pas, ils nous ont déja fait le coup. Le succès de la technique tiendra à deux choses: leur réserve de cash pour faire amortisseur, et l'absence de volonté des concurrents de lancer une guerre des prix.
Donc les 4xxx à prix raisonnable, on les verra pas car elles ne sortiront pas avant que tous les stocks de 3xxx soient écoulés. On voit la le manque de concurrence réelle sur le secteur, ou tout est bottleneck par TSMC.
Pour l'instant avec ma 5700XT a 450€ en 2019 je suis passé entre les gouttes mais à un moment le remplacement va devoir se faire.
Citation :
Publié par Touful Khan
et l'absence de volonté des concurrents de lancer une guerre des prix.
A voir ce qu'AMD va faire. Maintenant qu'ils ont chopé une part non négligeable du marché des serveurs (en plus des PC ordinaires et des consoles), ils ont les moyens financiers de chercher à accroître leurs parts de marché. Si Nvidia retarde trop ses sorties, ils pourraient en profiter avec RDNA3, pour décoller des 10% de parts de marché que Nvidia leur laisse. D'autant que leur prochaine génération semble au moins égale à celle de Nvidia.
Ajoutons qu'Intel montre le bout de son nez. Leurs drivers ne sont pas au point, mais ils devraient s'améliorer peu à peu.

Sinon, j'aimerai voir les régulateurs s'intéresser à la consommation des GPU. 600 watts, ou même 450 watts, c'est bien trop.
Citation :
Publié par Aloïsius
Sinon, j'aimerai voir les régulateurs s'intéresser à la consommation des GPU. 600 watts, ou même 450 watts, c'est bien trop.
Tu parles de quels régulateurs ? Il ne s'agit que de recommandation sur des labels mondial.
Meme si la consommation explose, les performances consommation/performance sont également bien supérieur.
Donc si je suis ta logique, on devrait juste interdire les anciennes cartes qui ont quelques années et qui sont inférieurs en tout point au niveau efficacité.
Les GPU adaptent leurs consommations à l'utilisation également.
Citation :
Publié par Leydjin
Tu parles de quels régulateurs ?
Je parle de l'UE surtout. La Californie a légiféré sur la consommation des ordinateurs domestiques, mais sans grande efficacité. L'UE a forcé Apple à adopter le port USB-C, elle a mis en place des normes pour les voitures, elle peut le faire pour les composants de PC.

La norme PCIE, c'est 75 watts. J'estime que ce devrait être la limite max des cartes vidéos d'entrée de gamme, du genre 3050. Sachant que les APU offrent des performances croissantes, plus devient absurde.

100 watts, ça devrait être le max pour une 3060ti
200 watts, le max pour une 3070 ti
300 watts, le max pour une 3080 ti.

A titre de comparaison, le m1 Ultra consomme 215 watts maximum (CPU + GPU) et offre des perfs proches d'une 3060 ti. Les monstres conçus par Nvidia et AMD pour la prochaine génération ont été élaborés dans un marché dominé par les cryptomineurs, pour répondre à leurs demandes, pas à celles des joueurs. Par conséquent, la course aux watts doit être freinée, par le législateur s'il le faut. On parle de GPU à 700 watts en 2025 chez AMD, c'est du délire.
Oui on est d'accord mais si on commence la dessus on peut aussi légiférer sur tout un tas de chose comme les grosses voitures ou de sport.
Moi mon plaisir c'est le gaming, pour moi une voiture c'est aller à point A à un point B par exemple. Sur une année un pc même à 700watts est à des années lumières de la surconsommation d'une grosse bagnole de ce point de vu.

Une carte graphique gameur haut de gamme n'est pas une nécessité mais un luxe. Mais quid de donner un barème avec des puissances sortie de nul part (meme si je comprend l'idée).

Si on devait par exemple donner une idée ca serait de nouveau un système de notation comme on aime bien les faire en Europe, SAUF que comme je le précise les nouvelles cartes ont un potentiel de puissance bien supérieur aux anciennes générations par rapport à la consommation. Donc c'est elles qui devraient avoir le A. Tu me suis ?
La logique ne tiens pas d'un point de vu purement rationnel.
Ce qui serait rationnel par exemple, ca serait le partage des ressources, comme les solutions de jeux en ligne à la Shadow qui non jamais vraiment percé, car l'être humain veut absolument ses deux ou trois bagnoles et ne rien partager.
Citation :
Publié par Leydjin
SAUF que comme je le précise les nouvelles cartes ont un potentiel de puissance bien supérieur aux anciennes générations par rapport à la consommation. Donc c'est elles qui devraient avoir le A.
Non: le rapport in fine importe peu, ce qui est intéressant pour le climat c'est la consommation brute. Que ta carte affiche du 4K ou du VGA 16 couleurs ne change rien à l'impact climatique.
Cela dit rassure-toi, on a vue avec l'exemption Ferrari que les hobbies des riches ne souffriront pas de la lutte contre le réchauffement climatique. Les augmentations de prix se contenteront d'en exclure les pauvres puis les classes moyennes.
Une fois n'est pas coutume, je place mes espoirs en partie chez Apple. Les performances graphique du m1 ultra filent un coup de vieux aux GPU classiques. On voit qu'AMD limite considérablement la puissance de ses futurs APU en ne leur donnant que le minimum vital en termes d'unités de calculs, tout en sortant des puces custom pour Sony, Steam et Microsoft qui montrent bien la supériorité, en terme d'efficacité par watts, de ces solutions. Mais sous la pression d'Apple, ils pourraient être contraint à sortir des APU bien plus performants graphiquement.
Rassurez vous, ça va se réguler tout seul, quand on aura les genoux qui crament dans un appart à 45°, on va vite les couper (si ce n'est les plombs qui sautent avant).
En tout cas, on se sera bien marrés !

Sinon les voitures sont déjà soumises à des taxes (bon dans notre merveilleux système celui qui a de l'argent s'en fout) et sauf erreur je crois bien que ça parle GPU ici. Donc non ça serait pas déconnant de faire pareil.

@Aloïsius : et puis quoi encore ? Ils peuvent pas tranquillement se faire leurs marges sans trop dépenser en R&D et juste monter les voltages ? On peut vraiment plus rien faire.
Citation :
Publié par Leydjin
Une carte graphique gameur haut de gamme n'est pas une nécessité mais un luxe. Mais quid de donner un barème avec des puissances sortie de nul part (meme si je comprend l'idée).
Je suis vraiment pas du tout convaincu par ça.

Ok pour un particulier c'est du luxe.

Dans beaucoup de domaines de recherche de l'Informatique c'est devenu une nécessité, et la tendance est justement à faire tourner des GPU pendant de longues sessions, à puissance maximale.

Le premier domaine qu'on peut pointer du doigt est la vision par ordinateur, avec comme vrai problème de fond le fait que ce soit un domaine qui s'articule de plus en plus autour de l'apprentissage machine, qui est justement directement aligné sur la puissance de calcul (et donc la consommation énergétique).

Littéralement l'optimisation du coût énergétique de l'apprentissage est devenu une question de recherche (cf [1] et [2] pour ceux que ça intéresse).

L'apprentissage étant de plus en plus présent dans tout et n'importe quoi, et justement basé sur l'exploitation des GPU, la question de l'alimentation de ces derniers se pose.

Accessoirement l'intelligence artificielle est une priorité de l’État français et fait partie des domaines de recherche prioritaires, donc on peut être sûr que ça va continuer sur cette lancée : source.

Pour l'instant ça reste de niche, mais la question de la consommation d'énergie du matériel informatique va bien finir par se retrouver sur le devant de la scène (et pas forcément seulement à cause des crypto).

Dernière modification par OeufRoyal ; 16/07/2022 à 22h50.
La question de la consommation va se poser aux USA bien avant l'Europe et ce sans même parler de l'écologie. Avec la limitation à 120V pour 15A (parfois 20A) par circuit électrique, ça donne 1800W en sachant que le rendement max conseillé pour une consommation prolongée est autour de 80%, donc 1440W. Un PC haut de gamme actuel qui tourne à fond en jeu peut avoir des pics de consommation qui dépassent les 1000W, ce qui laisse assez peu de marge pour tout le reste (écran / luminaires / ventilateur ou chauffage d'appoint / chargeur téléphone / etc.). Même un PC gamer de gamme moyenne équipé d'un GPU de la prochaine génération pourrait devenir problématique, surtout dans les vieux logements. Et ce problème touchera même le Japon avant avec une limitation à 1500W, donc 1200W pour du prolongé.

En France, comme dans la majorité des pays, on n'aura pas ce souci vu que l'on est au 230V 16A, ce qui donne 3680W par circuit et quasiment 3000W en restant à 80%.

Après, il y a la considération écologique, mais il faudrait des décisions lourdes au moins au niveau européen pour forcer Nvidia et AMD à réfléchir autrement vu que ça ne viendra pas des USA.
Intel va augmenter le totalité des prix de ses catalogues de 10% à l'automne et apparemment jusqu'à 20% sur ses nouveaux produits.
La pénurie de petits composants est encore beaucoup trop importante et pas mal de petites structures ne tiennent plus et commencent à fermer.
On est loin du rétablissement qu'on aurait pu espérer il y a six mois.
Citation :
Publié par Persée
La 4090 serait 82% plus rapide que la 3090 : https://www.cowcotland.com/news/8232...-rtx-3090.html

C'est seulement un leak donc à vérifier.
J'avais vu récemment dans une vidéo de JIgfio qu'un constructeur d'alimentation sortait une alim de 1000 W avec des sortie pour la série rtx 4000, il me semble que c'était Thermaltake , ce qui voudrait dire qu'ils sont au courant de certaines choses sur ces cartes.
Citation :
Publié par Anngelle Silverstar
J'avais vu récemment dans une vidéo de JIgfio qu'un constructeur d'alimentation sortait une alim de 1000 W avec des sortie pour la série rtx 4000, il me semble que c'était Thermaltake , ce qui voudrait dire qu'ils sont au courant de certaines choses sur ces cartes.
Même si on se doute que ça risque de taper fort questions watts, ca ne veut pas dire grand chose quand on voit que certaines 3XXX étaient fournis avec une alim 1600W :
https://www.ginjfo.com/actualites/co...1600w-20220704
A noter que l'ethereum remonte depuis deux semaines. A 1500 €, il doit être à nouveau presque rentable de miner cette merde infame. Si la tendance se poursuit, les mineurs pourraient à nouveau dévaster le marché et la planète.
Citation :
Publié par Aloïsius
A noter que l'ethereum remonte depuis deux semaines. A 1500 €, il doit être à nouveau presque rentable de miner cette merde infame. Si la tendance se poursuit, les mineurs pourraient à nouveau dévaster le marché et la planète.
Ça ne va pas durer très longtemps le coût écologique de l'ETH, à priori (et cette fois ce serait la bonne), le passage en PoS serait le 19 septembre, donc il ne sera plus possible de miner de l'ETH (et que du coup les autres cryptos qui sont liés passeront au PoS aussi).
Citation :
Publié par Anthodev
Ça ne va pas durer très longtemps le coût écologique de l'ETH, à priori (et cette fois ce serait la bonne), le passage en PoS serait le 19 septembre, donc il ne sera plus possible de miner de l'ETH (et que du coup les autres cryptos qui sont liés passeront au PoS aussi).
On parie qu'ils vont encore le reporter à plus tard ?
Citation :
Publié par Anthodev
Ça ne va pas durer très longtemps le coût écologique de l'ETH, à priori (et cette fois ce serait la bonne), le passage en PoS serait le 19 septembre, donc il ne sera plus possible de miner de l'ETH (et que du coup les autres cryptos qui sont liés passeront au PoS aussi).
Mais ce passage en PoS ne va t’il pas uniquement scinder la blockchain comme vu auparavant avec eth Classic?
Citation :
Publié par Kitano Must Die
Mais ce passage en PoS ne va t’il pas uniquement scinder la blockchain comme vu auparavant avec eth Classic?
Le but n'est pas de garder l'ETH actuel tout en ayant le nouveau système en POS à côté, mais de switcher la blockchain sur le nouveau système. Des personnes pourront lancer une blockchain sur l'ancienne code d'ETH mais il est loin d'être certain que ce soit suivi par une partie de la communauté, en tout cas la fondation ne comptera pas s'impliquer dans ce type de projet s'il venait à voir le jour.
Citation :
Publié par Anthodev
Le but n'est pas de garder l'ETH actuel tout en ayant le nouveau système en POS à côté, mais de switcher la blockchain sur le nouveau système. Des personnes pourront lancer une blockchain sur l'ancienne code d'ETH mais il est loin d'être certain que ce soit suivi par une partie de la communauté, en tout cas la fondation ne comptera pas s'impliquer dans ce type de projet s'il venait à voir le jour.
Croisons les doigts qu’ils se sortent les doigts pour septembre alors
Citation :
Publié par Anngelle Silverstar
De toute façon tant que l'Energie électrique et hors de prix il n'y aura plus de minage.
Je mine autre chose que l'ETH perso, c'est pas encore un soucis le prix du kWh en France.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés