[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
La 2060 12 giga annoncée pour Janvier serait un papier launch destiné à couvrir le lancement d'un GPU identique destiné aux mineurs.
Et ils seront vendus directement par NVIDIA, puisque les fabricants n'ont rien reçu...
Citation :
Publié par Gratiano
@aziraphale : La gravure fait partie des paramètres et donc tu confirmes ce que je dis concernant l'architecture des processeurs....
La gravure plus fait normalement baisser le TDP. Cela veut dire qu'il y a d'autres choses qui ont changé pour faire monter la puissance ainsi

https://fr.wikipedia.org/wiki/Enveloppe_thermique

Mais encore une fois tu m'expliques comment doubler la puissance de calcul sans augmenter la puissance quand tu ne change pas d'architecture ? Parce que la gravure ne peut pas expliquer tout.....
Oui et comme absolument tout peut être considéré comme un paramètre, tu as forcément raison

La finesse de gravure n'est pas un paramètre.
Elle permet de mettre plus de transistors sur une même surface mais oblige à changer énormément la structure de la puce.
C'est parce qu'on ne touche quasiment pas à la surface de la puce qu'on peut augmenter la puissance en changeant de finesse de gravure.
Basiquement si je peux tripler le nombre de transistors sur la puce, je double sa puissance (c'est faux, pas la peine de venir me dire que c'est 2.4 ou 1.8 fois et pas 2)
Mais comme effectivement diminuer la finesse de gravure permet de limiter la conso, tu auras une augmentation de conso très inférieure au gain de puissance.

Si ça se trouve la puce de la 4090 sera non seulement en 5nm, mais peut-être aussi légèrement plus grande que celle de la 3090, permettant de mettre non pas 3x mais 4x plus de transistors (toujours de chiffres au pif)

Ce qui n'a rien à voir avec l'architecture globale : pas de chiplet par exemple comme l'a signalé Aloisius.
Changer l'archi pourrait très bien n'apporter aucun gain de conso à puissance égale avec l'actuelle. Ca serait complètement idiot j'en conviens
Les recherches ont bel et bien pour but d'augmenter les perf ET de baisser la conso.
Citation :
Publié par Gratiano
Non mais réfléchis un peu. En deux ans, NVidia n'a pas pu développer une nouvelle gamme de processeurs donc le seul moyen qu'ils ont de faire gagner leur processeur en puissance, c'est de jouer sur les paramètres de la série actuelle en la boostant. Le puissance va avec ça donc oui, c'est normal et logique vu que ce ne sera pas une nouvelle gamme de processeur à proprement parler. C'est pas comme si NVidia n'était pas coutumier du fait avec des puissances qui pètent le plafond.
Je réagissais sur ta qualification de "normal". Les mecs sont juste des gros culs qui en ont rien à branler de ce qui se passe autour à proposer des produits comme ça.

Il s'est passé moins de 2 ans entre les 2 dernières architectures au passage. Et Apple vient de sortir un GPU concurrent du 3080 mobile, avec 100 W de TPD en moins. C'est pas une PME nvidia.
Citation :
Publié par Dr. Troy (#31214036).
Il s'est passé moins de 2 ans entre les 2 dernières architectures au passage. Et Apple vient de sortir un GPU concurrent du 3080 mobile, avec 100 W de TPD en moins. C'est pas une PME nvidia.
Whoa vivement qu'Apple fasse des GPU également.
On aurait un MSRP de 1899€ pour l'équivalent RTX 3080. Ce qui ne serait pas déconnant à l'époque actuelle
Bien sûr vendu sans système de refroidissement, en option pour 299€ et 199€ la backplate
Citation :
Publié par Sinly
Whoa vivement qu'Apple fasse des GPU également.
On aurait un MSRP de 1899€ pour l'équivalent RTX 3080. Ce qui ne serait pas déconnant à l'époque actuelle
Bien sûr vendu sans système de refroidissement, en option pour 299€ et 199€ la backplate
ta oublier les mise a jour du bios a 500$ ! 6fois par ans !

-----------

mais sa manque sérieux un autre acteur dans les gpu ! ...
Citation :
Publié par Aloïsius
Les premières intel arriveront en Février-Mars.
si leur gpu sont réaliser avec les mème graphique que leur cpu ! j ai un doute !
Citation :
Publié par gorius
oui mais sa donne pas les vrais performance du gpu quand on regarde le dernier vs en mode magique des cpu intel ! ..
On s'en fout. Mais grave.

Là, Nvidia et AMD nous vendraient des riva 128 et des Rage 128 à 800 € s'ils en avaient encore en stock. AMD vend ses RX 6600 à plus de 600 €. Intel ne pourra pas faire pire que le duopole.

C'est du reste pour ça que les rouges et les verts vont ENFIN sortir des cartes d'entrée de gamme, avec les 3050 et les 6500.
Citation :
Publié par Sinly
Whoa vivement qu'Apple fasse des GPU également.
On aurait un MSRP de 1899€ pour l'équivalent RTX 3080. Ce qui ne serait pas déconnant à l'époque actuelle
Bien sûr vendu sans système de refroidissement, en option pour 299€ et 199€ la backplate
C'est peut être un des rares acteurs à ne pas avoir gonflé ses prix actuellement, t'as pas meilleur rapport qualité/puissance/prix qu'un Macbook Pro avec leurs nouvelles puces actuellement (pour peu qu'on utilise macOS évidemment hein). Et c'était juste pour parler de la possibilité de faire des GPU similaires sans pour autant gonfler le tpd. Et je te rassure ils ne vont pas faire de GPU pour le marché PC, c'est juste dans leurs machines.
Leur nouvelle architecture a mis un petit coup de pied au cul d'Intel (et c'est pas fini vu qu'ils vont passer au 3nm l'an prochain), donc il vaut mieux s'en réjouir.
Citation :
Publié par Aloïsius
Sauf que 600 watts, c'est de la démence. Avec le reste du PC, ça va pousser dans les 800 watts. C'est un radiateur. Même avec la clim, si tu as 800 watts de chaleur dans ton bureau ou ta chambre, tu vas le sentir passer. Surtout si ta tour est à 50 cm de toi.
Faut voir avec le prix du gaz, ça peut être rentable. Bon pour l'instant ça reste très doux ma chaudière doit tourner 2h/j maxi.
Aloisius l'a dit quelques messages plus haut, les 2060 12Go n'existent que pour les mineurs en réalité.

De toute façon qui irait acheter une 2060 au MSRP d'une 3080, même si elle a 12Go de VRAM au lieu de 6 précédemment ?
Citation :
Publié par Caniveau Royal
Oui, ça sert à quoi d'avoir douze gigots de RAM sur une carte graphique ?
(pour le jeu)
A charger des assets dans une résolution plus élevée et à limiter les transfers de données.

Pour jouer en 4k c'est en train de vite devenir un minimum, cf. https://youtu.be/nbIivI7mu7o, et en particulier la deuxième partie de la vidéo.
Les 16 Go de ma carte graphique ne sont pas du tout superflus si j'en crois l'outil de monitoring d'AMD, il est très fréquent, sur les gros jeux, que la consommation dépasse les 10 Go. Et je ne joue pas en 4K, juste en 1440.

Dans tous les cas, pour un composant qu'on va essayer de renouveler le moins souvent possible vu comment la merde est partie pour durer, 8 Go c'est vraiment pas assez, si on veut garder la carte 2-3 ans ou plus.
Citation :
Publié par Von
Les 16 Go de ma carte graphique ne sont pas du tout superflus si j'en crois l'outil de monitoring d'AMD, il est très fréquent, sur les gros jeux, que la consommation dépasse les 10 Go. Et je ne joue pas en 4K, juste en 1440.
Comme mentionné brièvement dans la vidéo LTT que j'ai postée au-dessus, "ce genre d'estimation reste très difficile".

Quand on parle de mémoire, qu'elle soit vidéo ou autre, les applications modernes ont tendance à se mettre à l'aise, et à favoriser l'utilisation de l'espace plutôt que de la bande passante. Résultat, tu peux te retrouver un jeu qui consomme 10 de tes 16go et qui sur un autre système n'occupe que 7.5 sur 8 disponible, sans constater une grosse différence en termes de performances. Tout simplement, une app occupe, mais ne se soucie guère de retirer à moins que le besoin ne s'en fasse sentir (ce qui est en fait logique : inclure des instructions visant à nettoyer l'espace occupé ne ferait que ralentir le code, en fait, pour zéro bénéfice).

C'est exceptionnellement visible avec les navigateurs modernes aux onglets indépendants (type chromium), qui ont des performances similaires mais un usage totalement différent de la ram selon que le système ai 64 ou 8go disponibles.
Citation :
Publié par Kafka Datura
Tout simplement, une app occupe, mais ne se soucie guère de retirer à moins que le besoin ne s'en fasse sentir (ce qui est en fait logique : inclure des instructions visant à nettoyer l'espace occupé ne ferait que ralentir le code, en fait, pour zéro bénéfice).
Yep Windows fonctionne comme ça. Notez aussi que les cartes graphiques ne servent plus uniquement à faire de l'affichage, vous avez par exemple potentiellement une partie de l'IA d'un jeu qui peut l'utiliser.
une chance qu il y a les consoles ! sinon on aurais des jeux qui demande une carte graphique a 12go ram ( voire plus ) pour jouer en 1080 HD pour pousser a l achat !
Citation :
Publié par Dr. Troy
C'est peut être un des rares acteurs à ne pas avoir gonflé ses prix actuellement, t'as pas meilleur rapport qualité/puissance/prix qu'un Macbook Pro avec leurs nouvelles puces actuellement (pour peu qu'on utilise macOS évidemment hein). Et c'était juste pour parler de la possibilité de faire des GPU similaires sans pour autant gonfler le tpd. Et je te rassure ils ne vont pas faire de GPU pour le marché PC, c'est juste dans leurs machines.
Leur nouvelle architecture a mis un petit coup de pied au cul d'Intel (et c'est pas fini vu qu'ils vont passer au 3nm l'an prochain), donc il vaut mieux s'en réjouir.
Ouais en même temps ils ont de la marge vu qu'ils vendaient 3x au dessus du prix du marché.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés