La Forge

[Intel, Nvidia, AMD] Etat du marché et évolution. (Ry)Zen : le retour d'AMD ?

Répondre
Partager Rechercher
https://www.tomshardware.com/news/as...ropping-report

Baisse de la pression des cryptomineurs en Chine, hausse de la production des GPU AMD : asrock annonce de bonnes nouvelles pour les joueurs.
Sachant que les mineurs absorbent 25% de la demande et qu'ils risquent de saturer le marché de l'occasion quand ils vont vendre leurs cartes, et que la fin des confinements annonce le retour au bureau d'un packet de joueurs...
Citation :
Publié par Attel Malagate
Mais il est pas un peu flingué le matos sorti d'une ferme crypto ?
Qui va acheter ça?
Normalement, pas trop, les cartes sont sous-voltées... Mais elles vont peser sur le marché chinois, qui même en dehors des mineurs représente un gros morceau. Bref, je m'en fous de savoir qui les achète, je souhaite juste ne pas payer mon GPU à 400% de son prix normal.
Citation :
Publié par Aloïsius
Normalement, pas trop, les cartes sont sous-voltées... Mais elles vont peser sur le marché chinois, qui même en dehors des mineurs représente un gros morceau. Bref, je m'en fous de savoir qui les achète, je souhaite juste ne pas payer mon GPU à 400% de son prix normal.
Tu peux répéter avec moi :

Merci
La République Populaire
De Chine

Merci la République Populaire de Chine!
Citation :
Publié par Kitano Must Die
Tu peux répéter avec moi :

Merci
La République Populaire
De Chine

Merci la République Populaire de Chine!
Vu que c'est eux qui sont à l'origine du problème avec leurs centrales à charbon subventionnées qui crament l'électricité dans des fermes géantes pour faire de la fausse monnaie qui va foutre le bordel dans l'économie mondiale : non.
Et les mineurs qui ne sont pas en Chine, ils sont en Iran, en Russie et dans les autres pays où l'électricité est subventionnée par l'intermédiaire des hydrocarbures.
Une question aux informaticiens qui suivent ce fil : est-ce que l'envolée du nombre de coeurs dans les processeurs "pro" (genre Epyc) va se répercuter dans les processeurs grands publics ?
On parle d'un Epyc à 128 coeurs et 256 threads pour la prochaine génération : https://www.cowcotland.com/news/7687...er-inside.html

Ce ne sera bien entendu pas destiné aux PC ordinaires et n'aura aucune utilité en jeu. Sauf que l'existence de ces monstres va forcément pousser les développeurs à mettre au point des algorithmes pour les exploiter dans les applications pro (serveur, IA, rendu...). Et qu'un jour où l'autre ces algorithmes et ces innovations logicielles vont "infuser" dans des applications plus classiques.

Actuellement, le maximum pour les plateformes "mainstream", c'est 16 coeurs en AM4. J'espère que ça le restera en AM5, parce que je ne suis pas certain d'apprécier de voir mon 3700x devenir obsolète en deux trois ans. Mais je trouve inquiétant cette explosion du nombre de coeurs dans les machines dédiées, parce que ça va très vite.

2017 (Naples) : max 32 coeurs (14 nm)
2019 (Rome) : max 64 coeurs (7 nm)
2021 (Milan) : max 64 coeurs (7nam)
2022-2023 (Genoa) : max 128 coeurs (5nm)
On parle d'un quadruplement du nombre de coeurs en 5 ou 6 ans, avec un doublement à chaque changement majeur de node. On peut du coup s'attendre à ce que les ryzen 6000 fassent la même chose (et montent à 32 coeurs l'an prochain...) et à ce que le passage au 3nm de TSMC (d'ici 2024-2025) double encore la mise.

Pour l'instant, les développeurs de jeu ont du mal avec le massivement parallèle, mais ils vont bien finir par trouver des trucs (pour les IA par exemple), et je crains qu'on ne douille très fort à ce moment.
Citation :
Publié par Aloïsius
.
Pour l'instant, les développeurs de jeu ont du mal avec le massivement parallèle, mais ils vont bien finir par trouver des trucs (pour les IA par exemple), et je crains qu'on ne douille très fort à ce moment.
De ma fenêtre, j'ai surtout l'impression que les stack techniques évoluent pour permettre la concurrence de manière transparente pour les développeurs. C'est-à-dire qu'on a de plus en plus de technologies qui nous permettent de faire du multithread sans avoir à s'emmerder avec les threads et les trucs abscons et dangereux qui vont avec. Et les éditeurs comme Unreal Engine et Unity à mon avis investissent lourdement là-dedans.
Citation :
Publié par Aloïsius
Une question aux informaticiens qui suivent ce fil : est-ce que l'envolée du nombre de coeurs dans les processeurs "pro" (genre Epyc) va se répercuter dans les processeurs grands publics ?
On parle d'un Epyc à 128 coeurs et 256 threads pour la prochaine génération
Le nombre de cœurs influe sur les problèmes Big Data de :
1) Data Engineering : j'associe pour les enrichir des données qui sont volumineuses.
De plus en plus usité dans les entreprises

2) Machine Learning et Deep Learning de l'autre
Qu'on utilise pour faire de la prédiction, de la classification ou de la reconnaissance.
Beaucoup moins utilisé parce que beaucoup rude à maîtriser, mais quand il l'est, c'est pour des enjeux stratégiques. L'entreprise qui maîtrise l'intelligence artificielle a un grand ascendant sur les autres puisqu'elle peut mieux prédire l'avenir.

Dans les deux cas, le nombre de workers travaillant simultanément (c'est à dire le nombre de PC) et le nombre de tâches que chaque PC pourra entreprendre (une tâche = 1 core) joueront énormément.
Donc je pense que plus tu mets des cores, et plus tu fais plaisir.
Les prochaines générations de proc grand public seront de type big.LITTLE, c'est à dire comme ceux de nos tél portable avec des coeurs haute performance et d'autres basse conso.
Est-ce qu'on va aller vers toujours plus de coeurs haute performance? Probablement pas dans l'immédiat, mais à terme oui c'est évident.

De toute façon actuellement les jeux sont optimisés pour plus que les 8C/16T dont nous disposons (enfin plus des 6/12 mais les 8/16 sont déjà communs).
De mémoire ça devait être 10/20 pour le jeu en lui-même + 2/4 pour l'OS la dernière fois que j'ai lu quelque chose sur le sujet.

On peut donc espérer des 12C un de ces jours, mais ça sera probablement des 8+4 au départ
Il y a vraiment un créneau pour du parallélisme CPU? Aux dernières nouvelles les GPU sont à des années lumières devant les CPU sur ce sujet, notamment du fait de leur nombre de coeur non?

Une GTX 1050 c'est 640 coeurs là où un i7-11390H c'est 4 coeurs.

Citation :
Pour l'instant, les développeurs de jeu ont du mal avec le massivement parallèle, mais ils vont bien finir par trouver des trucs (pour les IA par exemple), et je crains qu'on ne douille très fort à ce moment.
Faut voir ce que t'appelles "développeur de jeu" c'est beaucoup trop vague. Les types qui utilise des moteurs de jeu déjà tout fait, type Unity et compagnie oui effectivement ils sont pas forcément à même de faire du parallélisme. En revanche, les types qui bosse dans des grosses boîtes type Ubisoft/Blizzard, où ils peuvent se permettre de faire des moteurs maison, c'est justement les personnes les plus compétentes pour tout ce qui touche au parallélisme GPU.

Pour ma part je ne pense pas que "l'envolée du nombre de coeurs dans les processeurs "pro" (genre Epyc) va se répercuter dans les processeurs grands publics" pour la simple et bonne raison que ça n'a pas d'intérêt. À moins que Windows se mettent à vraiment exploiter le multi-coeur CPU, je ne vois aucune application qui justifierait de passer du temps de développement sur des technologies de parallélisme CPU (qui ne sont pas les mêmes que GPU), et donc in-fine aucun logiciel "grand public" n'en tirerait partie.

EDIT : Par contre oui comme au dessus je pense que "l'avenir" du CPU c'est plutôt l'amélioration du ratio performance/consommation d'énergie, et pas performance pure.

Dernière modification par OeufRoyal ; 22/06/2021 à 00h07.
C'est justement pour ça que les jeux restent assez peu multithreadés et que la fréquence est très souvent plus importante que le nombre de coeur : car il y a besoin de faire du gros calcul massivement parallèle, et c'est le job de la carte graphique. Le CPU sert à faire de petites opérations mais à les enchaîner très rapidement et en série, ce que ne sait pas faire un GPU. Est-ce que le GPU pourrait faire le boulot du CPU ? Oui, mais il serait moins performant car pas fait pour. Chacun sa spécialité.

En fait les applications très multithreadées sont souvent celles qui n'utilisent pas le GPU et où le CPU fait tout tout seul.

Dernière modification par Borh ; 22/06/2021 à 08h04.
@OeufRoyal
Je vais répondre d'après ce que je crois, pas nécessairement ce que je peux affirmer parce que je n'ai pas le temps de m'assurer de ce que j'écris.

Les cartes graphiques ont toutes les instructions pour gérer de la 3D c'est à dire des vecteurs (qui deviennent des vertex), faire des calculs mathématiques, je pense souvent matriciels, et c'est pour cela qu'elles sont utiles.
Mais il y a les données, qu'elles peuvent traiter en des opérations "simples" ou un peu complexes, proches du domaine graphique,
et les programmes qui sont du code transformé en langage machine et qui doit organiser le tout pour arriver à des résultats utiles.

Quand tu fais une manipulation de données assez importante, en fait tu envoies un programme se faire exécuter sur des cores.
Et ce programme il suit les instructions assembleur de la famille 80x86/amd typiquement, décrites ici.
Elles sont très nombreuses et certaines élaborées. Les registres du processeur, ses flags, ses mécanismes d'interruptions, de protection en niveaux lui sont parfois spécifiques.
Tu ne pourrais pas exécuter un programme sur un processeur graphique... Il n'en a pas la possibilité : c'est un processeur très simplifié, aux capacités très limitées.
Citation :
Publié par Caniveau Royal
Tu ne pourrais pas exécuter un programme sur un processeur graphique... Il n'en a pas la possibilité : c'est un processeur très simplifié, aux capacités très limitées.
Un GPU est fait pour faire du calcule (graphique ou pas). Donc tout algorithme de calcule sera executable sur GPU (physiques, mathématiques, simulations etc...).
Le CPU est beaucoup plus versatile et a donc ses intérêts à lui.

Dans tous les cas, avoir un CPU avec des masses de core quand tu as un GPU, cela n'a aucun interet. Car ce que tu veux optimiser en utilisant des cores, ce sont des calcules... Donc tu peux le porter sur GPU et ca le fera "forcement" mieux/plus vite...

En gros, faut voir le CPU plus comme un chef d'orchestre. et le GPU comme "les petites mains".
Citation :
Publié par Wax-Reggea
AMD vient de release leur FSR. C'est l'équivalent du Nvidia Resize Bar en gros ?
C'est censé être l'équivalent du DLSS plutot. enfin leur version. sauf que cela ne repose pas sur l'IA.
Citation :
Publié par Wax-Reggea
AMD vient de release leur FSR. C'est l'équivalent du Nvidia Resize Bar en gros ?
Le Resizable BAR de Nvidia est l'équivalent du Smart Access Memory de AMD (entre CPU Ryzen et GPU RDNA2).
Citation :
Publié par Caniveau Royal
Quand tu fais une manipulation de données assez importante, en fait tu envoies un programme se faire exécuter sur des cores.
Et ce programme il suit les instructions assembleur de la famille 80x86/amd typiquement, décrites ici.
Elles sont très nombreuses et certaines élaborées. Les registres du processeur, ses flags, ses mécanismes d'interruptions, de protection en niveaux lui sont parfois spécifiques.
Tu ne pourrais pas exécuter un programme sur un processeur graphique... Il n'en a pas la possibilité : c'est un processeur très simplifié, aux capacités très limitées.
Pour ce que j'en sais non justement, c'est pas un programme qui est executé sur des "cores" mais bien le programme qui est pensé, de base, pour exploiter le processeur graphique. Il me semble par ailleurs que l'une des problématiques de la programmation sur GPU est la réduction au maximum du partage de données host/device, qui est une opération coûteuse.

Typiquement pour travailler avec CUDA c'est un des points auquel il faut faire attention parce que tout est plus ou moins transparent pour le dév : ils utilisent ce système, et donc côté développeur il y a une documentation qui précise systématiquement où sont stockées les variables parce que les notions de piles/tas "classiques" ne font plus sens.

En résumé pour ce que j'en sais si, tu peux prendre n'importe quel algorithme et l'implanter sur GPU à condition que celui-ci soit "parallélisable" (ce qui n'est pas toujours l'idéal par ailleurs). Dans tous les cas, il me semble que c'est bien un processus "classique", exécuté sur CPU, qui fera appel pour certains calcul au processeur graphique.
J'attends des retours des "beta" testeurs . C'est sympa comme nouveauté. Je suis sur un proc Ryzen avec carte Nvidia RTX 2070 comme beaucoup et donc incompatible Resize bar même si l'option est présente et activable.
J'ai eu des mois de bugs avec des pilotes bios foireux car je pouvais pas revenir en arrière. Maintenant j'attends à chaque fois.
Citation :
Publié par Leydjin
J'attends des retours des "beta" testeurs .
Les tests sont plus positifs que ce que je pensais. La technologie est pratiquement à la hauteur du DLSS pour la 4k et le 1440, mais insuffisante dans les résolutions plus faibles.

Le gros soucis, c'est le peu de jeux compatibles pour l'instant. Mais entre les consoles et le support de presque toutes les cartes graphiques, ça peut changer assez vite. A noter que la technologie n'est pas figée et devrait connaître des améliorations assez rapidement.
Répondre

Connectés sur ce fil

5 connectés (2 membres et 3 invités) Afficher la liste détaillée des connectés