[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Et c'est probablement 8c/8t big + 8c little, pas un 16c/32t

Sur le desktop ça peut être intéressant avec un scheduler qui le gère correctement, à voir avec la généralisation des mécanismes de virtualisation (sandboxing par exemple, mais pas que).
J'ai du mal à voir l'intérêt sur desktop. Un CPU c'est pas un moteur qu'a une plage de rendement optimal quoi, on peut très bien faire descendre un gros proc à une fréquence très basse et donc limiter la conso. Pas aussi efficacement qu'avec un petit processeur qui aurait un die plus petit, mais assez pour avoir une conso relativement basse.

Après y'a p'tetre d'autres avantages que j'ignore mais jusque là, j'ai toujours vu de tels architectures pour limiter la conso, c'est ce qu'on retrouve sur pleins de portables.

@Eyce_Karmina : Okay, le but sécuritaire serait de laisser le moins de "place" possible à des trucs non désirés?

Dernière modification par Metalovichinkov ; 06/10/2020 à 19h31.
Ça a des intérêts en terme de sécurité, quand tu fais tourner la couche basse de ton OS (hardené) sur les coeurs little et le user mode (sandboxé) sur les coeurs BIG par exemple.

Je suis d'accord qu'en 2021 et sur Windows, l'intérêt sur le desktop est assez obscur, mais à plus long terme, avec une base déjà installée sur les laptops pour des raisons d'autonomie et des éditeurs qui suivent Microsoft (la sécurité des laptop pro, c'est un beau marché), pourquoi pas.
Sur du desktop Linux (ça fait déjà pas grand monde) je connais des gens que ça intéresserait pour des trucs tordus (mais pro), mais je ne vois pas Intel lancer des CPU pour une centaine de personnes

Citation :
Publié par Metalovichinkov
@Eyce_Karmina : Okay, le but sécuritaire serait de laisser le moins de "place" possible à des trucs non désirés?
De nombreuses attaquent fonctionnent parce que les coeurs sur lesquels tournent les processus utilisateurs ont accès aux registres des autres processus, y compris les plus bas niveau.
En faisant tourner ces derniers sur les little cores, ils sont bien mieux isolés, au niveau physique (faut voir l'implémentation pour ça).
Ca revient grosso modo à une machine dual socket sur laquelle tu dédies un CPU complet à un hyperviseur et le 2ème à une VM, mais en évitant de payer une CM dual socket et un CPU plein pot alors que tu n'as pas forcément besoin de grosses perfs pour traiter principalement des I/O qui multithread pas mal.

Dernière modification par Eyce Karmina ; 06/10/2020 à 20h02. Motif: Auto-fusion
Citation :
Publié par Eyce Karmina
Ça a des intérêts en terme de sécurité, quand tu fais tourner la couche basse de ton OS (hardené) sur les coeurs little et le user mode (sandboxé) sur les coeurs BIG par exemple.

Je suis d'accord qu'en 2021 et sur Windows, l'intérêt sur le desktop est assez obscur, mais à plus long terme, avec une base déjà installée sur les laptops pour des raisons d'autonomie et des éditeurs qui suivent Microsoft (la sécurité des laptop pro, c'est un beau marché), pourquoi pas.
Sur du desktop Linux (ça fait déjà pas grand monde) je connais des gens que ça intéresserait pour des trucs tordus (mais pro), mais je ne vois pas Intel lancer des CPU pour une centaine de personnes


De nombreuses attaquent fonctionnent parce que les coeurs sur lesquels tournent les processus utilisateurs ont accès aux registres des autres processus, y compris les plus bas niveau.
En faisant tourner ces derniers sur les little cores, ils sont bien mieux isolés, au niveau physique (faut voir l'implémentation pour ça).
Ca revient grosso modo à une machine dual socket sur laquelle tu dédies un CPU complet à un hyperviseur et le 2ème à une VM, mais en évitant de payer une CM dual socket et un CPU plein pot alors que tu n'as pas forcément besoin de grosses perfs pour traiter principalement des I/O qui multithread pas mal.
Tu sais à quoi ça me fait penser ?
Aux cerveaux positroniques de Susan Calvin avec le rappel des Trois Lois à chaque stade de la fabrication, pour renforcer l'impératif et éviter un effacement malveillant ou accidentel.
Peu à peu, la réalité rattrape la fiction.
Autant je vois aussi mal l'intérêt pour desktop, autant j'y vois un possible développement de la vision d'Asimov.
Citation :
Publié par Eyce Karmina
De nombreuses attaquent fonctionnent parce que les coeurs sur lesquels tournent les processus utilisateurs ont accès aux registres des autres processus, y compris les plus bas niveau.
En faisant tourner ces derniers sur les little cores, ils sont bien mieux isolés, au niveau physique (faut voir l'implémentation pour ça).
Ca revient grosso modo à une machine dual socket sur laquelle tu dédies un CPU complet à un hyperviseur et le 2ème à une VM, mais en évitant de payer une CM dual socket et un CPU plein pot alors que tu n'as pas forcément besoin de grosses perfs pour traiter principalement des I/O qui multithread pas mal.
Mais les CPU actuels ne fonctionnent pas déjà comme ça ?
J'ai pas revérifié mais il me semble que les Ryzen sont bien séparés en deux.

Bon, c'est p'tetre pas idéal vu la perte de perf que ça engendre mais ça serait le même genre d'architecture c'est ça ?

@gorius : les processeurs basés sur les ARM (Qualcomm, Exynos, etc...) c'est encore autre chose que les Ryzen.

Dernière modification par Metalovichinkov ; 06/10/2020 à 22h25.
Citation :
Publié par Metalovichinkov
Mais les CPU actuels ne fonctionnent pas déjà comme ça ?
J'ai pas revérifié mais il me semble que les Ryzen sont bien séparés en deux.

Bon, c'est p'tetre pas idéal vu la perte de perf que ça engendre mais ça serait le même genre d'architecture c'est ça ?
Un peu, mais quand dans un CPU classique, tous les modules sont identiques, ce n'est pas le cas sur du big.little
Par exemple le jeu d'instructions n'est pas forcément le même entre les deux (ça a posé des problèmes sur certains tels android)

Et évidemment c'est pas le même coût en terme de transistor. Dans un 8c16t + 8c, les 8c vont ptet représenter 5% du total.
Citation :
Publié par Eyce Karmina
Un peu, mais quand dans un CPU classique, tous les modules sont identiques, ce n'est pas le cas sur du big.little
Par exemple le jeu d'instructions n'est pas forcément le même entre les deux (ça a posé des problèmes sur certains tels android)

Et évidemment c'est pas le même coût en terme de transistor. Dans un 8c16t + 8c, les 8c vont ptet représenter 5% du total.
sa risque pas de créer une sorte de latence entre les cores ou alors il règle le problème avec le cache de 30 mb je reste perplexe
Bon, je viens de recevoir la 3080 et j'ai pu ouvrir le carton sans l'abîmer, donc je vais sûrement faire quelques tests avec sur :

3DMark
Horizon Zero Dawn
Death Stranding
Control
AC Odyssey
Shadow of Tomb Raider
Borderlands 3
Final Fantasy XV
Red Dead Redemption 2

Si vous avez d'autres idées de jeux et que je les possède, je veux bien tester pour vous.

Je précise tout de suite que ce sera du 1440p et comparé à une 1080 Ti.

Sinon je peux déjà confirmer qu'il y a bien une grappe de MLCC et que c'est une belle bête.

Dernière modification par Lianai ; 07/10/2020 à 12h24.
Citation :
Publié par Lianai
Promis je ferai le test sur un écran CRT en SVGA 800x600 256 couleurs rien que pour toi !
Il a fait une erreur de typo ! Il voulait écrire "T'es triste ?".
Question bête mais pour profiter du streaming de PC de la Nvidia Shield il faut obligatoirement une CG Nvidia ?
Je veux me prendre une 3080 mais ça me gonfle leur gestion désastreuse des stocks. Je refais mon PC en Janvier, d'ici là je suis même pas sûr qu'ils y ait des CG supplémentaires en circulation...
Bon, j'ai commencé à faire quelques tests et bien entendu, au moment d'installer les drivers pour la 3080, je m'aperçois que Nvidia a eu la super idée de sortir une nouvelle version. Du coup, j'ai des tests sur deux drivers différents et ça, c'est nul.

Enfin bon, je ne vais pas remettre la 1080 Ti juste pour ça, donc ce que je peux dire :

CPU : Ryzen 3700X overclocké 4,2GHz / 1,21v
Carte mère : MSI B550M Mortar Wifi
GPU 1 : MSI 1080 Ti Armor OC sous watercooling (Core 2012MHz constant / VRAM 5805MHz)
GPU 2 : MSI 3080 Ventus 3X OC
RAM : 32Go 3200MHz 14 14 14 34

Tous les jeux sont sur des SSD, les options graphiques sont toujours en Ultra ou équivalent et la résolution est fixée à 1440p.


Nom du jeu 1080 Ti 3080 Gain
AC Odyssey 60 80 33%
Borderlands 3 62,36 95,37 53%
Control 56 108 93%
Horizon Zero Dawn 72 105 46%
Shadow of The Tomb Raider 86 126 46.5%
Read Dead Redemption 2 50 87 74%


3DMark 1080 Ti 3080 Gain
Time Spy 10 220 15880 55%
Port Royal / 11111 /

@Crowzer ne compare pas les score face à ceux de ta 2080 Ti pour Time Spy. A moins que tu possèdes le même CPU que moi, ça ne va pas t'aider. Le graphic score de la 3080 sur Time Spy est 18700.

Comme vous pouvez le constater, le gain n'est pas régulier et surtout, on voit une différence énorme entre certains jeux. Pourquoi ? Tout simplement parce qu'à cette résolution, le 3700X montre déjà ses limites sur certains jeux avec des coeurs entre 80 et 100% d'utilisation. Certains résultats peuvent paraître faibles, mêmes avec la 1080 Ti, mais contrairement à une table de bench qui part sur une base propre, tout un tas de processus tournent en parallèle sur mon PC, ce qui joue forcément, surtout sur le CPU.

Par contre, il ne faut pas négliger que ma 1080 Ti est overclockée et sous watercooling, ce qui signifie que son boost ne diminue jamais, puisqu'il n'est plus influencé par la température. Face à une 1080 Ti normale, la différence serait bien plus marquée.

Sinon, la puissance max relevée par HWiNFO64 pour la 3080 est 319.874W, donc autant dire pile poil 320W.

Dernière modification par Lianai ; 07/10/2020 à 20h04.
J'allais te demande le graphic score (tu l'as déjà mit donc c'est bon) dans mon précédent message et puis je me suis souvenu que t'avais un 3700X; Et comme j'ai un 3800X c'est quasiment similaire.
De plus je serais curieux de savoir combien tu fait en physic score avec ton CPU car j'ai l'impression que le miens joue au yoyo.


Je vais te donner du travail histoire de tester le RTX de ta 3080 (enfin, je dis ça comme ça ! )

Le jeux chinois sont à l’honneur, voici 2 benchmarks tout récent :

1) https://store.steampowered.com/app/1...ing_Benchmark/
2) https://www.surgicalscalpels.com/rtbenchmark.html

Les 2 sont vraiment RTX heavy et embarquent la version 2.1 du DLSS.

Dernière modification par Crowzer ; 07/10/2020 à 20h16.
Citation :
Publié par Lianai
Bon, je viens de recevoir la 3080 et j'ai pu ouvrir le carton sans l'abîmer, donc je vais sûrement faire quelques tests avec sur :

3DMark
Horizon Zero Dawn
Death Stranding
Control
AC Odyssey
Shadow of Tomb Raider
Borderlands 3
Final Fantasy XV
Red Dead Redemption 2

Si vous avez d'autres idées de jeux et que je les possède, je veux bien tester pour vous.

Je précise tout de suite que ce sera du 1440p et comparé à une 1080 Ti.

Sinon je peux déjà confirmer qu'il y a bien une grappe de MLCC et que c'est une belle bête.
gg
Perso, la mienne c'est pas avant la fin du mois.

Sinon comme benchmarks assez complets, y a Forza Horizon 4 et Gears 5.

Et puis Unigine Valley qui a juste le mérite d'être gratos.

Citation :
Publié par Lianai
Bon, j'ai commencé à faire quelques tests et bien entendu, au moment d'installer les drivers pour la 3080, je m'aperçois que Nvidia a eu la super idée de sortir une nouvelle version. Du coup, j'ai des tests sur deux drivers différents et ça, c'est nul.

Enfin bon, je ne vais pas remettre la 1080 Ti juste pour ça, donc ce que je peux dire :

CPU : Ryzen 3700X overclocké 4,2GHz / 1,21v
Carte mère : MSI B550M Mortar Wifi
GPU 1 : MSI 1080 Ti Armor OC sous watercooling (Core 2012MHz constant / VRAM 5805MHz)
GPU 2 : MSI 3080 Ventus 3X OC
RAM : 32Go 3200MHz 14 14 14 34

Tous les jeux sont sur des SSD, les options graphiques sont toujours en Ultra ou équivalent et la résolution est fixée à 1440p.


Nom du jeu 1080 Ti 3080 Gain
AC Odyssey 60 80 33%
Borderlands 3 62,36 95,37 53%
Control 56 108 93%
Horizon Zero Dawn 72 105 46%
Shadow of The Tomb Raider 86 126 46.5%
Read Dead Redemption 2 50 87 74%


3DMark 1080 Ti 3080 Gain
Time Spy 10 220 15880 55%
Port Royal / 11111 /

@Crowzer ne compare pas les score face à ceux de ta 2080 Ti pour Time Spy. A moins que tu possèdes le même CPU que moi, ça ne va pas t'aider. Le graphic score de la 3080 sur Time Spy est 18700.

Comme vous pouvez le constater, le gain n'est pas régulier et surtout, on voit une différence énorme entre certains jeux. Pourquoi ? Tout simplement parce qu'à cette résolution, le 3700X montre déjà ses limites sur certains jeux avec des coeurs entre 80 et 100% d'utilisation. Certains résultats peuvent paraître faibles, mêmes avec la 1080 Ti, mais contrairement à une table de bench qui part sur une base propre, tout un tas de processus tournent en parallèle sur mon PC, ce qui joue forcément, surtout sur le CPU.

Par contre, il ne faut pas négliger que ma 1080 Ti est overclockée et sous watercooling, ce qui signifie que son boost ne diminue jamais, puisqu'il n'est plus influencé par la température. Face à une 1080 Ti normale, la différence serait bien plus marquée.

Sinon, la puissance max relevée par HWiNFO64 pour la 3080 est 319.874W, donc autant dire pile poil 320W.
Bah je m'attendais à mieux. Les gains ressemblent plus à ce qu'on voit dans les tests par rapport à une 2080Ti.
Je vais pas comparer avec les jeux car ça varie en fonction des paramètres, mais perso sur Time Spy, je suis 10151 avec ma 1080Ti qui a un petit OC d'usine et qui est sous air cooling.

Dernière modification par Borh ; 07/10/2020 à 20h06. Motif: Auto-fusion
Citation :
Publié par Borh
Je vais pas comparer avec les jeux car ça varie en fonction des paramètres, mais perso sur Time Spy, je suis 10151 avec ma 1080Ti qui a un petit OC d'usine et qui est sous air cooling.
Après, mon PC fait tourner un max d'applications au second plan, donc ça ne doit pas aider. Mais tu as un meilleur CPU que moi, non ?


@Crowzer oui, la différence est faible avec ta 2080 Ti. Après, chaque PC est différent, donc faut pas forcément s'y fier. Je vais tester sans l'OC pour voir.
Tiens je viens de lire une info de fin du mois dernier qu'AMD maintiendrait les CPU 3XXX en parallèle des 5XXX.
Du coup, faut-il s'attendre à un repositionnement tarifaires des gens ? Baisse sensible de Zen 2 et Zen 3 à peine en-dessous de leurs équivalents Intel ?
Ah et sinon, comme les 5800X sont pas loin des 3900X, je vais ptêt pas viser un 5900X.
Citation :
Publié par Lianai
Après, mon PC fait tourner un max d'applications au second plan, donc ça ne doit pas aider. Mais tu as un meilleur CPU que moi, non ?


@Crowzer oui, la différence est faible avec ta 2080 Ti. Après, chaque PC est différent, donc faut pas forcément s'y fier. Je vais tester sans l'OC pour voir.
Oui c'est pour ça que si t'as le temps et l'envie, tu devrais tester les 2 benchmarks que j'ai mentionné plus haut. Je pense qu'on verra une réelle différence.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés