[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Perso je serais intéressé pour qu'ils remettent à jour le Framework 13 pour utiliser le système de ports qu'ils utilisent sur le Framework 16 :

66682-1698694782-4012.png 66682-1698694794-6680.png

Ça permettrait d'éviter des problèmes qui pourrait arriver (comme tordre, voir casser, un pin du câble d'alimentation entre la batterie et carte mère, ce qui a failli m'arriver une fois).

Et perso ce qui m'intéresse le plus dans le Framework (en plus de l'évolutivité), c'est surtout la réparabilité, car je sais que si je n'ai qu'un seul truc qui déconne, je peux le remplacer au lieu de devoir remplacer tout le laptop (et là encore je souhaiterais remplacer l'écran par un de type mat, la batterie et la coque du dessus, car mon Framework 13 est celui du premier batch, donc peut-être sensible aux torsions, ce qui pourrait endommager l'écran).

Mais sinon je regrette pas mon achat depuis 2 ans, le support matériel est au poil (dans les distrib Linux au moins, je n'ai pas testé sur Windows mais il n'y a pas de raison) et la qualité général de l'ensemble est très bien (mention spéciale au clavier qui est top).

Dernière modification par Anthodev ; 30/10/2023 à 20h56.
Il va falloir ajouter Qualcomm au titre du thread d'ici peu, je pense.

Je ne sais pas trop ce que ça va donner mais tout laisse à penser que les x64 et x86 vont céder relativement vite la place aux puces ARM.

Je pense que je vais attendre encore 2 ou 3 ans avant de changer de config.
Si Win 10 et 11 tiennent leurs promesse de compatibilité et réellement faire tourner les applications natives x64 et x86.
Ceci dit, ça risque de ne concerner que les puces Qualcomm. A voir ce que nVidia et AMD nous préparent.
Est-ce que nVidia va juste intégrer les ARM dans ses GPU ou envisage-t-il de se lancer dans le segment des CPU ? Quoiqu'il en soit, peu de chance que leurs tarifs soient raisonnables.
Quand à AMD, wait and see.

Lancement fin 2024 ? On verra. En tout cas, je ne franchirai le pas qu'après au moins un an de retour clients particuliers.

Va-t-on réellement avoir des gains significatifs ?
Autant pour les PC portables, je vois une quasi-révolution, notamment concernant l'autonomie. Et ce qui en découlera. Des machines plus légères avec des batteries de plus faible capacité pouvant tenir des temps d'utilisation plus longs.

Qu'en pensez-vous, vous autres qui changez de matos en cycle de moins de 5 ans ?
Pour les autres, je pense que ça se fera naturellement, si la sauce prend et les promesses tenues.
Assez sceptique là dessus, Apple a pris une telle avance sur le ARM que chercher à basculer le parc de PC vers cette architecture servirait surtout à envoyer plein de gens chez Apple.

Pour les laptops dédiés à la bureautique il y a un intérêt oui, mais pour le reste du marché, le retard à rattraper m'a vraiment l'air énorme.
Y a pas une si grande avance que ça en fait.
Si on compare un Ryzen 7840U à un M2, en fait c'est le 7840U qui a une meilleure efficacité énergétique
https://www.notebookcheck.net/R7-784....247596.0.html

50.3 points par Watts pour le 7840U vs 42.4 points par Watts pour le M2 sous Cinebench.
Alors que 7840U a un désavantage qui ne vient pas de l'architecture x86/AMD64 : le M2 a sa RAM intégré dans le Soc qui permet une bande passante bien supérieure

En fait Apple a mis tout le monde dans le vent avec le M1, qui a effectivement laissé la concurrence sur place. Mais le M2 n'a été qu'une petite évolution et les concurrents ne se sont pas reposés sur leurs lauriers.

En fait le principal problème de ces CPU AMD hyper efficients, comme le 7840U ou le Z1, c'est qu'ils manquent de disponibilité car les meilleurs nodes TSMC passent pour Apple en priorité mais là encore, c'est pas un problème qui est lié à l'architecture x86/AMD64.

Dernière modification par Borh ; 31/10/2023 à 12h58.
Citation :
Publié par Borh
Alors que 7840U a un désavantage qui ne vient pas de l'architecture x86/AMD64 : le M2 a sa RAM intégré dans le Soc qui permet une bande passante bien supérieure
Je me demande si AMD ou Intel prendront cette direction. Avec les chiplets (et leur équivalent chez Intel) et le "3d stacking", il doit y avoir moyen de faire des trucs intéressants.

Après, faudra qu'ils trouvent des solutions pour refroidir le tout.
AMD le fait déjà pour les consoles. Le problème de cette architecture, c'est que ça limite la souplesse des configurations, faut décider combien y a de Ram dès la fabrication du Soc.
Mais oui, pour les laptops, y aurait certainement plus d'avantages que d'inconvénients.

Je crois que globalement tout le monde est content d'avoir une mémoire unifiée super efficiente et rapide dans les Mac. Mais quand pour rajouter 8Go, ça coûte 230€ alors qu'une barrette vaut 19€, ça fait pas mal grincer des dents. Alors c'est parce qu'Apple se gave, mais pas que, c'est aussi parce que c'est plus compliqué de rajouter 8Go dans le SoC, faut refaire toute la puce.
Et quand on a ensuite des Mac Pro dont la RAM est impossible à augmenter, tu paies tes 10 000 balles et ensuite t'es bloqué pour toujours, là ça fait plus grincer des dents, ça fait hurler. Et beaucoup se demandent pourquoi acheter un Mac Pro et pas un Mac Studio qui coûte 2 fois moins cher ?

Bref, y a pas de solution parfaite.

Dernière modification par Borh ; 31/10/2023 à 13h31.
Citation :
Publié par Von
Assez sceptique là dessus, Apple a pris une telle avance sur le ARM que chercher à basculer le parc de PC vers cette architecture servirait surtout à envoyer plein de gens chez Apple.

Pour les laptops dédiés à la bureautique il y a un intérêt oui, mais pour le reste du marché, le retard à rattraper m'a vraiment l'air énorme.
Etant un utilisateur de laptop dédié à la bureautique, il est hors de question pour moi de devoir m'acclimater à un nouvel OS pour gagner 1h de batterie, ce d'autant que j'ai toujours l'image Apple=pigeons qu'il va être difficile de m'enlever de l'esprit après 35 ans de machines au hardware inférieur. L'upgrade de RAM a 250 balles cité plus haut va pas aider.

L'évolution probable pour la bureautique pure sera plutôt à mon sens une machine type chromebook qui accèdera aux logiciels saas. C'est juste pénible quand le wifi SNCF saute mais je pense que le temps des licences bureautiques avec un executable local sera bientôt révolu.
Citation :
Publié par Lianai
J'ai testé le FSR3 sur Forspoken et ça fonctionne très bien, même si ce n'est pas parfait.

Config : Ryzen 3700 @4,4GHz / 32Go Ram 3200MHz / RTX 3080 / SSD SATA
Jeu en Ultra + FidelityFX pour l'occlusion ambiante et le tout en 1440p.

Résultats benchmark :
  • Sans super sampling 65 FPS de moyenne
  • Avec DLSS Qualité 88 FPS de moyenne
  • Avec FSR3 Qualité 81 FPS de moyenne
  • Avec FSR3 + Frame Generation 139 FPS de moyenne
Le résultat est sans appel et ça se ressent en jeu. Par contre, le FSR3 est rongé par les mêmes défauts que les précédentes versions à savoir le scintillement présent sur les éléments fins comme les barrières, les échelles, les escaliers, les brins d'herbe, les branches d'arbres, mais aussi sur des textures éloignées, qui en plus sont moins propres qu'avec le DLSS. Le Frame Generation fait le job, c'est indéniable, mais il ajoute trois choses assez gênantes : beaucoup de ghosting lorsque les mouvements sont rapides (problématique sur un tel jeu), un très léger stuttering (à tester avec la vsync), la CG tourne à 100% et chauffe plus.

Dans ma situation, le DLSS garde sans conteste l'avantage pour la propreté du rendu bien supérieure et un framerate largement suffisant. Le ghosting était aussi présent sur Spider-Man avec le FG du DLSS3, mais je le trouve plus violent sur Forspoken avec celui du FSR3. C'est possiblement dû à un défaut de jeunesse et j'espère que cela s'arrangera au fil des mises à jour, mais pour le moment, ce n'est pas encore ça sur un jeu avec des phases aussi dynamiques. Cela pourrait être beaucoup plus exploitable sur un jeu comme Starfield et pour le coup, je pense que je l'utiliserais vu que ma config a du mal à tenir les 60 FPS, surtout en ville où ça tombe dans les 40.

Bref, un gros potentiel de game changer pour tous ceux qui n'ont pas une RTX 4000, mais qui a encore besoin de polish. Pour ma part, j'ai hâte de voir ce que cela donnera sur Cyberpunk avec le RT Overdrive (tant pis pour le RT reconstruction par contre).
Pour ma part sur Cyberpunk j'active le DLAA (en finesse au max) au lieu du DLSS (en qualité) et c'est le jour et la nuit, le DLSS donne un gain énorme en FPS mais rend le jeu flou, alors qu'avec le DLAA ça bouffe du FPS mais le jeu est superbe.
Et pour le RT, je le désactive, car lors du mode photo, l'éclairage au niveau des yeux est dégueulasse, mon perso se retrouve avec des yeux noirs.

Regardez moi ces screens dégueulasses en mode photo, c'est flou à cause du DLSS (en "qualité") et les yeux sont noirs à cause du RT (même ma 1060 6GO faisait bien mieux) :

photomode_30102023_201019.png

photomode_30102023_205719.png

Ma config : i7 8700 avec ventirad Be Quiet! Dark Rock Pro 4/ 4x8Go Ram 3000MHz / RTX 4060Ti 8Go / jeu installé sur un SSD M2
Désormais je joue comme ça :
jeu en 1080p
Vsync 60 FPS (dans de rares endroits surpeuplés ça peut chuter à 50/55 FPS), lors du test proposé par le jeu j'ai du 95 FPS.
options au full max (sauf les reflets en "élevé")
pas de RT
DLAA (finesse au max)
(pourquoi les reflets réglés en "élevé" ? Car le i7 8700 est entre 50%/80% d'utilisation et silencieux, car en reflets "ultra" le proc est entre 70%/85% d'utilisation mais fait que le ventirad s'excite trop à mon goût mais sans perte de FPS, et en reflets "psycho" proc entre 80%/100% et un bruit de machine à laver et une perte de FPS).

Et j'ai désactivé les options qui rendent le jeu moche ("grain" jusqu'à "flou" en laissant juste le "facteur de flare") :

Capture d’écran (432).png


Et ça donne ça avec DLAA (finesse réglé sur 1, qui est le max) sans RT (les autres options restent inchangées face aux screens précédents) :

photomode_30102023_212345.png

photomode_30102023_231525.png

Donc franchement le DLSS je trouve ça moisi, même réglé sur "qualité"...
...à moins que le but soit de jouer à un FPS multijoueurs sans Vsync à 150 FPS pour avoir un jeu dégueulasse mais hyper fluide et réactif.
Mais pour Cyberpunk, hors de question d'avoir troqué ma 1060 6Go pour une 4060Ti 8Go pour avoir un jeu plus moche... pour juste jouer en Vsync 60 FPS au lieu de Vsync 30 FPS.

Je ne comprend pas pourquoi le DLSS fait tant parler de lui depuis 3 ans alors que ça rend les jeux flous.
Bref à mon sens DLAA > DLSS.

Et le RT, je ne suis pas convaincu du tout, ça me semble être un prototype qui est loin d'être au point dans toutes les circonstances, du moins pas en mode photo dans Cyberpunk.

Par contre J'ai testé DLAA + RT, in-game je tombe à 15/20fps en 1080p, j'imagine donc que ce choix est réservé aux RTX 4070 voire +.
Citation :
Publié par Highglandeur
Bonjour, vous pensez quoi de ce kit upgrade ?
https://www.topachat.com/pages/detai...n20020684.html

Sachant qu'actuellement, je tourne avec avec un 6600k (4.1 Ghz en mode turbo), 16Go de DDR4.

J'ai déjà fait l upgrade de la CG, 1070 a 7900 XT. J attendais un peu pour l upgrade CPU/CM/RAM
Que c'est trop cher.

Je viens de refaire la même composition sur Caseking. Sans aucune promo, t'en as pour 696€...
ah, je vais aller voir du coup ^^

mais hormis le prix, ça reste un bon choix d upgrade ? sachant que je prendrais un watercooling en plus pour le proc


EDIT: Ah ouais, 717,19€ avec les frais de port (bon, le watercooling, je le prendrais ailleurs car moins cher ^^)
je connaissais pas ce site, bon a savoir du coup

Dernière modification par Highglandeur ; 24/11/2023 à 19h25.
C'est un excellent choix d'upgrade oui, c'est exactement ce que j'ai (avec une 7900 XT aussi), ça fonctionne extrêmement bien.

Là actuellement ton CPU doit bottleneck à mort et brider ta cg.
Citation :
Publié par Von
C'est un excellent choix d'upgrade oui, c'est exactement ce que j'ai (avec une 7900 XT aussi), ça fonctionne extrêmement bien.

Là actuellement ton CPU doit bottleneck à mort et brider ta cg.
ah mais complet, je peux même pas lancer starfield tellement le proc est en PLS lol, le PC se "fige" et je doit reboot via la tour :s
101598-1700949036-7231.png

Depuis :

On dirait que les bleus sont enfin décidés à sérieusement attaquer le marché des GPU.
Après un iGPU au-dessus de 780M d'AMD, ils essaient de s'attaquer aux 4070/4080.

J'y crois pas des masses, mais si le pricing se vérifie et qu'on est au niveau qu'une 4070, ça pourrait me tenter.

J'ai connu le passage des TV en RGB, les set ups RGB, les horribles led RGB par défaut ...
Maintenant les GPU RGB ... A quand les CPU RGB ?

On dirait presque les "Sannin" technologique avec Jensen "Jiraya" Huang, Lisa "Tsunade" Su et Pat "Orochimaru" Gelsinger.
Citation :
Publié par Peredur
Et les perfs et les prix ne me paraissent pas bien crédibles.
De mon point de vue, si les prix sont bons, les perfs risquent d'être loin des prévisions.
Si les perfs sont là, c'est pas le genre des bleus d'être aussi bas dans les prix. Même pour conquérir des parts, il y a peu de chances qu'ils se positionnent en-dessous de 70-80% du prix des concurrent. Et encore, s'ils sont sûr d'eux, ils devraient être assez cons pour afficher un MSRP similaire.
Citation :
Publié par Von
C'est un excellent choix d'upgrade oui, c'est exactement ce que j'ai (avec une 7900 XT aussi), ça fonctionne extrêmement bien.

Là actuellement ton CPU doit bottleneck à mort et brider ta cg.
J'ai lu pas mal d'analyses ces derniers jours qui disent que la série des X3D sont les meilleurs processeurs pour tout ce qui est jeu de gestion type jeux Paradox / Grand Strategy en général / Factorio-like etc (jeux qui demandent beaucoup de calculs si j'ai bien compris). Est-ce que ce sont aussi de bons processeurs pour du gaming "lambda" AAA ?

Je joue à 90% au premier type de jeu, mais je suis curieux des résultats sur le 2ème type, pour me garder cette possibilité aussi. Merci d'avance pour vos conseils.
Citation :
Publié par Ingor
J'ai lu pas mal d'analyses ces derniers jours qui disent que la série des X3D sont les meilleurs processeurs pour tout ce qui est jeu de gestion type jeux Paradox / Grand Strategy en général / Factorio-like etc (jeux qui demandent beaucoup de calculs si j'ai bien compris). Est-ce que ce sont aussi de bons processeurs pour du gaming "lambda" AAA ?

Je joue à 90% au premier type de jeu, mais je suis curieux des résultats sur le 2ème type, pour me garder cette possibilité aussi. Merci d'avance pour vos conseils.
De mémoire des tests que j'avais lu, c'est systématiquement supérieur à la gamme standard, dans des proportions souvent assez importantes, et ce pour tous types de jeux.

Le seul domaine où c'est équivalent voire inférieur, c'est l'applicatif (qui dépend plus de la fréquence du CPU et moins de l'utilisation du cache, la fréquence des X3D étant légèrement inférieure à leur équivalent X).

Personnellement je joue assez rarement à des jeux de gestion, là où j'ai principalement vu la différence quand j'ai upgrade le CPU en remplaçant mon vieux i5-8600 (et avec une RX6800 à l'époque), c'est sur les jeux AAA, et en particulier sur le 1% et 0.1% lower. En gros, j'ai gagné pas mal en moyenne de fps, mais j'ai surtout quasiment éliminé les chutes ponctuelles de fps, qui sont vraiment le truc le plus relou. Donc à l'usage c'est vraiment très nettement plus confortable, quel que soit le jeu.
Citation :
Publié par Ryu Seiken
De mon point de vue, si les prix sont bons, les perfs risquent d'être loin des prévisions.
Si les perfs sont là, c'est pas le genre des bleus d'être aussi bas dans les prix. Même pour conquérir des parts, il y a peu de chances qu'ils se positionnent en-dessous de 70-80% du prix des concurrent. Et encore, s'ils sont sûr d'eux, ils devraient être assez cons pour afficher un MSRP similaire.
La A770, c'est 32 cores Xe.
La B980, c'est 64 cores Xe.

En passant de Alchemist à Battlemage, ils font à la fois +100% du nombre de cores, +25% de perf par core et -33% de conso par core (je simplifie car il n'y a pas que les cores qui jouent dans les perf et la conso, mais ça donne une idée).
Ca me parait un peu gros.

Puis le tout pour seulement +30% du prix de la carte (soit -25% par core).
Mais bon, le prix...


Un autre point qui me dérange, c'est que les roadmaps parlait d'un refresh de Alchemist avant l'arrivée de Battlemage.
Du coup, ca me parait un peu tôt pour avoir des leaks de Battlemage.
Citation :
Publié par Ryu Seiken
De mon point de vue, si les prix sont bons, les perfs risquent d'être loin des prévisions.
Si les perfs sont là, c'est pas le genre des bleus d'être aussi bas dans les prix. Même pour conquérir des parts, il y a peu de chances qu'ils se positionnent en-dessous de 70-80% du prix des concurrent. Et encore, s'ils sont sûr d'eux, ils devraient être assez cons pour afficher un MSRP similaire.
En effet Intel n'est pas du genre à brader. Ceci dit, pour rattraper 10 ans de retard au niveau drivers/softwares, ils n'ont pas le choix de tenter de propager leurs cartes sur le marché et c'est via le prix qu'ils pourront faire passer la pilule d'être "early adopter".

Je viens de m'acheter une Arc 770 à moins de 400$Ca. Pour une carte de 16gig compatible AV1 (je joue en VR via Quest et Virtual Desktop) c'est surprenant comme prix. À voir ce qu'elle donnera. Je devrais la recevoir cette semaine.



Ça fait le tour des youtubers tech. J'ai vu la même moquerie sur UFDTech.

La firme aux refresh infinis accuse son rival de faire du refresh, tout en lançant Gen 14 en clamant que Raptor Lake de 2022, c'est la dernière tech de 2023.

Ils commencent à être désespéré les bleus.
Du coup, je commence à avoir de sérieux doutes sur leur prochain GPU. Ou si même ils vont pas laisser tomber comme avant.
Citation :
Publié par Ryu Seiken



Ça fait le tour des youtubers tech. J'ai vu la même moquerie sur UFDTech.

La firme aux refresh infinis accuse son rival de faire du refresh, tout en lançant Gen 14 en clamant que Raptor Lake de 2022, c'est la dernière tech de 2023.

Ils commencent à être désespéré les bleus.
Du coup, je commence à avoir de sérieux doutes sur leur prochain GPU. Ou si même ils vont pas laisser tomber comme avant.
Déja que la Gen 14 et pas terrible comparer a la progression énorme de la 13 ème...
Répondre

Connectés sur ce fil

8 connectés (3 membres et 5 invités) Afficher la liste détaillée des connectés