[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Anngelle Silverstar
lol , la il faut le faire , surtout avec les détrompeurs
36049-1732185517-4112.png

Suffit d'appuyer assez fort. Sprotch les détrompeurs. Le fait que les deux utilisateurs aient écrasé les trucs en plastique de la même manière est assez significatif.

Après, ça rappelle qu'il ne faut jamais forcer.
Citation :
Publié par Aloïsius
36049-1732185517-4112.png

Suffit d'appuyer assez fort. Sprotch les détrompeurs. Le fait que les deux utilisateurs aient écrasé les trucs en plastique de la même manière est assez significatif.

Après, ça rappelle qu'il ne faut jamais forcer.
De ce que j'ai lu, ils ne les ont pas écrasé : ils étaient mal moulé, la pièce en plastique était défectueuse, mal formée.
J'ai le proc mais pas cette cm, comme d'habitude il suffit de poser au dessus dans le bon sens et on voit le proc s'emboîter tout seul.
Vu le poids des bestiaux de nos jours, ça peut l'être.
C'est une vis à mettre, donc quelques secondes de ton temps, pour t'éviter des emmerdes qui peuvent potentiellement t'amener à la mort de ta CG et de ta CM par la même occasion.
Citation :
Publié par aziraphale
Vu le poids des bestiaux de nos jours, ça peut l'être.
C'est une vis à mettre, donc quelques secondes de ton temps, pour t'éviter des emmerdes qui peuvent potentiellement t'amener à la mort de ta CG et de ta CM par la même occasion.
Je croyais que les port PCI-Express était suffisamment solide pour supporter le poids des CG (j'avais vue que des CG Gygabite avait des soucis de fissure sur le PCB certe...).

Bon ben je l'installe, merci.
En théorie le port PCI est sensé être suffisamment costaud.
Mais le fabricant ne te fournis pas cette pièce pour rien.
Même si elle ne coute que quelques centimes il les économiserait si il était sûr de son coup

En pratique tu prend un risque à chaque fois que tu déplaces ton UC avec tous les gros GPU actuels
Ce n'est pas pour rien si les assembleurs conseillent de te livrer l'UC avec le GPU à part dès que part dans des modèles performants.
Citation :
Publié par gunchetifs
Je croyais que les port PCI-Express était suffisamment solide pour supporter le poids des CG (j'avais vue que des CG Gygabite avait des soucis de fissure sur le PCB certe...).

Bon ben je l'installe, merci.
Le problème ce n'est pas le port PCIE, c'est le PCB de la CG qui se plie à cause du poids (et de la longueur) du système de refroidissement, ce qui peut provoquer que des lignes PCIE du PCB se rompent voir carrément que le PCB se fissure (et donc que le GPU arrête de fonctionner) :

66682-1732200735-5931.jpg

C'est ce qui est arrivé sur ma AMD 6800 par exemple. Voici des exemples de comment ça se voit sur les GPU :

66682-1732200920-9669.jpg 66682-1732200980-7072.png

C'est pour cela que les constructeurs mettent désormais des supports dans toutes les boites de GPU milieu/haut de gamme (et ainsi devoir remplacer des GPU via le SAV, ils mettent la faute sur les clients si les PCB craquent désormais).
J'ai vu passer (dernière rumeur en date) que les 5090 seraient à $1900 MSRP.
Donc 2150€ si on compte la conversion et la TVA, versus les 1800€ de la 4090 si je me trompe pas, ça nous fait +20%.
Une 5080 à 1299€ ou 1399€ si on suit la logique.

On a déjà une idée du gain de perfs potentiels versus la génération actuelle ? Et de la conso d'ailleurs ?
Parce que si c'est pour prendre +20% de perf, avec +20% de conso, et les +20% de prix, ça risque d'être une génération daubée.

Plus ça va plus je me dis que je vais me choper une 4080 maintenant.
J'ai lu la même chose. Et que sur cette base la 5090 allait être stratosphérique, genre les pires délires de la 4090, mais comme tarif normal cette fois.
Ouais enfin tu veux vendre, aussi, normalement.

Ou alors ils en ont tellement plus rien à branler des g4m3rZ qui les ont propulsés à ce sommet maintenant qu'ils ont l'IA, que c'est limite une expérience psychologique au plus haut niveau pour voir en poussant de plus en plus, jusqu'à quel prix les gens sont prêts à acheter sans hésiter. Un peu comme ce gag.
Citation :
Publié par Dr. Troy
J'ai vu passer (dernière rumeur en date) que les 5090 seraient à $1900 MSRP.
Donc 2150€ si on compte la conversion et la TVA, versus les 1800€ de la 4090 si je me trompe pas, ça nous fait +20%.
Une 5080 à 1299€ ou 1399€ si on suit la logique.

On a déjà une idée du gain de perfs potentiels versus la génération actuelle ? Et de la conso d'ailleurs ?
Parce que si c'est pour prendre +20% de perf, avec +20% de conso, et les +20% de prix, ça risque d'être une génération daubée.

Plus ça va plus je me dis que je vais me choper une 4080 maintenant.
Je vais faire mon Nostradamus pour une fois. Citez moi pour vous foutre de ma gueule quand je me serai gouré.
Oui je pense à du environ +20% pour la 5080 par rapport à la 4080 Super. Même peut-être moins.
Parce que d'après les dernières rumeurs, qui j'imagine sont les plus fiables, on est à seulement +5% de shadings unit et de RT core par rapport à à la 4080 Super, c'est le même process de gravure. J'ai du mal à imaginer que l'architecture seule permette d'aller au delà des +15% de gains.

Par contre je n'exclus pas un prix raisonnable. Honnêtement, avec de telles perfs, j'aurai du mal à croire à un prix de 1400€ alors qu'on trouve des 4080 Super à 1000€ et même moins. Ok NVidia fait vraiment le max pour vider les stocks, mais quand même, ça ferait un sacré bad buzz....

Pour la 5090, elle est plus grosse, on est à +30% de transistors supplémentaires par rapport à une 4090, donc je m'attends plutôt à du +40%. D'ailleurs je pense que si elle monte de prix par rapport à la 4090, c'est aussi parce qu'elle coûte nettement plus chère à produire.

Dernière modification par Borh ; 22/11/2024 à 13h44.
Les mecs sont assis sur un tas d'or. "Plus cher à produire" devrait systématiquement être de facto rejeté comme argument pour systématiquement augmenter les tarifs, au lieu d'un retour à la normale.
Citation :
Publié par THX
Les mecs sont assis sur un tas d'or. "Plus cher à produire" devrait systématiquement être de facto rejeté comme argument pour systématiquement augmenter les tarifs, au lieu d'un retour à la normale.
Tant que les acheteurs suivent...

De toute manière, soyons clairs : le très haut de gamme (x090 voire x080) ça s'adresse aux joueurs riches, le 1%. Or, les riches aujourd'hui peuvent foutre 2000€ dans un GPU. Tous les ans. Je ne vois donc pas pourquoi Nvidia se gênerait.
36049-1732273801-8743.png
Pour les gueux dont je fais partie, le maximum envisageable se situe aux alentours de 500€. Tous les 5 ans. Un passionné pourra fournir un effort supplémentaire, disons 500€ tous les deux ans. Une X060 ti quoi.
Il y a quelques années, ça me semblait impensable de mettre plus de 500 balles dans un GPU.
J'en change tout les 5 ans. Et finalement, étant donnée que c'est une passion, j'accepte maintenant de mettre jusqu'à 1000 balles dans un GPU maintenant. Au dessus, ce serait un seuil que je ne franchirais pas, sauf à devenir riche (Et encore, si c'est pour gagné un 4% de perf, je m'en fiche).
Ce qui m'a donc "limité" à une 4070 Super Ti lors de mon dernier achat de GPU mais ça me paraît largement suffisant pour du JV en 2k.
Je fais partie de ceux qui la change tous les 2 ans. Et ce n'est pas par plaisir, je m'en passerais volontiers.

J'ai acheté la 4070 dès sa sortie (650€) et je regrette mon achat car elle est bien pour du 2k mais vraiment trop limite pour du 4k. Le souci c'est que je mets mon bureau en 4k et très peu de jeux acceptent de se lancer en 2k sans souci. Retours bureau et compagnie au programme, du coup j'ai pas trop le choix. C'est soit le jeu en 4k ou mettre mon bureau en 2k juste avant de lancer un jeu. (j'en ai que deux qui fonctionnent sans broncher, Cyberpunk 2077 et No Man's Sky)

Mais sinon le vrai problème de ce genre de CG, les séries x070, c'est de fleurter avec le 4k pendant un court moment et faut assez vite retourner sur du 2k pour éviter de ramer.

J'ai bien envie de prendre une 4080 Super, mais faut repasser à la caisse. A voir si les prochaines d'AMD ont de bonnes perfs avec le Ray Tracing.
Citation :
Publié par smonk
Je fais partie de ceux qui la change tous les 2 ans. Et ce n'est pas par plaisir, je m'en passerais volontiers.

J'ai acheté la 4070 dès sa sortie (650€) et je regrette mon achat car elle est bien pour du 2k mais vraiment trop limite pour du 4k. Le souci c'est que je mets mon bureau en 4k et très peu de jeux acceptent de se lancer en 2k sans souci. Retours bureau et compagnie au programme, du coup j'ai pas trop le choix. C'est soit le jeu en 4k ou mettre mon bureau en 2k juste avant de lancer un jeu. (j'en ai que deux qui fonctionnent sans broncher, Cyberpunk 2077 et No Man's Sky)

Mais sinon le vrai problème de ce genre de CG, les séries x070, c'est de fleurter avec le 4k pendant un court moment et faut assez vite retourner sur du 2k pour éviter de ramer.

J'ai bien envie de prendre une 4080 Super, mais faut repasser à la caisse. A voir si les prochaines d'AMD ont de bonnes perfs avec le Ray Tracing.
Le DLSS ne résout pas le problème ?
Citation :
Publié par Aloïsius
Le DLSS ne résout pas le problème ?
Ça pourrait résoudre le problème si je mets en mode Equilibré ou Performance.

Je vais tester ça.
Si j'ai bien suivi l'actualité, les algos de type DLSS avec l'IA qui calcule des images intermédiaires OU qui fait augmenter la résolution, c'est l'avenir, on y échappera pas.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés