[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par aziraphale
Au fait le NDA sur la 2070 est tombé hier.
Premier test sur la FE donne des perfs un peu supérieures à celle de la 1080 en QHD et 4K, mais bon à 639€ sur le site de Nvidia ...
https://www.tomshardware.fr/articles...or,2-2857.html

Nvidia pousse pour qu'on trouve les modèles custom entrée de gamme à 510€, sauf que comme pour les Vega la disponibilité est actuellement purement théorique et par conséquent les prix vont très probablement exploser.
Nvidia pousse rien du tout. La FE est souvent la carte de référence. Si les constructeurs proposent un modèle plus performant, ils vont pas la vendre moins cher... Nvidia a bon dos de dire que c'est la faute des autres.

En tous cas, j'ai bien fait de me prendre une Nitro vega 64 à 499 euros. J'avais un avoir de 250 euros et j'ai 3 jeux que je peux éventuellement utiliser / revendre (AC, stange brigade, Star Control).
Citation :
Publié par Rishnu / Bouffye
La FE est souvent la carte de référence.
Souvent ?
C'est la seconde génération avec des FE.

Les FE sont des cartes customs, avec OC et tout le tintouin.
Ce ne sont pas les cartes standards, avec fréquences de base et refroidissement de base.
Il y a une raison si les FE ne sont pas au MSRP.
Citation :
Publié par Peredur
Souvent ?
C'est la seconde génération avec des FE.

Les FE sont des cartes customs, avec OC et tout le tintouin.
Ce ne sont pas les cartes standards, avec fréquences de base et refroidissement de base.
Il y a une raison si les FE ne sont pas au MSRP.
2ffe471e04ba2bdce15b891edda74e34_XL.jpg
ça fait plus de générations que ça... Ils ont juste changé de nom... Et elles sont pas forcément OC. La 1070 et 1080 et 1080ti étaient pas OC.
>>>
https://www.tomshardware.com/reviews...ndup,5245.html
On voit bien que la FE est à 1480 MHz de base clock, soit la fréquence la plus basse de toutes les cartes.


Sinon, 90% des cartes ont un OC d'usine, donc bon.

Quand tu regardes les tests, les FE c'est les cartes qui souvent performent le moins bien, en plus de chauffer bien plus avec leurs ventilos non adaptés. Ils ont fait un effort avec le nouveau ventilo, mais c'est toujours pas super.

Donc oui c'est la référence pour les performances basiques et pour le prix...

Dernière modification par Rishnu / Bouffye ; 17/10/2018 à 13h45.
Il ne faut pas oublier que maintenant Nvidia vend ses puces en 2 lots : celles qui tiennent un bon OC et celle qui en sont incapables.
Normalement les custom entrée de gamme sont celle qui utilisent des puces qui tiennent mal l'OC, ça parait logique qu'elles soient moins chère que les "vraies" custom qui pourront elles monter plus haut que la FE.

Mais c'est sûr que tenter d'imposer un prix c'est complètement con.
Surtout quand tu n'es pas foutu de fournir des puces à tes partenaires et qu'il y a donc pénurie.
De toute façon 500€ pour une xx70 c'est beaucoup trop cher, alors les 639€ de la FE sur le site de Nvidia j'en parle même pas.
Toujours leur problème de stock de 10xx qui leur reste sur les bras on dirait.



Edit : la 2070 FE est bel et bien OC. (voir la page 13 du test que j'ai link juste avant)
Pas autant qu'une carte custom vu le dissipateur utilisé, mais on plus du tout aux fréquences stock.
Contrairement aux "custom entrée de gamme" qui vont avoir du mal à monter en fréquence même avec un dissipateur adapté.
Citation :
Publié par aziraphale
Edit : la 2070 FE est bel et bien OC. (voir la page 13 du test que j'ai link juste avant)
Pas autant qu'une carte custom vu le dissipateur utilisé, mais on plus du tout aux fréquences stock.
Contrairement aux "custom entrée de gamme" qui vont avoir du mal à monter en fréquence même avec un dissipateur adapté.
Je le sais bien, j'ai lu les tests. C'est pareil pour la 2080 et 2080ti. Mais ce n'était pas le cas avant. Dans tous les cas, c'est à la FE qu'on compare toutes les cartes, et que la plupart des testeurs vont utiliser dans les benchmarks.
Mais ça justifie pas 130 euros vs le msrp ! Surtout vu que leur système de ventilation est visiblement pas au top. La MSI armor 2070 sera à 600 euros mini selon MSI, et c'est leur carte "budget".
Et visiblement, tu peux quand même l'OC pour gagner pas mal de perf.

index.png

Dernière modification par Rishnu / Bouffye ; 17/10/2018 à 14h11.
Pas sur qu'on pourra l'OC.
La carte qu'ils ont reçu et pu OC était équipé d'une puce de qualité supérieure mais en principe ça ne devrait pas être le cas.
Vu qu'ils disent qu'ils on reçu la carte la veille de la levée du NDA, ça sent la carte (enfin le lot) assemblée juste pour l'envoyer aux testeurs, et ils ont tapé dans le seul stock de puces dispo.
Enfin ça c'est dans le meilleur des cas, dans le pire ils ont fait exprès de mettre une puce de bonne qualité pour les tests en sachant parfaitement que pour la prod ça ne sera pas le cas.

Sinon je suis tout à fait d'accord, je l'ai déjà dis, les prix sont complètement fumés pour cette gén.

Je compte enfin changer ma machine cette fin d'année, et j'espère qu'AMD ne va pas tarder à lancer son refresh des RX 5xx, ou que les Vega vont enfin être dispo à un prix potable.

Dernière modification par aziraphale ; 17/10/2018 à 15h16.
En regardant sur les sites de e-commerce on voit bien l'écart assez important avec les cartes capable d’être OC, contrairement au génération précédente le trou est assez conséquent.

Par exemple : https://www.ldlc.com/informatique/pi...121-16760.html

On voit la Inno3D version OC et la MSI Armor version OC bien plus cher (entre 70€ et 80€ avec les versions non OC ça fait beaucoup), alors qu'avant ces versions n'existaient pas, ça augmente encore le nombre de modèle.

Et on retourne au prix de la Founder Edition dès que ce sont des puces capable d’être OC (pas toute mais la plupart), à 600€ et plus.

Dernière modification par Banish3d ; 17/10/2018 à 15h30.
Citation :
Publié par Zygomatique
Sans oublier que la 2070 a une fonction de moins que la 770/970/1070: pas de pont SLI.
Le SLI, c'est mort depuis des années. Entre les jeux qui ne reconnaissent qu'une carte, et les sutters que ça introduit sur d'autres, c'est de l'argent jeté par les fenêtres.
Oui, mais ca n'empeche que c'est plus dispo, pour forcer à l'achat de la gamme supérieure au lieu de 2 xx70. Ce qui , pour être honnête, sera surtout important dans 3 ans quand un SLI de 2070 aurait pu permettre de bonnes perfs face aux 2180 pour moins cher.
Y'a pas de raison que ca soit différent de ce qu'il se passe depuis que j'achète des CGs. Nvidia retire petit à petit le SLI de ses modèles d'entrée de gamme et avait commencé par la 1060.
un SLI de 770 permet aujourd'hui encore de jouer à peu près à tout dès que c'est supporté. Si tu crois que dans 3 ans les cartes auront quintuplé de puissance je pense que tu te fourres le doigt.
Citation :
Publié par Zygomatique
Y'a pas de raison que ca soit différent de ce qu'il se passe depuis que j'achète des CGs. Nvidia retire petit à petit le SLI de ses modèles d'entrée de gamme et avait commencé par la 1060.
un SLI de 770 permet aujourd'hui encore de jouer à peu près à tout dès que c'est supporté. Si tu crois que dans 3 ans les cartes auront quintuplé de puissance je pense que tu te fourres le doigt.
C'est par ce que c'est une plaie pour les dev, et que ça concerne qu'un nombre marginal de personnes. Et puis t'es pas gagnant avec la conso électrique au final...
Il n'y a vraiment pas d'intérêt pour le SLI.
Citation :
Publié par Rishnu / Bouffye
C'est par ce que c'est une plaie pour les dev, et que ça concerne qu'un nombre marginal de personnes. Et puis t'es pas gagnant avec la conso électrique au final...
Il n'y a vraiment pas d'intérêt pour le SLI.
DirectX 12 devait rendre la gestion du multi GPU beaucoup plus simple pour les développeurs et les joueurs, mais au bout du compte on n'a toujours pas vu les changements.
Citation :
Publié par Lianai
DirectX 12 devait rendre la gestion du multi GPU beaucoup plus simple pour les développeurs et les joueurs, mais au bout du compte on n'a toujours pas vu les changements.
Mdr je me souviens des "on pourrait faire du bi-gpu avec AMD et Nvidia!"

Les promesses n'engagent que ceux qui y croient etc etc.
C'est tout le reste qui m'intéressait. Le fait que DX12 devait permettre aux développeurs de s'affranchir de la partie lourde de l'intégration du bi gpu dans leurs jeux, le fait que cela devait aussi supprimer la nécessité d'attendre les profils constructeurs pour en profiter et ce genre de détails facilitant l'utilisation du multi gpu. L'idée de pouvoir utiliser une carte AMD et une Nvidia en même temps, c'était plus de l'ordre du fantasme de journalistes et de joueurs.

La question qui reste c'est : est-ce que Microsoft l'a intégré dans DX12 ou est-ce qu'il a fait machine arrière ? Parce que si c'est le cas, j'aimerais bien savoir pourquoi les devs n'en profitent pas. Vous me direz, est-ce qu'il existe un jeu totalement conçu autour de DX12 ? Donc pas les jeux DX11 qui supportent DX12, mais bien full DX12.
Citation :
Publié par Kafka Datura
Mdr je me souviens des "on pourrait faire du bi-gpu avec AMD et Nvidia!"

Les promesses n'engagent que ceux qui y croient etc etc.
En fait ça a déjà été possible sur une ou deux cartes mères avec un chipset bien particulier. Bon c'était y'a un paquet d'années et ça fonctionnait pas très bien, mais techniquement ça existe déjà

Citation :
Publié par Lianai
Ce n'était pas uniquement pour la gestion de PhysX ? La seconde carte prenait en charge la techno et au lieu d'être obligés d'utiliser une carte de la même marque, ce chipset permettait de passer outre cette restriction.
Nan nan, c'était un SLI-FireX sur un chipset d'une marque israelienne de mémoire

EDIT : Trouvé ! C'est la puce Hydra 200 de Lucid (ici) et comme je le disais c'est vieux, bientot 10 ans

Dernière modification par Metalovichinkov ; 18/10/2018 à 13h41.
Citation :
Publié par Metalovichinkov
En fait ça a déjà été possible sur une ou deux cartes mères avec un chipset bien particulier. Bon c'était y'a un paquet d'années et ça fonctionnait pas très bien, mais c'est techniquement déjà possible
Ce n'était pas uniquement pour la gestion de PhysX ? La seconde carte prenait en charge la techno et au lieu d'être obligés d'utiliser une carte de la même marque, ce chipset permettait de passer outre cette restriction.
Citation :
Publié par Zygomatique
J'ai l'impression que c'est un peu le serpent qui se mord la queue. Le prix des 10xx ne baisse pas non plus vues les perfs moisies des 20xx, et tout le monde semble attendre.
Visiblement, les 2080/2080ti partent relativement vite aux USA.
Citation :
Publié par Rishnu / Bouffye
Visiblement, les 2080/2080ti partent relativement vite aux USA.
Y en a pas surtout. Je vois le top des ventes de cartes graphiques sur amazon.com, la première RTX 2080 est 18e et la première RTX 2080 Ti est 45e. Donc la rupture est avant tout un problème d'offre, pas de demande.
J'ai vraiment la haine contre nvidia avec ces pratiques honteuses, et dire que je vais devoir acheter une de leur carte vu que la concu est à la rue....
Ca me rend encore plus dingue
Citation :
Publié par Fenizx
J'ai vraiment la haine contre nvidia avec ces pratiques honteuses, et dire que je vais devoir acheter une de leur carte vu que la concu est à la rue....
Ca me rend encore plus dingue
C'est pas pour prendre leur défense, mais imo, s'ils pouvaient en fournir plus, ils le feraient.
Répondre

Connectés sur ce fil

 
3 connectés (0 membre et 3 invités) Afficher la liste détaillée des connectés