[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Borh
Je ne suis pas certain que mon cas tienne lieu de preuve. Certains SAV sont pas super réputés.
Après, c'est plus que certains vont trouver n'importe quelle excuse pour tenter de faire passer la mort de la CG sur une mauvaise utilisation de la part de l'utilisateur., mais en dehors de ça, peu importe le SAV, ils ont des obligations. Certains vont prendre leur temps, d'autres vont être super réactifs, mais l'obligation de remplacer le matériel défaillant reste un fait jusqu'il faut parfois se battre contre des moulins pendant quelques temps. Par contre, il ne faut jamais démonter la CG (EVGA s'en fout, mais généralement ça tue la garantie), utiliser un bios custom (pas d'overclocking via bios) et ne pas acheter sur un site chinois.

PNY n'a pas un SAV exceptionnel, il a un SAV qui fait son job et respecte les règles. L'avantage, c'est qu'ils sont réactifs là où d'autres te laissent pourrir quelques temps en te posant plein de questions sur ton utilisation de la CG en espérant que tu diras "oui" à un moment afin qu'ils te répondent que c'est de ta faute.

Dernière modification par Lianai ; 10/11/2018 à 23h50.
Le truc, c'est qu'est-ce qui te fait dire que l'équivalent de gamme de la 1080 Ti, c'est la 2080 Ti et pas la 2080 ? Ca me paraît un peu à l'interprétation de chacun...
Si on se base sur les perfs, ou le prix de lancement, c'est plutôt la 2080.

Dernière modification par Borh ; 11/11/2018 à 00h54.
Citation :
Publié par Borh
Le truc, c'est qu'est-ce qui te fait dire que l'équivalent de gamme de la 1080 Ti, c'est la 2080 Ti et pas la 2080 ? Ca me paraît un peu à l'interprétation de chacun...
Si on se base sur les perfs, ou le prix de lancement, c'est plutôt la 2080.
En toute logique, la gamme c'est le placement du produit dans le catalogue du constructeur. Après, même si tu récupères une 2080, difficile de cracher dans la soupe vu que cela ferait une carte normalement à 900 balles neuve pour le prix d'une 1080 Ti d'occaz (aux alentours de 600€)

Par contre, il est vrai qu'ils ne sont pas forcés de remplacer la CG, cela dépend du contrat de garantie (il y a le contrat légal auquel ils ne peuvent se soustraire et le contrat vendeur / constructeur plus avantageux si différent), mais au pire tu gagnes un remboursement intégral de la CG à son prix d'achat, ce qui est aussi tout bénef vu que c'est une somme plus élevée que celle payée (cas de la 1080 Ti d'occaz comme expliqué au dessus)

Dans tous les cas, un possesseur de 1080 Ti achetée d'occaz maintenant dont la CG lâche dans les 6 mois un an est un petit veinard parce qu'il sera gagnant peu importe s'il récupère une carte neuve ou un remboursement.

Et @Krib si tu veux une raison pouvant expliquer pourquoi tout le monde n'en profite pas, c'est tout simplement parce qu'il faut que le matos lâche et personne n'a envie de forcer le destin, surtout si derrière c'est grillé (l'idée même du facteur risque met un stop, ce qui est normal). Par exemple, je viens de me prendre une 1080 Ti d'occaz pour un prix intéressant. Elle encore sous garantie pour environ un an et jamais je ne me lancerai dans un truc pareil. Déjà parce qu'une 1080 Ti me convient amplement, mais aussi parce qu'il me faudrait une CG de secours vu que je vais vendre l'actuelle, que le risque 0 n'existe pas et que je n'en suis pas à ce point . Malgré tout, je pourrais le faire parce que la CG est toujours sous garantie et j'ai la facture + la boîte.
Concernant mon i7 8700.

J'ai acheté un Ventirad "Be Quiet Dark Rock pro 4".

Sous stress-test :
92 degrés avant
69 degrés maintenant

Au repos :
33/34 degrés avant
31/32 degrés maintenant

Et le silence total, à 100% d'utilisation mon CPU ne ronronne pas plus qu'à 1% d'utilisation, c'est assez incroyable.

Verdict :
Le ventirad-stock de Intel c'est vraiment de la grosse merde, ultra bruyant et en 6mois de temps la pâte thermique était presque évaporée, Intel mériterait clairement un procès pour mise en danger de la vie des processeurs et dans l'intention de leur donner la mort.


Merci à ceux m'ayant vivement conseillé d'investir là dedans, impossible de regretter l'achat, par contre ça rentre pile poil dans la tour, 16.3cm de haut, 13.6cm de large, et 12.4cm de profondeur, et presque 1.2kg...
Le changement de composé thermique entre le die et la capsule, ça permet à Intel de ressortir des vieux CPU en les renommant et en faisant passer ça pour des nouveautés.
Bienvenue au Core i9-9980XE, qui est un Core i9-7980XE, exactement le même CPU, mais le nouveau composé permet de gagner quelques MHz. Evidemment, niveau consommation ça ressent, quasiment 100W de plus en charge, soit plus que Threadripper 32 cores...

Heureusement, Intel a eu la décence de le proposer au même prix que le 7980XE, ce qui de toute façon ne veut pas dire grand chose vue la pénurie de 14nm.
Citation :
Publié par Wisphill Cain
Une question sur les puces des 2070 : Connaît ont les modèles des constructeurs tiers qui sont bridés ?
Tu peux déjà faire une première vérification en regardant la fréquence Boost. si elle est de 1620MHz, tu peux déjà être sûr que c'est une puce bridée vu que la fréquence Boost des versions Nvidia est de 1710MHz. Mais attention, ce n'est pas parce que tu as des modèles à 1740MHz en Boost que c'est une version non bridée, cela peut aussi être une version bridée overclockée (l'overclocking n'est pas bloqué, c'est juste que la fréquence max atteignable est plus faible).

Celles qui dépassent les 1800MHz, tu peux être sûr qu'elles ont des puces non bridées. Pour celles qui gravitent autour de 1710 / 1740MHz, faut se renseigner.
Citation :
Publié par Wisphill Cain
Merci beaucouuupp
Franchement, vu la différence de prix, il vaut mieux parfois prendre la version bridée (les MSI ont une différence de 50/100 euros sur certains modèles, donc +/-500 euros vs 550 euros), alors que la version non bridée n'apporte pas 10% de perf en plus.
Oui, clairement et comme dit au dessus, ce n'est pas parce que c'est bridé que ça ne peut pas se gonfler un peu avec l'overclocking. C'est juste qu'au lieu d'avoir un boost à 18XXMHz, tu seras plus dans les 1700 et la différence est ridicule. De plus, mieux vaut une puce bridée sur un bon PCB avec un bon système de refroidissement silencieux qu'une puce parfaite sur un PCB foireux et une ventilation qui réveillerait les morts.
Cette blague.


A moins de vouloir jouer en 4k DLSS avec du 2080 et/ou Ti, je ne vois aucun intérêt à cette nouvelle gen de carte. Si vous voyez des bonnes affaires (destockage, occases) sur des 10XX par rapport à leur équivalent 20xx, c'est le bon moment.

Dernière modification par Compte #238807 ; 14/11/2018 à 14h19.
Citation :
Publié par dhianne
Concernant mon i7 8700.

J'ai acheté un Ventirad "Be Quiet Dark Rock pro 4".

Sous stress-test :
92 degrés avant
69 degrés maintenant

Au repos :
33/34 degrés avant
31/32 degrés maintenant

Et le silence total, à 100% d'utilisation mon CPU ne ronronne pas plus qu'à 1% d'utilisation, c'est assez incroyable.

Verdict :
Le ventirad-stock de Intel c'est vraiment de la grosse merde, ultra bruyant et en 6mois de temps la pâte thermique était presque évaporée, Intel mériterait clairement un procès pour mise en danger de la vie des processeurs et dans l'intention de leur donner la mort.


Merci à ceux m'ayant vivement conseillé d'investir là dedans, impossible de regretter l'achat, par contre ça rentre pile poil dans la tour, 16.3cm de haut, 13.6cm de large, et 12.4cm de profondeur, et presque 1.2kg...
Pour le coup, un Dark Rock Pro 4 est bien trop performant pour un i7 8700 (qui je rappelle n'est pas overclockable), un Bequiet Pure Rock aurait suffit avec l'achat d'un tube de Thermal Grizzly Kryonaut.

Mais j’approuve pour le ventirad d'Intel, même celui pour l'entrée de gamme (i3 8100) est bruyant lors de grosse sollicitation (jeu/applicatif).
C'est un peu juste pour se faire une idée.
Faudrait voir ce que ça donne en 1440p et en ultra. Perso, tant que ça reste au dessus des 40 fps, pour moi ça reste très correct à jouer sur un écran G-sync.
Ce qui faut surtout voir, c'est si on en prend réellement plein la vue graphiquement, ou si c'est un effet gadget.
Citation :
Publié par Borh
C'est un peu juste pour se faire une idée.
Faudrait voir ce que ça donne en 1440p et en ultra. Perso, tant que ça reste au dessus des 40 fps, pour moi ça reste très correct à jouer sur un écran G-sync.
Ce qui faut surtout voir, c'est si on en prend réellement plein la vue graphiquement, ou si c'est un effet gadget.
Le problème c'est qu'on parle d'une 2080Ti là.

Dernière modification par Compte #238807 ; 14/11/2018 à 15h46.
Citation :
Publié par Borh
C'est un peu juste pour se faire une idée.
Faudrait voir ce que ça donne en 1440p et en ultra. Perso, tant que ça reste au dessus des 40 fps, pour moi ça reste très correct à jouer sur un écran G-sync.
Ce qui faut surtout voir, c'est si on en prend réellement plein la vue graphiquement, ou si c'est un effet gadget.
Perso, pour un FPS, c'est pas moins de 60fps. Ca me ferait quand même chier de jouer en 1080p avec une bécane à 2000+ euros.
index.png

J'ai vu un mec jouer avec le RT sur twich, j'en ai vraiment pas eu pleins les yeux... Je vois quasi pas de différence.

Dernière modification par Rishnu / Bouffye ; 14/11/2018 à 16h06.
Peut-être qu'il va falloir beaucoup de temps à la tech pour arriver à maturité et que tout ça est pas encore optimisé mais quand je vois ce qu'on est capable de faire avec RDR2 sur la lumière sans raytracing ça me laisse songeur.

Peut-être aussi qu'il faut jouer sur les 2 aspects, faire du DLSS sur une résolution inférieure pour perdre en résolution et pour gagner en perf afin de pouvoir activer le raytracing sans que ça parvienne à compenser complètement la perte causée mais ya rien sur les screens qui me parait justifier 50% de perte de perf brute et tout ce bidouillage.

Cette gen de carte me donne l'effet d'une gen intermédiaire charnière qui commence juste à mettre en place la tech embarquée et il va falloir des mecs en attendant pour payer ça. Comme Nvidia est actuellement en situation lead, ils auront pas vraiment le choix.

Dernière modification par Compte #238807 ; 14/11/2018 à 16h19.
Citation :
Publié par .Sash
Cette gen de carte me donne l'effet d'une gen intermédiaire charnière qui commence juste à mettre en place la tech et il va falloir des mecs en attendant pour payer ça.
C'est le soucis. La technologie a un potentiel intéressant, certains disent que c'est l'avenir du gaming et un pas technologique important pour le future. Perso je pense que c'est le cas, mais nvidia a sorti des cartes trop chères avec une technologie qui doit faire ses preuves et se démocratiser. C'est couillus et une bonne idée, et personne n'aurait rien dit s'il n'y avait pas eu un premium sur les cartes...
Comme édité, ils profitent de leur leadership actuel pour imposer le truc et ça va passer. On aurait du avoir une baisse de prix ou de meilleures performances mais à la place en attendant on a ça.

Le taux de perte sont même un peu plus importants sur les résolutions supérieures et sur les gammes de cartes inférieures. C'est plus de 50% et encore le moteur de BF5 est quand même très performant par rapport à d'autres.


bfvynd5v.png

tenor.gif

Dernière modification par Compte #238807 ; 14/11/2018 à 16h45.
Citation :
Publié par Borh
C'est un peu juste pour se faire une idée.
Faudrait voir ce que ça donne en 1440p et en ultra. Perso, tant que ça reste au dessus des 40 fps, pour moi ça reste très correct à jouer sur un écran G-sync.
Ce qui faut surtout voir, c'est si on en prend réellement plein la vue graphiquement, ou si c'est un effet gadget.
mais sa règle pas le problème du jeu beau mais pourrie !
Citation :
Publié par Rishnu / Bouffye
Perso, pour un FPS, c'est pas moins de 60fps. Ca me ferait quand même chier de jouer en 1080p avec une bécane à 2000+ euros.
index.png

J'ai vu un mec jouer avec le RT sur twich, j'en ai vraiment pas eu pleins les yeux... Je vois quasi pas de différence.
Ce graphe c'est les fps moyens ou minimum ?
Citation :
Publié par Borh
C'est un peu juste pour se faire une idée.
Faudrait voir ce que ça donne en 1440p et en ultra. Perso, tant que ça reste au dessus des 40 fps, pour moi ça reste très correct à jouer sur un écran G-sync.
Ce qui faut surtout voir, c'est si on en prend réellement plein la vue graphiquement, ou si c'est un effet gadget.
Le simili raytracing ajouté n'apportent qu'un meilleurs réalismes des éclairages / effets de lumières / reflet. (de ce que j'en ai compris en tous cas)

Donc des choses qui passeront "inaperçu" pour pas mal de joueur tant les habitudes d'éclairages "a l'ancienne" sont ancré. J'ai plusieurs connaissances qui en voyant les screen des 2 versions qui avait tourné sur internet disaient préférer la version pas RTX. Jusqu'à ce que je leur montre que/explique pourquoi la version RTX est plus "réaliste". Et là, ils se sont dit que ca pouvait valoir le coups... Mais c'était pas non plus le "grand enthousiasme"...

Donc pour la grande majorité des joueurs, c'est une feature qu'ils ne percevront pas, limite sera deceptive... Tant que cette methode de rendu ne sera pas majoritaire... Qui la, la version "a l'ancienne" fera "tache".
Après je dois dire que je suis pas non plus un fan des Battlefield, pas de quoi y mettre 1200€.

Quand Red Dead 2 ou Cyberpunk sortiront, s'ils supportent le ray tracing et que ça décolle la rétine, même à 40fps, je sors la carte de crédit.
Red dead 2 est sorti il y a 3 semaines, lache ton Millenium Falcon. ^^
Sinon en effet une bonne technique est de juste zapper les jeux et de les choper quelques années plus tard. Aujourd'hui les graphismes de jeux ayant 2 ou 3 ans sont parfaitement acceptables, on est plus en 1990, sans compter qu'en plus vue la mode des trouzemille DLC/Season pass etc c'est souvent plus intéressant de les acheter quand tout est sorti.
En ce moment je rejoue à Empire Total War, ben avec ma vieille 780 ca pète en WQHD super large.

Je me demande si c'est pas la meilleure stratégie à adopter, au lieu de tout acheter day one et de devoir avoir un PC dehouf©.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés