[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
J'en ai rêvé, Asus l'a fait. A des prix démentiels, comme d'hab.
Le GPU donnant directement sur l'extérieur, pour ceux qui s'en rappellent, j'avais pensé à un mod comme pour un format Home Cinema.
Une discussion avec @aziraphale, à l'époque, il me semble.
Jamais encore testé, parce que d'autres idées en tête.
Asus a dévoilé toute une gamme de boîtiers ultra compacts pour sa ligne Pro Art.
C'est visuellement top. Les prix ne sont pas encore annoncés mais pour la ligne Pro Art, peu de chance que ce soit pour M. Toulemonde.
Où est-ce qu'on peut se rencarder pour avoir des données fiables qui comparent les GPU ?
Surtout pour de l'applicatif (rendus 3D, IA générative...). C'est un peu la jungle à ce sujet.

Je vais sûrement avoir besoin de me monter une machine autour d'une carte nvidia, mais j'ai pas suivi depuis un moment, et mon point de référence le plus récent est une 3080.

Histoire de me faire une idée des ratio prix/perf/conso, et éventuellement des futures générations/techno qui sont susceptibles d'arriver, le besoin n'étant pas avant plusieurs mois.
Citation :
Publié par Dr. Troy
Où est-ce qu'on peut se rencarder pour avoir des données fiables qui comparent les GPU ?
Surtout pour de l'applicatif (rendus 3D, IA générative...). C'est un peu la jungle à ce sujet.

Je vais sûrement avoir besoin de me monter une machine autour d'une carte nvidia, mais j'ai pas suivi depuis un moment, et mon point de référence le plus récent est une 3080.

Histoire de me faire une idée des ratio prix/perf/conso, et éventuellement des futures générations/techno qui sont susceptibles d'arriver, le besoin n'étant pas avant plusieurs mois.
Essaie ici :
https://bizon-tech.com/gpu-benchmark...n-RTX/529vs530

Après, parce qu'une majorité du marché est optimisé CUDA cores, le choix nVidia est presque nécessaire.

Deep learning, nVidia n'est pas en tête pour rien, même si AMD et Intel commence à se frayer un chemin.

Maintenant GPU pro ou grand public, je serai tenté de dire Grand public, pour le prix surtout et la polyvalence. Surtout si tu envisages une machine multi-GPUs.
Et si ça n'a pas changé, pour le rendering, le meilleur rapport prix/perfs sera souvent pour un multi-GPUs de générations précédentes. Pour la conso, pas de miracles vu l'explosion de la courbe ce ces dernières générations.
Citation :
Publié par Ryu Seiken
Essaie ici :
https://bizon-tech.com/gpu-benchmark...n-RTX/529vs530

Après, parce qu'une majorité du marché est optimisé CUDA cores, le choix nVidia est presque nécessaire.

Deep learning, nVidia n'est pas en tête pour rien, même si AMD et Intel commence à se frayer un chemin.

Maintenant GPU pro ou grand public, je serai tenté de dire Grand public, pour le prix surtout et la polyvalence. Surtout si tu envisages une machine multi-GPUs.
Et si ça n'a pas changé, pour le rendering, le meilleur rapport prix/perfs sera souvent pour un multi-GPUs de générations précédentes. Pour la conso, pas de miracles vu l'explosion de la courbe ce ces dernières générations.
Merci mais les bench n'ont pas l'air très récents (pas la génération super ?).
Je me suis effectivement arrêté chez nvidia, la question AMD ne se pose pas dans mon cas. Après recherches, je vais me limiter aux cartes grand public (de toute façon au moins en audiovisuel, ça fait quelques années que les quadro sont remplacées par des cartes de gamers).
Si j'ai bien compris, la génération des Super enterre un peu les précédentes (de meilleurs résultats pour moins cher et qui consomment moins ?). Les 4090 ont l'air encore très bien placées, mais hors budget pour ma part, du coup en descendant, j'ai l'impression que les 4080 Super ne valent pas le coût face aux 4070 Ti Super (peu de gain rapport à la montée en prix, à moins d'avoir loupé un paramètre ?). Il risque d'y avoir un gros gap techno avec la prochaine génération - qui risque de tomber au moment où je vais monter la machine ?
La 4080 Super est quand même bien supérieure à la 4070Ti Super pour de l'applicatif.
Normal vu la différence en terme de coeurs CUDA (10240 vs 8448).
Mais c'est vrai que le passage au super a bien amélioré la 4070Ti qui se trainait avec ses seulement 12Go de VRAM et son bus 192bit.
Citation :
Publié par aziraphale
La 4080 Super est quand même bien supérieure à la 4070Ti Super pour de l'applicatif.
Normal vu la différence en terme de coeurs CUDA (10240 vs 8448).
Mais c'est vrai que le passage au super a bien amélioré la 4070Ti qui se trainait avec ses seulement 12Go de VRAM et son bus 192bit.
Par applicatif, c'est peut être un peu trompeur, parce que principalement, ça va être du rendu 3D (maya ou Blender).
Et je me plante peut être mais si je fais un simple produit en croix, le prix monte plus vite que les cœurs CUDA aussi
Mais d'où ma recherche de bench "fiables" (la je regarde simplement tom's hw).

Tu me diras la montée en prix (et en conso) se ressent aussi pas mal entre les 4070S et les 4070S ti mais j'ai peur d'être vite à l'étroit avec les 12Go de VRAM.
Vu la différence du nombre de CUDA cores entre chaque modèle, je pense qu'une machine multi GPUs reste plus rentable avec des GPUs dans la gamme 4070, pour un coût /CUDA cores plus intéressant et un consommation relativement bonne pour la puissance de calcul.
De même, d'un point de vue économique.
Citation :
Publié par Ryu Seiken
Vu la différence du nombre de CUDA cores entre chaque modèle, je pense qu'une machine multi GPUs reste plus rentable avec des GPUs dans la gamme 4070, pour un coût /CUDA cores plus intéressant et un consommation relativement bonne pour la puissance de calcul.
De même, d'un point de vue économique.
Sur le papier, effectivement 2x 4070 Super dépassent une 4090, en ayant même une conso un poil plus bas. Mais après faut la CM et le CPU qui suivent derrière, pareil j'ai pas suivi depuis un moment mais je n'ai pas l'impression que ce soit devenu la norme des 2x PCI en x16. Va falloir taper dans les composants pour workstation et bout à bout, pas persuadé que ce soit si économique que ça. Merci pour l'idée dans tous les cas, je vais encore cogiter y'a rien de pressé.
Citation :
Publié par Dr. Troy
Par applicatif, c'est peut être un peu trompeur, parce que principalement, ça va être du rendu 3D (maya ou Blender).
Sur Hardware & Co, ils ont intégré depuis quelques temps déjà des tests sur quelques logiciels applicatifs, dont Blender :
https://hardwareand.co/dossiers/gpu/...s-cher?start=9

Et c'est en plus des tests plus classiques pour lesquels ils sont plutôt le haut du panier (avec Eric qui fait ca depuis plus de 20 ans, avec un panel de jeux parmi les plus larges, sélectionnés pour challenger différemment les cartes, et les tests refaits à chaque fois pour toutes les cartes apparaissant dans le dossier - puis dossier écrit plutôt qu'une vidéo).
Par contre, vu le temps que ça prend du coup, ils ne font ces tests qu'à la sortie d'une nouvelle carte et se contente de tester des cartes et résolutions pertinentes (va pas y avoir de 1060 ou de FHD lors d'un test de la 4090 par exemple).
Oui il y a des limitations physique à vouloir faire fonctionner, sur des produits grand public, des configurations matériels exotiques.

Les lignes PCIe dépendent du processeur, et de la version. Il y a un nombre maximales de lignes possibles sur une CM. Sur le grand public et en fonction des différentes générations de la norme, il y a entre 16 et 24 lignes, auxquels tu soustraits l'utilisation des lignes pour les cartes fille pcie, et l'usage nvme.

Exemple, sur la génération ryzen 5 5800x3D, AMD avait fait le choix de monter à 24 lignes PCIe 4.0 : 16 pour les cartes filles, 4 pour le nvme, et 4 pour le chipset.

Bref, pour faire tourner deux GPU en x16, il faudrait au minimum x32 lignes PCIe dédiées au cartes filles, et cette configuration est introuvable. Tu peux avoir autant de ligne PCIe sur des serveurs, qui utilisent ces lignes pour le transfert de données réseau, ou du stockage.

Donc quoi qu'il arrivent il faudra faire un compromis et faire tourner les deux GPU en x8, et voir le gain/perte que cela apporte.

Et surtout la norme utilisée sur la CM, si c'est du x8 gen 4.0 ou du 5.0.

Un x8 gen 4.0 fera au max 16Go/s alors qu'un x8 gen 5.0 fera quant a lui 32Go/s au max.

Une 4070 au max de ces possibilités, selon techpowerup, monterait à 21Go/s. Donc pour éviter un bottleneck au niveau du pcie, il faudrait opter pour du Pcie gen 5.0 pour ne pas avoir de problème :
https://www.techpowerup.com/gpu-spec...rtx-4070.c3924

Dernière modification par Gundor ; 13/07/2024 à 13h38.
Citation :
Publié par Gundor
Oui il y a des limitations physique à vouloir faire fonctionner, sur des produits grand public, des configurations matériels exotiques.

Les lignes PCIe dépendent du processeur, et de la version. Il y a un nombre maximales de lignes possibles sur une CM. Sur le grand public et en fonction des différentes générations de la norme, il y a entre 16 et 24 lignes, auxquels tu soustraits l'utilisation des lignes pour les cartes fille pcie, et l'usage nvme.

Exemple, sur la génération ryzen 5 5800x3D, AMD avait fait le choix de monter à 24 lignes PCIe 4.0 : 16 pour les cartes filles, 4 pour le nvme, et 4 pour le chipset.

Bref, pour faire tourner deux GPU en x16, il faudrait au minimum x32 lignes PCIe dédiées au cartes filles, et cette configuration est introuvable. Tu peux avoir autant de ligne PCIe sur des serveurs, qui utilisent ces lignes pour le transfert de données réseau, ou du stockage.

Donc quoi qu'il arrivent il faudra faire un compromis et faire tourner les deux GPU en x8, et voir le gain/perte que cela apporte.

Et surtout la norme utilisée sur la CM, si c'est du x8 gen 4.0 ou du 5.0.

Un x8 gen 4.0 fera au max 16Go/s alors qu'un x8 gen 5.0 fera quant a lui 32Go/s au max.
Bel exemple.
Donc selon les specs strictes, un camion sur une autoroute embouteillée est plus rapide que deux camions sur des nationales vide.
Parce qu'en fait c'est de ça qu'il s'agit. Une plus grande bande passante sera toujours désavantagée face à une possibilité de calculs parallèle simultanés, sauf si le GPU unique offre une puissante de calcul nettement supérieure à celle des GPU couplés pour un prix équivalent ou inférieur.
Ça fait longtemps que je ne me suis pas penché sur les rendus 3D, mais de mémoire, une plus grande puissance de calcul compense plus que largement une bande passante plus réduite mais exploitée qu'une large bande passante très sous-exploitée qui va attendre les résultats pour utiliser un peu de bande passante.

@Dr. Troy Ouais, ça avait commencé à se faire rare autour des sorties des GTX 2XXX, il me semble. Des bestioles si puissantes (par rapport aux générations précédentes), que ça rendait le multiGPU inutile et obsolète. Alors que 2-3 GTX 750 se faisait la part belle face au 1080, une génération avant.
J'ai regardé vite fait.
X670E Taichi Carrara permet de split en 2 fois X8, mais ça douille à 565€ sur idealo et 700€ sur mat.net
Citation :
Publié par Peredur
Sur Hardware & Co, ils ont intégré depuis quelques temps déjà des tests sur quelques logiciels applicatifs, dont Blender :
https://hardwareand.co/dossiers/gpu/...s-cher?start=9

Et c'est en plus des tests plus classiques pour lesquels ils sont plutôt le haut du panier (avec Eric qui fait ca depuis plus de 20 ans, avec un panel de jeux parmi les plus larges, sélectionnés pour challenger différemment les cartes, et les tests refaits à chaque fois pour toutes les cartes apparaissant dans le dossier - puis dossier écrit plutôt qu'une vidéo).
Par contre, vu le temps que ça prend du coup, ils ne font ces tests qu'à la sortie d'une nouvelle carte et se contente de tester des cartes et résolutions pertinentes (va pas y avoir de 1060 ou de FHD lors d'un test de la 4090 par exemple).
Ça a l'air effectivement plus dans la qualité que dans la quantité et c'est pas plus mal !
Et du coup je me rend compte qu'il y a l'air d'avoir pas mal de différences de conception en fonction du fabricant (des GPU de 4090 recyclés dans des 4070 ti super ? je pensais pas que les différences allaient jusque la).

Citation :
Publié par Gundor
Bref, pour faire tourner deux GPU en x16, il faudrait au minimum x32 lignes PCIe dédiées au cartes filles, et cette configuration est introuvable. Tu peux avoir autant de ligne PCIe sur des serveurs, qui utilisent ces lignes pour le transfert de données réseau, ou du stockage.
Merci pour l'éclaircissement c'est bien ce qui me semblait (je comprends mieux les workstations à base de Xeon, ceci explique cela).

Citation :
Publié par Ryu Seiken
ça douille
Effectivement !

Finalement, je suis tombé sur une vidéo d'un gars qui compare 2x 3080 (j'imagine que ça n'a pas tant changé entre les générations) dans une workstation et dans une config grand public (donc 2x x16 vs 2x x8), et la différence des bench (notamment Blender) est négligeable (voire inexistante dans certains cas). Ça m'aide pas à me décider tout ça Bon il y aura aussi la question de la place, des températures, de la PSU - même si j'économise pas la dessus - ...

Question bonus, comme ce sera une machine semi-pro, aka je la monte à titre personnel (d'où le fait que j'ai pas envie d'y investir un rein non plus), mais pour "bosser" dessus, on va pas se mentir j'en profiterai pour faire tourner quelques jeux, les multi GPU sont bien gérés ? C'est transparent ou ça va dépendre de chaque jeu ? La dernière fois que j'avais fait ça, on pouvait encore faire du SLI, mais j'ai l'impression que ça a disparu comme techno.
Super Video de VCG sur la catastrophe actuel d'INTEL avec les générations 13 et 14 , on y voit les % de raté et on s'aperçoit que c'est surtout les i9 et i7 en cause et je me dit que j'ai bien fait de prendre un 13600K .

De plus en plus de problèmes rencontrés sont remontés chez Intel :

Ça semble être une catastrophe industrielle pour Intel. En plus Tweaktown signale des retours SAV très aléatoires de la part d'Intel, parfois c'est accepté, parfois non, pour le même problème.
Citation :
Publié par Borh
Ça semble être une catastrophe industrielle pour Intel. En plus Tweaktown signale des retours SAV très aléatoires de la part d'Intel, parfois c'est accepté, parfois non, pour le même problème.Et bien si tout les processeurs sont touché
Et bien si tout les processeurs i7 et i9 sont touchés....je n'ose même pas imaginer la perte d'argent que ça va engendrer pour les échanger ou rembourser.

Doivent être inquiet Intel , j'ai même vu que certains fabricants de mémoire baisser ou demander a leur clients de baisser leur fréquences pour stabiliser au maximum ces processeurs et faire diminuer le taux de crash....mais lol quoi...
Purée !
J'avais hésité en juin dernier entre le 13700 et le 13600K et j'ai finalement pris ce dernier également.
Bien content pour le coup d'avoir eu le bon feeling (et les bons conseils)
Je crois que personne ici n'a jamais conseillé de core i7 et i9 de 13 et 14e gen. Et sans savoir qu'il y avait ce problème.
En tout cas, je suis certain que moi je ne l'ai jamais fait.
Citation :
Publié par Duda
Purée !
J'avais hésité en juin dernier entre le 13700 et le 13600K et j'ai finalement pris ce dernier également.
Bien content pour le coup d'avoir eu le bon feeling (et les bons conseils)
Sincèrement je n'ai jamais été déçus par les procs intels qui finissaient par un 600K et ce depuis le 2600K.

Pour le jeu et l'applicatif les 13600K sont de super processeurs largement suffisant et de très bonne réputation en plus.
Citation :
Publié par Borh
Je crois que personne ici n'a jamais conseillé de core i7 et i9 de 13 et 14e gen. Et sans savoir qu'il y avait ce problème.
En tout cas, je suis certain que moi je ne l'ai jamais fait.
Clairement, ici on conseille tous d'aller voir la maison d'en face il me semble.

Les I5 sont peuvent être limite aujourd'hui pour certains jeux si tu te lâches niveau budget pour la CG.
D'ailleurs ça fait un moment que les dév optimisent leur code pour des proc à 10 coeurs.
Ne confiez jamais la direction d'une boîte industrielle à des financiers. Ils sont tellement avides, ignorants et imbus d'eux-mêmes qu'ils la saboteront de manière irrémédiable. Pat Gelsinger a été rappelé bien trop tard, les ingénieurs sont partis, les investissements qui auraient du être faits ont été remplacés par des rachats d'action. A moins que TSMC ne fasse la même connerie, je ne vois pas comment Intel pourra les rattraper.
Citation :
Publié par Aloïsius
Ne confiez jamais la direction d'une boîte industrielle à des financiers. Ils sont tellement avides, ignorants et imbus d'eux-mêmes qu'ils la saboteront de manière irrémédiable. Pat Gelsinger a été rappelé bien trop tard, les ingénieurs sont partis, les investissements qui auraient du être faits ont été remplacés par des rachats d'action. A moins que TSMC ne fasse la même connerie, je ne vois pas comment Intel pourra les rattraper.
le Hic dans cette histoire c'est qu'ils ne savent précisément pas d'ou vient le problème , ils savent uniquement que c'est la relation entre le proc et la CM...

En bref tu achète des proc qui doivent être OC et lorsque tu le fais ou si la CM le fait en auto...et bien au mieux ton pc crash et le proc va mourrir a petit feu ou au pire le proc meurt d'une sale mort très rapide...Bref c'est l'épisode 4 de House of Dragon...
Citation :
Publié par Borh
Je crois que c'est fini le multi-GPU dans les jeux.
C'est quand même étonnant que ce soit pas géré directement du côté des drivers tout ça. Bon j'ai le temps d'y réfléchir, mais y'a moyen que je me limite à un seul GPU pour une question de place aussi.

Citation :
Publié par Borh
Ça semble être une catastrophe industrielle pour Intel. En plus Tweaktown signale des retours SAV très aléatoires de la part d'Intel, parfois c'est accepté, parfois non, pour le même problème.
Ça risque pas de leur en toucher une sans faire bouger l'autre ? Genre comme d'autres avant ?
Ils ont l'air d'avoir un sacré lobbying quand tu vois à quel point - entre autres - le marché est pauvre en AMD basse conso sur des laptops.

Citation :
Publié par Aloïsius
Ne confiez jamais la direction d'une boîte industrielle à des financiers.
N'importe quelle boîte, encore moins des pays. Ah merde. Oh et puis de toute façon on parle pas de politique.
Citation :
Publié par Dr. Troy
C'est quand même étonnant que ce soit pas géré directement du côté des drivers tout ça. Bon j'ai le temps d'y réfléchir, mais y'a moyen que je me limite à un seul GPU pour une question de place aussi.



Ça risque pas de leur en toucher une sans faire bouger l'autre ? Genre comme d'autres avant ?
Ils ont l'air d'avoir un sacré lobbying quand tu vois à quel point - entre autres - le marché est pauvre en AMD basse conso sur des laptops.


N'importe quelle boîte, encore moins des pays. Ah merde. Oh et puis de toute façon on parle pas de politique.
Même si ils en ont rien a battre financièrement, Intel travaille ses ventes avec l'image de l'entreprise...et une sale image ce sont les actions en bourse qui dégringole.

Imagine les gros clients qu'ils sont en train de se poser la réflexion sur le problème actuel... je peut t'assurer qu'ils vont réfléchir deux fois avant d'acheter intel.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés