[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Uvea l'exilé
Donc pour le mec plus haut : si, AMD c'est completement une PME, avec une histoire et une aura - mais une PME tout de meme. Comparez ca a Intel, qu'on rigole.
On est pas ami aux dernières nouvelles donc tu pourrait mettre un peu moins de condescendance et plus de respect pour ton interlocuteur?
Citation :
Publié par gunchetifs
On est pas ami aux dernières nouvelles donc tu pourrait mettre un peu moins de condescendance et plus de respect pour ton interlocuteur?
Y'a pas de condescendance ou de manque de respect dans mon propos, si tu t'es senti blesse j'en suis desole. J'enonce simplement un fait.
J'apprécie quand ont utilise autre choses que "mec plus haut" pour me désigner.

Du reste tu enfonce des portes ouverte, oui ont va atteindre les limites en finesse sur le silicium dans 5 ou 10 ans max, la fin de la loi de moore avait deja été predite depuis longtemps....
Justement c'est le contraire, la loi de Moore sera respectee. On va simplement assister a une revolution technologique. C'est pour ca que regarder AMD et les autres fondeurs sur le prisme du marché workstation tel qu'il est aujourd'hui n'a pas de sens selon moi. Il faut repositionner le debat au dela de ca.

Et pour le coup du ''mec plus haut'', c'etait juste de la faineantise. J'avais juste la flemme de copier coller le nom. ;P
Citation :
Publié par Uvea l'exilé
Ca, c'est completement faux. La demande est absolument enorme. Et le monopole d'Intel n'existe que dans le marche des stations de travail. Regarde les Atoms, tu les vois beaucoup dans tes telephones ?
Quel demande? L'user lambda ça lui sert a pas grand chose pour du multimedia (d'ailleurs il upgrade de plus en plus lentement sa machine), le gamer les jeux sont loin de tiré toute la puissance des actuelles, les entreprises pour la plus part font une utilisation restreinte de leur ordi (cad word , excell & outlook). Reste les pro de l'image/3d et les petit serveurs qui ont quand même le droit à des 18 core (contre 4 pour le mainstream on le rappelle)

Et je vois pas trop le rapport avec les tel, c'est un marché sur lequel intel essaye de manger des parts, mais j'ai bien spécifié le PC (alors oui les smartphone sont des sortes de PC mais on va pas rentrer la dedans, d'ailleurs sur ce marché intel brade ses processeurs)

Et si les matériaux c'est important, le "diamant" résiste bien mieux à la chaleur (du genre 3 fois mieux) et offre une meilleur conductivité

Dernière modification par Compte #65221 ; 02/07/2015 à 02h39.
Citation :
Publié par Uvea l'exilé
Justement c'est le contraire, la loi de Moore sera respectee. On va simplement assister a une revolution technologique. C'est pour ca que regarder AMD et les autres fondeurs sur le prisme du marché workstation tel qu'il est aujourd'hui n'a pas de sens selon moi. Il faut repositionner le debat au dela de ca.

Et pour le coup du ''mec plus haut'', c'etait juste de la faineantise. J'avais juste la flemme de copier coller le nom. ;P
Autant pour moi.

Sur la finesse de gravure l'une des alternatives proposer aux silicium c'est le graphene qui promet beaucoup sur le papier.
Citation :
Publié par Von Stan Barnne
Quel demande? L'user lambda ça lui sert a pas grand chose pour du multimedia (d'ailleurs il upgrade de plus en plus lentement sa machine), le gamer les jeux sont loin de tiré toute la puissance des actuelles, les entreprises pour la plus part font une utilisation restreinte de leur ordi (cad word , excell & outlook). Reste les pro de l'image/3d et les petit serveurs qui ont quand même le droit à des 18 core (contre 4 pour le mainstream on le rappelle)

Et je vois pas trop le rapport avec les tel, c'est un marché sur lequel intel essaye de manger des parts, mais j'ai bien spécifié le PC (alors oui les smartphone sont des sortes de PC mais on va pas rentrer la dedans)

Et si les matériaux c'est important, le "diamant" résiste bien mieux à la chaleur et offre une meilleur conductivité
La demande de performance provient du marché du HPC. Les supercalculateurs doivent fournir davantage de puissance et cela ne peut que passer par de nouvelles architectures. Et les solutions qui seront implementees dans le HPC finiront dans nos PC a la maison.

Et effectivement, si tu regardes le PC de madame michou aujourd'hui, c'est pas de la que la demande provient.

Le HPC est absolument central car c'est la que la compétition entre les fondeurs est la plus feroce, et centrée sur les produits qu'ils ont de mieux. C'est le succes des technologies sur ce marche qui déterminera en grande partie de quoi nos PC seront faits demain.
Sauf que là on parle justement du PC de madame michou (là où intel fait ses jolies marges faute de réelle concurrence), et je doute qu'il (le pc de madame michou) est accès au même technologies que celle déjà utilisé dans les supercalculateurs.
Citation :
Publié par Von Stan Barnne
Sauf que là on parle justement du PC de madame michou (là où intel fait ses jolies marges), et je doute qu'il est accès au même technologies que celle déjà utilisé dans les supercalculateurs.
Detrompe toi.

A titre d'example, les architectures Xeon ont ete refaites en Nehalem pour le HPC et repondre au besoin HPC de bande passante memoire, et remplacer le Harpertown. C'est la norme aujourd'hui sur le marche desktop.

Le KNL et ses 200 coeurs sur 1 chip sont faites aujourd'hui pour repondre a un besoin HPC de scalabilite et densification energétique (Flops par Watt). Les applications PC aujourd'hui n'en tireront rien en l'etat actuel. Quand Intel aura rendu la programmation sur ces chips plus aisés, ce sera des chips haut de gamme sur PC egalement.

Les puces ARM sont en train d'être implementees dans des calculateurs basse consommation petaflopiques. Si ca marche, il y aura des serveurs a base d'ARM. Et s'il y a des serveurs, il y aura des PC.

Les futures archirectures AMD combineront CPU et GPU. Pareil, si ca marche, ca deviendra un standard sur PC.

Je peux continuer longtemps. ;P
Je crois que tu surestimes quand même ce marché, c'est un bonus intéressant, mais en terme de chiffre d'affaire, ça reste très très loin des ordinateurs personnels.
Et c'est pas parce qu'une technologie a du succès dans les HPC qu'elle en a ensuite dans les ordinateurs personnels. Pendant longtemps, une grande partie des calculateurs avaient des CPU IBM et Sun et ce sont des architectures qui n'ont jamais vraiment percé dans les ordinateurs personnels (sauf dans quelques Macs). Ces deux acteurs sont d'ailleurs plus ou moins en train de sortir du marché, faut croire que les HPC ne suffisent pas. Et ne parlons pas des Intel Itanium...

Aujourd'hui les CPU des HPC sont plus dérivés des CPU grand publics que l'inverse. Et le fait qu'on commence à voir des serveurs équipés de CPU ARM, c'est quand même assez représentatif.

Dernière modification par Borh ; 02/07/2015 à 08h50.
Citation :
Publié par Borh
Aujourd'hui les CPU des HPC sont plus dérivés des CPU grand publics que l'inverse. Et le fait qu'on commence à voir des serveurs équipés de CPU ARM, c'est quand même assez représentatif.
Pourtant meme tes exemples montrent l'inverse. Itanium par exemple, ou le Cell.

Ce n'est pas parce que quelque chose est dans le HPC que ca va de facto devenir un produit desktop, mais c'est le HPC qui pousse constamment pour plus de perfs et qui sert de berceau pour les nouvelle technologies..
Citation :
Publié par Borh
Je crois que tu surestimes quand même ce marché, c'est un bonus intéressant, mais en terme de chiffre d'affaire, ça reste très très loin des ordinateurs personnels.
Et c'est pas parce qu'une technologie a du succès dans les HPC qu'elle en a ensuite dans les ordinateurs personnels. Pendant longtemps, une grande partie des calculateurs avaient des CPU IBM et Sun et ce sont des architectures qui n'ont jamais vraiment percé dans les ordinateurs personnels (sauf dans quelques Macs). Ces deux acteurs sont d'ailleurs plus ou moins en train de sortir du marché, faut croire que les HPC ne suffisent pas. Et ne parlons pas des Intel Itanium...

Aujourd'hui les CPU des HPC sont plus dérivés des CPU grand publics que l'inverse. Et le fait qu'on commence à voir des serveurs équipés de CPU ARM, c'est quand même assez représentatif.
oui dommage que les cpu d IBM ne perce pas , mais quand on regarde la 360xbox sont cpu et un IBM et la Wii u avec , mais si IBM bougé sont cul a sortir des cpu pc personnel ferais pas de mal pour les consommateurs ..
Citation :
Publié par Uvea l'exilé
Pourtant meme tes exemples montrent l'inverse. Itanium par exemple, ou le Cell.

Ce n'est pas parce que quelque chose est dans le HPC que ca va de facto devenir un produit desktop, mais c'est le HPC qui pousse constamment pour plus de perfs et qui sert de berceau pour les nouvelle technologies..
Itanium, c'est l'exemple type qui montre que ça marche pas dans le sens où tu l'entends. Il n'y a jamais eu d'implémentation grand public, et au final l'architecture est morte parce que le HPC, c'est bien gentil, mais ça reste un marché trop limité.

Et le Cell, Sony a été tellement satisfait de son implémentation grand public pour sa PS3 qu'il est repassé sur du bon vieil x86 pour la PS4, au grand soulagement de tous les développeurs de jeux vidéos.
Citation :
Publié par Borh
Itanium, c'est l'exemple type qui montre que ça marche pas dans le sens où tu l'entends. Il n'y a jamais eu d'implémentation grand publique, et au final l'architecture est morte parce que le HPC, c'est bien gentil, mais ça reste un marché trop limité.

Et le Cell, Sony a été tellement satisfait de son implémentation grand public pour sa PS3 qu'il est repassé sur du bon vieil x86 pour la PS4, au grand soulagement de tous les développeurs de jeux vidéos.
On dit exactement la meme chose, on n'est juste pas d'accord sur "qui de l'oeuf ou la poule".

Dans le milieu du HPC, les vendeurs testent leurs nouvelles technologies, c'est la ou la R&D est faite. Et comme je l'ai dit plus haut, "le noeud du probleme est vraiment dans l'acceptation de ces nouveaux hardware par les devs". C'est dans le HPC que les futurs paradigmes de programmations sont testes, evalues, eprouves. C'est la qu'on parle des nouvelles normes multithreads et OpenMP, de la programmation "seamless" des Xeon Phi, etc.

Prend l'exemple du Cell : c'est dans le milieu du HPC que la recherche a ete faite pour rendre le systeme facilement programmable, et c'est parce que ca n'a jamais decolle la bas que l'architecture est morte. Le but du travail sur Cell n'etait pas tant que ca de porter des applications scientifiques sur Cell (il y en a eu - essentiellement a des fins de recherche), mais la grosse majorite des activites etaient des papiers de recherche sur la programmation Cell elle-meme. A ma connaissance ce n'est pas ce que les devs du JV ont fait - ils ont "simplement" du porter des applications sur ces cartes, et accessoirement ils en ont bave. Si le Cell avait fonctionne dans le HPC et qu'un bon standard de programmation/librairies avaient vu le jour, Sony et IBM auraient peut-etre continue dans cette voie.

Les progres en termes de performance, efficacite, etc... ne sont pas directement mis a disposition sur le marche grand public, ils sont d'abord testes et eprouves dans le HPC, car c'est un des marches ou la demande de performance est la plus forte.
Nan mais quand tu vois l'architecture x86 en général et ce qui équipe actuellement les plus gros supercalculateurs, bah c'est pas des architectures faites pour les HPC à la base. C'est des adaptations d'architectures grand public pour les HPC.
Et quand je vois ARM qui s'y colle maintenant, idem. C'est encore plus caricatural.
Citation :
Publié par Borh
Nan mais quand tu vois l'architecture x86 en général et ce qui équipe actuellement les plus gros supercalculateurs, bah c'est pas des architectures faites pour les HPC à la base. C'est des adaptations d'architectures grand public pour les HPC.
Et quand je vois ARM qui s'y colle maintenant, idem. C'est encore plus caricatural.
Ca depend de la perspective. Intel domine le marche du desktop, ARM domine le marche de l'embarque, Nvidia domine le marche de la visualisation. Donc ouais, tu peux dire que les incrementations CPU Intel (type Ivy Bridge -> Haswell) sont financees par le marche desktop par exemple. De meme que les incrementations des chips ARM sont financees par l'embarque. C'est indiscutable.

Mais je persiste et signe - le bac a sable des fondeurs est le HPC. Les technologies qui changeront le status quo actuel sur le marche desktop (et typiquement : le positionnement d'AMD, vu que c'etait le point de depart de la discussion) sont uniquement visibles dans le HPC aujourd'hui.

Edit : c'est comme la F1. C'est pas parce qu'il n'y a pas d'ailerons sur une Twingo que les technologies (freins, moteurs, cadre, etc.) developpes en F1 ne contribuent pas a developper des voitures de serie fiables et efficaces.

Dernière modification par Uvea l'exilé ; 02/07/2015 à 14h17.
L'architecture Zen pour l'année prochaine chez AMD c'est quand même plutôt sympa sur le papier.

Opteron Zen 32 cores suivant le prix , y'a surement moyen a petit échelle de venir emmerder Intel sur le Serveur pour la Virtualisation.

Reste a voir la déclinaison Desktop qui suivra.

AMD a toujours eu des hauts et des bas , et je me souvient que la Sortie du K6-2 mais surtout de l'Athlon 64 avait bien fait chié Intel a l’époque.
Dès la présentation officielle des spécifications, on savait que la RX 480 serait proche d'une GTX 970 et non d'une GTX 980.

Et certes, on trouve la 970 au même prix mais c'est parce que NVidia a sabré les prix en réaction.

Reste que c'est effectivement très décevant de la part d'AMD et très inquiétant pour l'avenir. Des rumeurs parlent d'un rachat de leur division Radeon par Intel et au point où on en est, je pense que ce serait une bonne chose.


Le seul truc intéressant qu'ait récemment sorti AMD, c'est la nano, mais elle est malheureusement trop chère et en quantité trop limitée.
Je serais un peu plus nuancé sur l'équivalence 970 et RX480. Déjà à prix équivalent elle a réellement 8Go de RAM contre 3,5 pour la 970, ensuite les drivers sont encore jeune alors que ceux de la 970 étant plus ancien laissent moins de marge d'évolution et surtout elle se débrouille mieux sur directx 12(elle dépasse la 980 en 1440p). Alors certes c'est moins bien que ce qui était annoncé mais elle reste quand même correcte.
La RX 480 de référence est vraiment pas bonne oui, faudra attendre les tests des premières customs (Sapphire et Asus sont les premiers à les avoir révélées) pour se faire une vraie idée.
Là avec le problème de conso + la chauffe que je trouve quand même incroyable pour une carte consommant si peu (80+°C sur certains tests) font que je la fuirai coute que coute
Message supprimé par son auteur.
En sabrant les prix de la 970, ils vont rapidement vider les stocks, vu que la carte est plus produite. D'où l'importance d'avoir une solution viable à long terme contre la RX 480 : la 1060.
Comme a dit Metalovichinkov, les versions customs sont à surveiller de près car en levant les limites de consommation de la carte et en augmentant de 5% la fréquence on gagne jusqu’à 10% de perf sur les cartes de référence (source).

Et les soucis de conso en PCI-E seront oublié par la même occasion avec les cartes customs car elles possèderont 8-broches au minimum.

Donc oui en effet la carte stock avec les brides d'AMD pour maintenir leur 150w max est très décevant en atteignant à peine les perf d'une 970, il ne reste plus qu'à patienter.

Dernière modification par Banish3d ; 01/07/2016 à 18h20.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés