[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Le M1 est un processeur ARM, ca n'a pas grand chose à voir avec un X86 comme les Amd et Intel. En plus de ne pas être compatible.

Le plus important pour le M1 c'est le 5 nm. Et çà, Amd et Intel, finiront par l'avoir mais quand ? Car c'est ca qui permet des perfs supérieure et une consommation moindre. Mais c'est plus facile à obtenir sur un processeur de type ARM que X86.
Apple parce que c'est Apple a réussi à négocier la primeure du process 5nm de TSMC. Et il y a pas encore de laptop basé sur Zen 3, AMD a préféré prioritiser les CPU desktop.

Imo faudra voir quand on aura des laptop avec du Zen en 5nm pour pouvoir évaluer clairement l'avance technologique d'Apple.

L'immense avantage des CPU ARM, depuis toujours, c'est les performances énergétiques. Pas pour rien que les consoles portables sont basées sur de l'ARM mais pas les consoles de salon.
Mais je suis curieux de voir ce qu'Apple va faire pour ses iMacs et ses Mac Pro. Je ne suis pas certain qu'ils aient d'autres marges pour augmenter la puissance que de multiplier les cores, et c'est une stratégie qui ne va pas répondre à toutes les problématiques, toutes les charges CPU ne sont pas massivement parallélisables.

Dernière modification par Borh ; 26/11/2020 à 10h37.
Citation :
Publié par Anngelle Silverstar
Il y a un petit peu de stock sur certaines RTX 3090 chez Cybertek pour les intéressés.
A quasiment 2000€
J'aime bien Cybertek, ils sont cools. Ils m'ont même filé un code pour Far Cry 6 alors que j'avais acheté mon CPU avant l'événement.

Mais niveau prix c'est un peu c'est un peu abusé, ils sont parfois plus cher que LDLC (faut le faire!).
Citation :
Publié par Crowzer
A quasiment 2000€
J'aime bien Cybertek, ils sont cools. Ils m'ont même filé un code pour Far Cry 6 alors que j'avais acheté mon CPU avant l'événement.

Mais niveau prix c'est un peu c'est un peu abusé, ils sont parfois plus cher que LDLC (faut le faire!).
Pour les frais occasionnés pour te donner le code pour Far Cry 6 !
... Et le café du PDG !
Citation :
Publié par Borh
Apple parce que c'est Apple a réussi à négocier la primeure du process 5nm de TSMC. Et il y a pas encore de laptop basé sur Zen 3, AMD a préféré prioritiser les CPU desktop.

Imo faudra voir quand on aura des laptop avec du Zen en 5nm pour pouvoir évaluer clairement l'avance technologique d'Apple.

L'immense avantage des CPU ARM, depuis toujours, c'est les performances énergétiques. Pas pour rien que les consoles portables sont basées sur de l'ARM mais pas les consoles de salon.
Mais je suis curieux de voir ce qu'Apple va faire pour ses iMacs et ses Mac Pro. Je ne suis pas certain qu'ils aient d'autres marges pour augmenter la puissance que de multiplier les cores, et c'est une stratégie qui ne va pas répondre à toutes les problématiques, toutes les charges CPU ne sont pas massivement parallélisables.
En tout cas, dans Canard Hardware il y a un test d'un proto iMac ARM et ils disent clairement que les perfs sont meilleures que sur un Intel, y compris en interprété x86-X64 :/
Citation :
Publié par Aloïsius
Une bonne nouvelle n'arrive jamais seule : le prix des alimentations va encore grimper : https://www.tomshardware.fr/les-cout...ions-impactes/
Tripler le coût des certifications, ils sont gonflés. Les salopards sont partout !
Ils ont vu que ça partait comme des petits pains et ils ils se la jouent apple ?
J'ai bien fait de m'en prendre une nouvelle pour la 3080.

Sinon, je crois que AMD m'a envoyé un monstre au lieu d'un 3700X :

3700X_Monster.png

Il passe les tests pour 4400MHz à 1,25v et le passe même à 1,244v. Ca n'a aucun sens

Et les températures sont dingues avec le bloc CPU Bykski. Même pas 60°C en burn à 4400Mhz, ça le fait !
Citation :
Publié par Borh
Apple parce que c'est Apple a réussi à négocier la primeure du process 5nm de TSMC. Et il y a pas encore de laptop basé sur Zen 3, AMD a préféré prioritiser les CPU desktop.

Imo faudra voir quand on aura des laptop avec du Zen en 5nm pour pouvoir évaluer clairement l'avance technologique d'Apple.

L'immense avantage des CPU ARM, depuis toujours, c'est les performances énergétiques. Pas pour rien que les consoles portables sont basées sur de l'ARM mais pas les consoles de salon.
Mais je suis curieux de voir ce qu'Apple va faire pour ses iMacs et ses Mac Pro. Je ne suis pas certain qu'ils aient d'autres marges pour augmenter la puissance que de multiplier les cores, et c'est une stratégie qui ne va pas répondre à toutes les problématiques, toutes les charges CPU ne sont pas massivement parallélisables.
J'sais pas à quel point ça joue, mais le fait que les applications sont de plus en plus codées n'importe comment ruine pas les avantages des processeurs CISC?

Si la moitié des instructions ne sont pas utilisées, ça expliquerait (en partie) pourquoi Apple défonce tout avec le M1.
Par contre, le système de refroidissement réfrigérant me semble intéressant puisque la présentation semble montrer que le circuit de refroidissement parcourt une grande partie du boîtier. On peut donc imaginer un refroidissement tout le long du flux d'air. Si on peut avoir de nouvelles gens de boîtiers équipés, ce serait cool.
Citation :
Publié par Aloïsius
Une bonne nouvelle n'arrive jamais seule : le prix des alimentations va encore grimper : https://www.tomshardware.fr/les-cout...ions-impactes/
En vrai, l'impact sera vraiment minime.

Actuellement, le 80+ sur une alim, c'est $2000 divisé par le nombre d'alim produite. Donc si tu fais 20 000 alim, le 80+ représente $0.10 par alim.
Avec l'augmentation à $6000, pour le même nombre d'alim, ça représentera $0.30 par alim, soit une augmentation de $0.20 par alim.
Répercuter le surcoût ne va pas réellement changer grand chose. Mais ça fera quitter les prix stratégiques ($69.99, $89.99, etc). Du coup, il est plus probable qu'ils l'absorbent.

Et c'est sur le principe de seulement 20 000 alim par série/puissance. Si c'est en fait 100 000, il faut diviser par 5. Si au contraire, c'est seulement 2 000, il faut multiplier par 10, on a alors une augmentation de $2 et un sérieux besoin de reconsidérer l'utilité de produire aussi peu et/ou de renouveler le produit aussi souvent.

Dans tous les cas, l'impact n'est pas si gros. La réaction est légèrement disproportionné.
D'accord, le fait d'augmenter d'un coup aussi fortement le coût peut paraitre un peu abusif, mais le 80+ est devenu depuis des années un véritable argumente de vente. Je me rappelle il n'y a pas si longtemps (ça se compte en années tout de même) une alim être déconseillée ici car elle n'était pas 80+ (alors même qu'elle avait toutes les caractéristiques pour et une certification équivalente). Et je n'ai jamais vu depuis une alim non 80+ être abordée ici.
Du coup, je ne pense pas que l'augmentation soit exagérée par rapport à l'importance que le 80+ a aujourd'hui dans la vente des alim. Je pense même que le principal problème de cette importante augmentation était que le tarif actuel était bien trop bas (est-ce que c'était un tarif faible pour aider à installer la certif ? est-ce que c'était parce que les tests réalisés avant étaient moins poussés ? on est tout de même passé du seul 80+ au 80+ bronze-gold puis platinum puis titanium).
Il y a 10 ans, on conseillait encore 80+ minimum, puis bronze. Depuis 2-3 ans, le Gold est devenu plus qu'abordable et on le conseille plus volontier. Au passage, on a zappé la certification Silver.
En parallèle du Gold, le Platinum a fait l'objet de pas mal de promos avant la crise Covid, ce qui fait des Gold/Platinum les certifs les plus prisées.
Alors que dans les pré-montés on est passé à peine de 80+ à 80+ Bronze, et pas tous. J'imagine que l'impact du prix est plus significatif pour les grosses productions que pour nous.
@Borh tu penses quoi d'un 3700X qui s'overclock à 4.4GHz pour 1,24v sans broncher (même sous prime95 smallest FFTs en-dessous de 80°C) et tient 4.5GHz à 1.29v et possiblement 1.28v ?

Je vais tester le 4.4GHz à 1.23v, mais je sens que je vais atteindre la limite. Par contre, j'ai tenté le 4.6GHz à 1.32v et ce n'est pas passé. Vu que 1.32v est la limite conseillée pour du H24 avec les Zen2, je n'ai pas cherché plus loin.
https://www.cowcotland.com/news/7431...tomineurs.html

Les cryptomineurs pourraient être responsables d'une part de la pénurie et d'une possible hausse des prix à venir. Pour rappel, ces gens brûlent du charbon pour fabriquer de "l'argent" bidon qui n'a d'autres utilité que de foutre le bordel dans l'économie et éventuellement faciliter les fraudes, rackets et arnaques. On me dira que les jeux vidéos ne servent à rien, mais au moins ils n'ont pas pour objectif d'emmerder le monde.
Citation :
Publié par Aloïsius
Les cryptomineurs pourraient être responsables d'une part de la pénurie et d'une possible hausse des prix à venir.
Ce n'est pas à cause des cryptomineurs, c'est Nvidia qui a sciemment et directement préféré vendre des die aux cryptomineurs que de les envoyer aux AIB/fabriquer des FE pour fournir son marché principal. Donc ils ont eux-même causé une pénurie importante. Ce n'est pas comme si les cryptomineurs avaient achété les cartes via bot ou moyens détournés pour acquérir les cartes (genre en passant par les grossistes/revendeurs), c'est Nvidia qui les ont directement fourni
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés