Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)

Répondre
Partager Rechercher
Non mais arrêtez, vous mélangez tout, la bulle boursière les infrastructures.

Vous jouez vraiment à vous faire peur.

C'est quoi votre scénario ? La bulle IA explose et on de retrouve avec des datacenters ruinés ?

J'essaye justement de vous expliquer que les datacenters ont quasiment le ROI avant même le premier calcul.

Les datacenters, c'est sans doute de tout l'écosystème ce qui sera le moins impacté.

L'éclatement de la bulle IA, ça signifie la fin d'une multitude d'acteurs du marché, mais pas de l'infrastructure derrière, ni du marché lui-même, qui continuera de croître ensuite,utilisant cette même infrastructure.

La bulle, c'est celle de la spéculation. Faut être prudent.

L'infrastructure, cest l'inverse, c'est le tangible, la réalité durable derrière l'IA.

Imo, je pense que même si la bulle éclate, l'infrastructure va à peine freiner ou même pas du tout, afin de répondre aux besoins des survivants qui vont attirer massivement des capitaux.
Citation :
Publié par Ron Jeu Vidéo

J'essaye justement de vous expliquer que les datacenters ont quasiment le ROI avant même le premier calcul.
C'est le problème avec ton assertion. Elle est non prouvée. Oracle est en grand danger si la bulle IA pète dans les prochains mois, bien plus que les GAFAM+Nvidia imo, qui eux peuvent tanker quelques mois/année, le temps que le marché reprenne.
Donc si je résume, la capacité de datacenter n'est pas une bulle parceque même si les boites/projets IA coulent, ils ont quand même payé leurs prestataires 10 ans d'avance à la livraison... et osef si seulement 50% des capacités de calcul sont necessaires apres eclatement!

Hmmhm. Un peu comme toutes les villes construites lors des ruees vers l'or se sont épanouies sereinement sur le long terme parceque les mineurs avaient payé leurs chambres et fournitures pour les 10 annees suivantes.


Bon plus setieusement, le grand gagnant c'est Nvidia, c'est un peu l'équivalent des fabriquants de pelles en 1850. Pour le reste, la sélection naturelle fera le tri.
Ça rejoint la conclusion de cet article du nytimes sur le montage financier circulaire d'OpenAI :

Citation :
If the company can use its new data centers to significantly improve A.I. technologies and expand its revenue over the next several years, it can become a viable business, as Mr. Altman believes it will. If technology progress stalls, OpenAI – and its many partners – could lose enormous amounts of money. Smaller companies like CoreWeave, which are taking on enormous amounts of debt to build new data centers, could go bankrupt.
In some cases, companies are hedging their bets. Nvidia and AMD, for instance, have the option of reducing the cash and stock they send to OpenAI if the A.I. market does not expand as quickly as expected.
But others would be left with enormous debt, which could send ripples across the larger economy.
https://www.nytimes.com/interactive/...ing-deals.html

Avec des "si"...
Citation :
Publié par Xouthos
C'est le problème avec ton assertion. Elle est non prouvée. Oracle est en grand danger si la bulle IA pète dans les prochains mois, bien plus que les GAFAM+Nvidia imo, qui eux peuvent tanker quelques mois/année, le temps que le marché reprenne.
Oracle... mais ça c'est ce qui traîne comme argument partout sans aucune base solide.

La réalité du terrain, sources à l'appui :

https://www.jll.com/en-us/insights/m...-data-centers?

https://dgtlinfra.com/powered-shell-data-centers/

https://www.reuters.com/business/ene...rs-2024-05-07/

https://www.datacenterdynamics.com/e...irety-of-2024/

https://www.grantthornton.com/insigh...-depreciation?

Tu lis ça rapidement, t'as une vision assez claire du business des datacenters et tu comprends que si l'IA s'effondre, ce qui s'effondrera en dernier seront cette infrastructure de calcul.

Autrement dit, la bulle peut éclater, elle touchera surtout la spéculation, des milliards seront perdus, mais les survivants qui émergeront seront toujours autant en demande de puissance de calcul.
A un moment donné.

Tu crois ce que tu veux hein.

Mais Oracle était de base endetté et j'ai sourcer les endettement supplémentaires.

Si j en crois klaba 50% de la facture c'est des GPU.

Alors cisco, Aruba, ma boîte, cap ge, scaleway, OVH, Intel, Fortinet.
Bref tout les fournisseurs de hardware, de software, intégrateur, maître d oeuvre et exploitant.
Ils vont pas disparaitre, au pire ils scieront quelques branches.


La question a laquelle tu réponds pas.
C'est si les investissements s arrêtent, la solvabilité des gros consommateurs de GPU disparaît.

Quel est le marché qui va permettre au propriétaire de payer les factures des datacenters construit pour l IA.

La question que je pose est la c'est si c'est un bulle es-ce qu on est surcapacité.

Et pas de datacenter en général ron mais les nouveaux datacenter spécialisé sur l IA.

On va pas faire tourner les 90 % des services cloud sur du GPU ron...

Par contre, je pense qu on peut parler du marché immobilier américains si y a une bulle, des retraites des américains.
Mais aussi des Européens.
Et donc de la consommation.

Bref, ils ont intérêt à trouver une solution pour fournir les gains de productivité promis.

Les subprime c'est 5k milliards qui ont était évaporé au USA.
C'est ce que vaut NVIDIA a l heure actuelle, juste lui.

Dernière modification par ind ; 02/11/2025 à 21h00.
Citation :
Publié par Aloïsius
L'opinion de la plupart est effectivement que Nvidia est le mieux placé pour profiter de la bulle et pour survivre à son éclatement.
VTI + Nvidia + Apple

Le reste n'est que FOMO, on regarde monter mais on sait qu'il n'y a rien derrière.
Mon employeur nous interdit de produire du code de production (on peut faire nos scripts de coins de tables avec par contre) avec l'IA et honnêtement je suis bien content.
Non mais j'ai déjà expliqué : la bulle est spéculative.

Si elle explose, les datacenters ne seront pas en manque de clients pour autant.

Oracle ou pas Oracle osef. Et autres osef aussi.

Ce qui se passera c'est qu'une partie des capitaux de l'IA seront perdus, mais les géants survivants, ou nouvelle génération, utiliseront toute la puissance disponible et en demanderont toujours plus.

Ceux qui s'imaginent que l'infrastructure de calcul derrière sera une sorte de cimetière des datacenters abandonnés jouent à se faire peur.

C'est inutile, je vois pas l'intérêt à part ajouter un peu au catastrophisme ambiant.

Citation :
Publié par Cpasmoi
Mon employeur nous interdit de produire du code de production (on peut faire nos scripts de coins de tables avec par contre) avec l'IA et honnêtement je suis bien content.
Le maréchal ferrant face à la Ford T.
Citation :
Publié par Cpasmoi
VTI + Nvidia + Apple

Le reste n'est que FOMO, on regarde monter mais on sait qu'il n'y a rien derrière.
Mon employeur nous interdit de produire du code de production (on peut faire nos scripts de coins de tables avec par contre) avec l'IA et honnêtement je suis bien content.
Je pense quand même qu en cas de couac NVIDIA va prendre une correction énorme.

Cisco le 27 mars 2000 80 dollar ... 8.60 euro le 8 octobre 2002.

La on est a 73.11 dollar.

Es-ce que NVIDIA va connaître la même trajectoire ?

@ron tu a rien expliquer, c'est de la foi a ton niveau.
Et nous on affirme pas, on s interroge.

@Cpasmoi honnêtement j en sais rien puis Cisco est tjrs la, et il est un acteur majeur.
Citation :
Publié par Ron Jeu Vidéo

Le maréchal ferrant face à la Ford T.
Faut arrêter avec ça.
L'expérience de ton tetris a montré que l'IA était toujours incapable de coder proprement.
Des études ont été sourcé qui montrent que ça a tendance à faire perdre plus de temps à des séniors que l'inverse. Et de mon côté, le code pondu n'est tjs pas utilisable directement même en mâchant fortement le travail de l'IA... Du coup je suis largement plus rapide à faire mon code à la main...
Tu vas plus vite à la main avec, j'imagine, un IDE et quelques dizaines de modules, pas dans le bloc notes Windows
L'IA ne remplace pas un développeur mais nier que ça lui mâche énormément le travail c'est de la désillusion.

Puis soyons honnête sur son Tetris, il est arrivé à un meilleur résultat qu'espéré, càd un abandon.
Ron J n'est pas développeur et sans être handicapé de l'informatique c'est pas non plus un informaticien. Son Tetris est assez bon pour lui donner un BTS développement web, il a été fait en 4-5h et pas en 2 ans.
J'ai eu mon BTS en 2015, j'ai eu 20 en algorithmie et sur le projet de groupe. Mon projet? Une API REST sans interface web avec 4-5 appels différents, on l'a présenté avec JSON Viewer.

J'ai comme l'impression que vous vous touchez un petit peu à faire les élitistes qui recodent des algorithmes rachetés par les GAFAM tous les matins alors que bon, savoir faire un tri correct et mettre un switch case plutot que 14 if c'est déjà suffisant pour décrocher du boulot.

Dernière modification par Metalovichinkov ; Hier à 08h59.
Chacun voit midi à sa porte mais la principale utilisation de l'IA ce n'est pas le codage on a plutôt :

  • Génération de contenus pour la communication, les médias et la publicité
  • Automatisation des processus métiers (RH, finance, logistique, relation client) et des tâches administratives
Et au niveau personnel la principale utilisation de l'IA (en tout cas celle dont on parle le plus sur Reddit) c'est la psychothérapie.

Donc le codage on s'en fout un peu en fait...
Citation :
Publié par Metalovichinkov
L'IA ne remplace pas un développeur mais nier que ça lui mâche énormément le travail c'est de la désillusion.
Quand tu dois plus guider l'IA qu'un junior qui sort de son BTS avec son projet a 3 API rest pour un résultat pire que le junior, tu m'explique à quel moment ça me mâche le travail ?
Non mais avec mon tetris, j'ai surtout testé une contrainte : un fichier unique html. juste l'app de discussion. Le résultat est dingue, et comme tu le soulignes, je ne sais pas coder plus loin, qu'un hello world.

Ma branche de l'informatique, c'était de l'admin réseau début 2000, mais j'aimais pas vraiment, ce qui m'a toujours intéressé c'est de me faciliter la vie.
Mon plus haut fait c'etait de lancer un ghost pour dupliquer les machines sur un réseau. Parce que ça me simplifiait la vie. Voilà mon niveau de noob...

Si je prends Claude code, que je l'ouvre dans dans VS Code, en mode projet, il va me pondre un Tetris autrement meilleur. J'ai créé 36 "mini" jeux depuis, ça n'a de cesse de m'impressionner. Je pense que le seul truc qui m'empêche d'en faire un vrai business c'est que ça titille vraiment trop mon syndrome de l'imposteur.

Mais bon l'AGI arrive, ça finira par mettre tout le monde d'accord.

Un bon dev, ce sera alors de bien savoir parler à la machine pour lui faire sortir son meilleur. J'appelle ça le développement symbolique avec mes IA.
Citation :
Publié par Axoulotl08
Quand tu dois plus guider l'IA qu'un junior qui sort de son BTS avec son projet a 3 API rest pour un résultat pire que le junior, tu m'explique à quel moment ça me mâche le travail ?
Surement parce que t'es un mauvais prof. Et je dis ça sérieusement sans malice, tout le monde n'est pas prof, je ne le suis pas et j'aime pas ça.

Mais depuis 4 ans une partie de mon boulot c'est de rédiger des consignes pour des novices en informatique, ce qui me parait logique (exemple : faire un df pour vérifier que le FS est plein) prend une page et 3 captures d'écran dans la documentation. C'est hyper chiant parce que c'est un guide étape par étape où chaque clic ou chaque retour chariot est une étape, mais c'est à faire. Et je parle de la même manière à l'IA, je suis même impressionné qu'un programme comprenne aussi bien quand je suis approximatif.

Donc ouais, demander à l'IA de faire une fonction pour trier des données ça marchera pas il faut un cahier des charges complet, vraiment complet.
Lui demander de faire un tri de tel type dans tel langage pour gérer tel type de données, avec une sortie dans une variable construite de telle manière c'est déjà beaucoup plus long à écrire mais ça fonctionnera. Tu iras peut être plus vite avec de l'expérience et un IDE que tu connais bien mais plus vite qu'un junior? Un peu de sérieux, le junior fera pas ça en moins de 3 jours.
En tout cas pour les convaincu préparer vous a faire chauffer les CB.
OpenAI prépare sont introduction en bourse rien d officiel mais c'est le plan.

Oui sinon pour la doc c'est bien.

Moi je lui file 2/3k de code infra, il me génère une doc en 5 minutes que je mets trois heures a vérifier/tester/corriger.
A la fin je gagne du temps.

Et je rejoins meta sur le tri de données chose que je pratique régulièrement même si sur le fond je suis pas dev.
En 2 prompt tu a ta base sur le langage cible et après, tu passe quelques temps pour optimiser corriger.
Pareil pour analyser les crd d opérateur et je générer une base en helm.

Bref le plus long c'est de vérifier car tu a statistiquement forcément une belle connerie dans la rendu.

Par contre, pour le pilotage en temps réel la ca coince atm.

Dernière modification par ind ; Hier à 09h27.
pour sortir du Mylife et revenir au sujet

Harris Kupperman, a hedge fund founder, said in a blogpost in August that datacentres will depreciate twice as fast as the revenue they generate.

extrait traduit, évidemment par une IA
Citation :
De quoi est fait un datacenter ? Trois éléments principaux : le bâtiment et le terrain, qui représentent environ un quart du coût total ; les systèmes électriques, le câblage, le refroidissement, les racks, etc., pour environ 40 % ; et enfin les GPU, qui comptent pour les 35 % restants. Je suis probablement à quelques pourcents près, mais je m’appuie sur l’IA, et on sait tous qu’elle est encore loin d’être parfaite.

Je pars du principe que le bâtiment s’amortit sur 30 ans, que les puces deviennent obsolètes en 3 à 5 ans, et que le reste tient en moyenne une dizaine d’années. Disons donc une courbe d’amortissement moyenne sur 10 ans pour un datacenter IA. Ce qui nous amène à une première révélation assez brutale : les datacenters IA construits en 2025 vont encaisser 40 milliards de dollars de dépréciation annuelle, pour un chiffre d’affaires situé quelque part entre 15 et 20 milliards. Autrement dit, la dépréciation est deux fois supérieure aux revenus.

Et c’est là que ça se complique : il n’y a pas de marge brute dans le jeu de l’IA. On donne littéralement la technologie, et parfois on récupère cinq centimes pour chaque dollar distribué. Calculée en marge brute, on serait à -1900 %. C’est le prix à payer pour favoriser l’adoption et accrocher les clients. Le capital-risque connaît bien ce modèle, tant que le retour sur capital investi (ROIC) finit par devenir positif.

Sans données solides, je vais faire une hypothèse optimiste : les marges finiront par devenir positives, et grimperont lentement vers 25 %. Pourquoi 25 % ? Aucune idée. Ça semble raisonnable, vu le coût de l’électricité et celui des techniciens surqualifiés nécessaires pour faire tourner tout ça. Honnêtement, personne ne sait où les marges finiront par se stabiliser, alors partons là-dessus pour faire quelques calculs simples.

La vraie question : combien de revenus faut-il pour couvrir la dépréciation d’un datacenter IA ? Si on vise une marge brute de 25 %, il faut 160 milliards de revenus pour générer 40 milliards de marge brute, soit l’équivalent de la dépréciation. Or, aujourd’hui, les revenus tournent autour de 15 à 20 milliards. Il faudrait donc multiplier les revenus par dix, juste pour atteindre le seuil de rentabilité.

Mais personne ne lance une activité pour simplement atteindre l’équilibre. Pour une technologie aussi nouvelle, avec un risque d’obsolescence aussi élevé, quel ROIC non levé exigerait-on ? 20 % ? Ce serait déjà dilutif pour les gros investisseurs en capital. Même avec ce ROIC dilutif, il faudrait 480 milliards de revenus IA pour atteindre le rendement cible.
Citation :
Publié par ind
En tout cas pour les convaincu préparer vous a faire chauffer les CB.
OpenAI prépare sont introduction en bourse rien d officiel mais c'est le plan.
Il va surtout falloir faire chauffer la CB pour tous ceux qui veulent continuer à utiliser leurs services.
Visiblement ils perdent des sommes colossales (11 Millards, une paille) chaque trimestre si l'on en croit le rapport financier de Microsoft qui révèle une perte de plus de 3 milliards (pour 27% des parts dans OpenAI)
https://www.tomshardware.fr/openai-e...marche-de-lia/
Ils perdent en un trimestre plus que leur CA annuel ...

Je sais bien qu'avec l'argent magique de la bourse ils peuvent continuer un moment en théorie, mais il va sûrement falloir qu'ils fassent quelque chose rapidement pour limiter le désastre.
A ce rythme ça ferait 45 Milliards d'envolés sur une année, c'est intenable pour eux.
Ils ne sont pas Google ou Meta qui peuvent taper dans un magot immense pour combler les trous et continuer à agrandir leur marché à perte.

Logiquement on peut s'attendre à une explosion du prix des abonnements pour les particuliers comme pour les entreprises.
Alors si l objectif (rumeur) qui est atteint de 1k milliards de valorisation.

C'est pas le problème des investisseurs , ils auront fait une joli culbute quoi qu il arrive.

Assez pour récupérer leurs mises initiale et rester dedans.

Et ça laisse a open la possibilité de cramer un certains temps bcp de cash.
Dois-je rappeler que la valorisation de l'entreprise n'a pas forcément grand chose avec le pognon qui est rentré dans les caisses de la boite via la bourse ?
Par exemple toutes les actions des fondateurs ou de ceux qui en ont acheté dès le départ ont peut-être fait x100 ou x1000, ça n'aura rapporté à la boite que la mise initiale, c'est à dire vraiment pas grand chose.
OpenAI ne peut qu'émettre de nouvelles actions pour se faire du cash, tout le reste lui échappe complètement.
Pas sûr qu'ils trouvent énormément de monde qui accepte d'injecter des sommes colossales d'argent frais dans une boite qui promet uniquement des pertes abyssales.

Je parle de la boite en elle-même qui n'est pas viable du tout en l'état et qui va surement devoir augmenter drastiquement ses prix pour les consommateurs.
Que les investisseurs antérieurs récupèrent leur mise initiale avec un gros bénéf en cadeau grâce aux pigeons qui rachètent leurs actions au prix fort je n'en ai aucun doute.
C'est le principe de la bourse : les gros plument les petits, surtout ceux qui investissent trop tard.
Citation :
Publié par Metalovichinkov
J'ai comme l'impression que vous vous touchez un petit peu à faire les élitistes qui recodent des algorithmes rachetés par les GAFAM tous les matins alors que bon, savoir faire un tri correct et mettre un switch case plutot que 14 if c'est déjà suffisant pour décrocher du boulot.
Pas en 2025.
Répondre

Connectés sur ce fil

2 connectés (1 membre et 1 invité) Afficher la liste détaillée des connectés