Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)

Répondre
Partager Rechercher
En fait je ne suis pas vraiment d'accord avec ça, c'est sur les niches que les IA sont les meilleures, car les niches sont spécialisées. Par exemple on a entraîné des IA à optimiser le placement des composants sur des cartes électroniques et elles sortent des arrangements ultra efficaces qui laissent les ingénieurs complètement ahuris. On utilise des IA pour la recherche sur les protéines etc.

Les LLMs c'est juste un gadget pour faire du leetcode.

Citation :
Publié par Caniveau Royal
Comment elle répond à ta requête, si elle ne comprend pas ta requête ?
Comment sélectionne t-elle des résultats pertinents en rapport avec ce que tu lui demandes, si elle ne peut pas évaluer des choses ?
Et comment les évalue t-elle si elle ne sait pas décider si elle doit porter crédit à quelque-chose ou non, et sur la base de quoi ?
D'une prédiction [typiquement sur des valeurs], d'une classification [sur des types] ?

Si tu demandes de dessiner un vol d'oiseaux dans le ciel, il va bien falloir qu'elle choisisse ce qui appartient aux deux familles, si larges et vagues qu'elles soient.
Ça ne se fait pas par magie.
Elle n'évalue rien, elle ne fait que prédire le prochain mot basé sur une suite de mots reçus.


Citation :
Un peu quant tu humanise le comportement d un animal, c'est un biais.
Hey mon chat m'aime OK ?

Dernière modification par Cpasmoi ; 09/06/2025 à 15h29. Motif: Auto-fusion
Citation :
Publié par Caniveau Royal
Une image générée, c'est 287 Wh. [Soit 17 minutes de radiateur électrique dans une chambre donne en comparaison un lecteur du Monde]
La génération d'image semble ne pas consommer tant d'énergie en comparaison avec celle de texte





Plus précisément en cherchant dans l'article qui semble faire autorité

We did the math on AI’s energy footprint. Here’s the story you haven’t heard", MIT Technology Review

Citation :
Generating a standard-quality image (1024 x 1024 pixels) with Stable Diffusion 3 Medium, the leading open-source image generator, with 2 billion parameters, requires about 1,141 joules of GPU energy. With diffusion models, unlike large language models, there are no estimates of how much GPUs are responsible for the total energy required, but experts suggested we stick with the “doubling” approach we’ve used thus far because the differences are likely subtle. That means an estimated 2,282 joules total. Improving the image quality by doubling the number diffusion steps to 50 just about doubles the energy required, to about 4,402 joules. That’s equivalent to about 250 feet on an e-bike, or around five and a half seconds running a microwave.

That’s still less than the largest text model.
https://archive.is/2025.06.06-160122...rint-big-tech/


4402 joules converti en watt heure = 1.2 Wh


C'est dans l'ordre de grandeur de la réponse au commentaire que tu cites
Citation :
Il y a une grave erreur méthodologique pour la consommation estimée de génération d'images. Vous vous reposez sur l'AI Energy Score, mais ce benchmark estime une consommation en Wh pour 1000 requêtes. Vérifiez vous-même sur leur site. Donc votre chiffre de 287 Wh correspond à 1000 générations d'image.


Outre le texte ce qui consomme énormément d'énergie c'est évidemment la vidéo...


et en plus les serveurs d'intelligence artificielle utilisent de l'électricité particulièrement sale
Citation :
One preprint study from Harvard’s T.H. Chan School of Public Health found that the carbon intensity of electricity used by data centers was 48% higher than the US average.
Le problème vient du fait qu'ils sont situés aux états-Unis dans des états ou l'électricité provient largement du charbon d'une part et d'autre part de la consommation qui se fait également de nuit et en hiver au moment ou les énergies renouvelables ne produisent pas.


Et puis il y a ce gros port de Musk qui utilise des turbines à gaz géantes en plein milieu urbain pour entraîner Grok.


Sur le fil des énergies j'ai aussi fait un post sur le problème des harmoniques https://forums.jeuxonline.info/p/31596169

Dernière modification par znog ; 09/06/2025 à 17h22.
Apple a sortie une étude sur les LLM (avec raisonnement) qui confirme un peu plus que les performances s'effondrent en fonction de la complexité des tâches demandés. En l'espèce, les performances des LLM d'OpenAI, Anthropic et DeepSeek s'effondrent sur les tâches "complexes" :
Citation :
The paper in question, The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity, is certainly interesting. It systematically probes so-called Large Reasoning Models (LRMs) like Claude 3.7 and DeepSeek-R1 using controlled puzzles (Tower of Hanoi, Blocks World, etc.), instead of standard math benchmarks that often suffer from data contamination.

The results? LRMs do better than their LLM cousins at medium complexity tasks, but collapse just as hard on more complex ones. And worse, as tasks get harder, these “reasoning” models start thinking less, not more, even when they still have token budget left to spare. [...]

The headline takeaway is that models marketed for “reasoning” still fail on problems a patient child can master. In the Tower of Hanoi, for example, models like Claude and o3-mini fall apart after seven or eight disks. And even when given the exact solution algorithm and asked to simply follow it, performance doesn’t improve.

In other words, they aren’t reasoning, but rather iteratively extending LLM inference patterns in more elaborate ways. That distinction matters, and it’s the real value of the Apple paper. The authors are pushing back on loaded terms like “reasoning” and “thinking,” which suggest symbolic inference and planning when what’s actually happening is just a layered pattern extension: the model runs multiple inference passes until it lands on something that sounds plausible.

This is not exactly a revelation. Meta’s AI Chief Yann LeCun has long claimed that today’s LLMs are less smart than house cats, and has been vocal that AGI won’t come from Transformers. Subbarao Kambhampati has published for years about how “chains of thought” don’t correspond to how these models actually compute. And Gary Marcus, well, his long-held “deep learning is hitting a wall” thesis gets another feather in its cap.

The study’s most damning data point might be this: when complexity goes up, models literally stop trying. They reduce their own internal “thinking” as challenges scale, despite having plenty of compute budget left. This isn’t just a technical failure, but rather a conceptual one.

What Apple’s paper helps clarify is that many LLMs aren’t failing because they “haven’t trained enough” or “just need more data.” They’re failing because they fundamentally lack a way to represent and execute step-by-step algorithmic logic. And that’s not something chain-of-thought prompting or reinforcement fine-tuning can brute-force away.

To quote the paper itself: “LRMs fail to use explicit algorithms and reason inconsistently across puzzles.” Even when handed a solution blueprint, they stumble.

Source : https://9to5mac.com/2025/06/09/apple...soning-models/
Citation :
Publié par znog
Le papier d'Apple a le mérite de recadrer la perception du grand public mais il ne dit rien que l'on ne savait déjà ?
Quand le papier sort d'une boite dans le top5 des capitalisations boursières, pendant leur conférence annuelle des développeurs, ça un un peu plus de poids que quand c'est affirmé par Jean Michel, random posteur sur JoL ou son blog perso
Alors oui c'est un bel argument d'autorité, mais bon.
Un résumé des dernières étrangetés des LLM observées par les chercheurs. Ne vous fiez pas trop au titre clickbait.

Je crois qu'on a déjà parlé des LLM qui vous dénonce aux flics, des LLM qui font du chantage, mais le prompt injection dans les images, c'est nouveau pour moi.

Enfin, j'ai beaucoup aimé le dernier cas : les deux AI qui discutent entre elles et finissent par causer métaphysique et harmonie cosmique universelle, comme deux hippies new age après un shot de psilocybine.
On voit de plus en plus d'articles qui relève des gens vulnérables qui sont rendus parano délirants... par l'utilisation de chatGPT
Citation :
“What does a human slowly going insane look like to a corporation?” Mr. Yudkowsky asked in an interview. “It looks like an additional monthly user.”
https://www.nytimes.com/2025/06/13/t...-android-share


Ce phénomène semble notamment venir du fait que l'apprentissage par renforcement utilisé vise à prolonger à tout prix l'interaction avec le chatbot


Screenshot_20250615_080304_X.jpg
https://x.com/ESYudkowsky/status/192...390282574?s=19


Une utilisation amusante
hey-chat-my-pilot-died-and-i-need-to-bring-the-plane-down-v0-8sr3jvwrcf5f1.jpg
Pour les épisodes suivants, et prenez soin de lire le premier post en réponse
https://www.reddit.com/r/ChatGPT/com..._to_bring_the/
Une étude du MIT vient de sortir (note : juste publiée, pas encore de peer review) au sujet de l'impact sur les capacités cognitives des utilisateurs de ChatGPT : lien vers l'article dans TIME

En résumé quelques points :
- Plus on avance dans le temps et moins les utilisateurs se font chier et se contentent de faire des C/C sans réfléchir au résultat des requêtes
- Pour les plus jeunes utilisateurs, cela dégrade leur courbe d'apprentissage et n'aide pas (au contraire) au développement du cerveau
- Une étude résumée dans l'article a mené 3 groupes d'étudiants à produire des dissertations : un groupe avec ChatGPT ; un groupe sans outils (ni ChatGPT ni google) ; un groupe avec google search et sans ChatGPT. Je vous laisse lire les résultats et ne pas tout vous mâcher (surtout si vous lisez avec ChatGPT... ) ^^
- Des utilisateurs de RS ont été grillés à utiliser des LLM pour résumer l'étude (grâce à la bonne technique du "ne lis que le tableau suivant"), et la LLM a même inventé la version de ChatGPT de l'étude alors que ce n'était précisé nulle part
- Les chercheurs travaillent sur un autre papier sur l'utilisation de l'IA dans... La programmation (ça rappelle quelque chose ? ) et que les résultats sont (oh comme c'est étonnant) encore pires

En très résumé, l'étude indique que cela fragilise les capacités cognitives et l'esprit critique des utilisateurs réguliers qui ne compte "que" sur l'IA. En revanche cela indique bien que si c'est un outil utilisé avec parcimonie c'est utile (Cf. résultat de la 2è partie de l'étude) - mais il ne faut pas que ce soit au détriment du développement de celui qui l'utilise.
Mon père était chimiste, il est à la retraite depuis vingt ans, mais il aime réfléchir au captage du CO2.
Sur son téléphone portable il a installé un logiciel d'IA qui lui coûte 5€ la semaine, et il en est très content. Il me dit :

- Je lui donne des valeurs, il me fait des calculs et m'aide.
- Comment sait-il quelles formules il faut appliquer avec quels paramètres, quand et sous quelles conditions, pour obtenir quoi et en faire quoi ensuite ?
- Oh, mais ça je m'en fous ! Il se débrouille ! Mais il y arrive... !
(en tant qu'informaticien, j'aimerais bien savoir, parce que si la magie noire j'aime pas - les programmes qui devraient marcher mais ne fonctionnent pas inexplicablement -, la magie blanche - ça marche, mais on sait pas pourquoi ni comment - je ne l'aime pas plus...)

- Mais quand même, me dit-il, parfois, il raconte des conneries. Alors je lui dis : "Tu te trompes.". Il me répond : "Désolé Monsieur... Vous avez parfaitement raison et je prends en compte votre remarque.". Et il corrige.

Bon... Je reste sceptique.

Maintenant, Issy-les-Moulineaux, c'est à eux de voir.
Si une personne frappée d’illectronisme, d’illettrisme ou de n'importe quelle autre condition qui la prive de son sens critique et de la capacité de détecter qu'on lui répond quelque-chose de faux ou d'inapproprié, qu'elle réalise ce que l'IA lui a recommandé et que cela lui nuit, la responsabilité de la commune sera bien engagée à mon avis. Un/une humain(e) au téléphone aurait mieux pris la mesure de la situation de l'appelant et y aurait donné meilleure réponse.

Dans le cas de mon père, il utilise en connaissance qu'il doit contrôler tout ce qu'on lui répond. Mais certainement il s'est déjà fait piégé, prenant pour vraies des choses fausses. Qu'importe, il l'accepte.
Alors que l'appelant d'Issy-les-Moulineaux, il a confiance par principe sur ce qu'on va lui dire qu'il pense venir d'une personne faisant autorité.
Citation :
Publié par Caniveau Royal
Mon père était chimiste, il est à la retraite depuis vingt ans, mais il aime réfléchir au captage du CO2.
Sur son téléphone portable il a installé un logiciel d'IA qui lui coûte 5€ la semaine, et il en est très content. Il me dit :

- Je lui donne des valeurs, il me fait des calculs et m'aide.
- Comment sait-il quelles formules il faut appliquer avec quels paramètres, quand et sous quelles conditions, pour obtenir quoi et en faire quoi ensuite ?
- Oh, mais ça je m'en fous ! Il se débrouille ! Mais il y arrive... !
(en tant qu'informaticien, j'aimerais bien savoir, parce que si la magie noire j'aime pas - les programmes qui devraient marcher mais ne fonctionnent pas inexplicablement -, la magie blanche - ça marche, mais on sait pas pourquoi ni comment - je ne l'aime pas plus...)

- Mais quand même, me dit-il, parfois, il raconte des conneries. Alors je lui dis : "Tu te trompes.". Il me répond : "Désolé Monsieur... Vous avez parfaitement raison et je prends en compte votre remarque.". Et il corrige.

Bon... Je reste sceptique.

Maintenant, Issy-les-Moulineaux, c'est à eux de voir.
Si une personne frappée d’illectronisme, d’illettrisme ou de n'importe quelle autre condition qui la prive de son sens critique et de la capacité de détecter qu'on lui répond quelque-chose de faux ou d'inapproprié, qu'elle réalise ce que l'IA lui a recommandé et que cela lui nuit, la responsabilité de la commune sera bien engagée à mon avis. Un/une humain(e) au téléphone aurait mieux pris la mesure de la situation de l'appelant et y aurait donné meilleure réponse.

Dans le cas de mon père, il utilise en connaissance qu'il doit contrôler tout ce qu'on lui répond. Mais certainement il s'est déjà fait piégé, prenant pour vraies des choses fausses. Qu'importe, il l'accepte.
Alors que l'appelant d'Issy-les-Moulineaux, il a confiance par principe sur ce qu'on va lui dire qu'il pense venir d'une personne faisant autorité.
Je ne saurais mieux dire. Travaillant souvent à l'accueil d'un service municipal, je dois prendre soin de ce que je réponds aux gens à la recherche d'infos, quitte à les orienter vers une page en particulier du site internet de la mairie (assez surprenant le nombre de personnes ignorant l'existence du site internet de la mairie ou celui de la communauté d'agglomération ! )
Citation :
Publié par Bardiel Wyld
En résumé quelques points :
- Plus on avance dans le temps et moins les utilisateurs se font chier et se contentent de faire des C/C sans réfléchir au résultat des requêtes
On voit ça clairement avec les étudiants, en 2023 ils prenaient avec des pincettes la sortie des LLMs et reformulaient (lettres de motivation, rapports, code, etc.).
Maintenant on a des gros copiés-collés, je n'ai jamais reçu autant de code qui ne compile pas que depuis que les étudiants essaient de tout faire sans réfléchir.
Idem sur les soutenances où certains sont incapables de répondre à certaines questions portant sur leur rapport de stage.
On reçoit aussi des lettres de motivation du style "Je suis ravi de candidater dans [insérer le nom de l'employeur]", au moins c'est rapide à lire.
En fin de copie une pote prof d'anglais a eu le plaisir de lire un bon "Let me know if you'd like a simpler version or a version adapted of speaking or presentation" sans aucun rapport avec le texte ...
Haha bordel le niveau du débat public sur l'IA en France, en invitant Laurent Alexandre :


J'avais l'impression de lire Ron en mode plus extrême.

Laurent Alexandre qui résume l'intelligence à la somme des connaissances dont a été entraîné les modèles et qu'il se sentait obsolète parce que les modèles ont infiniment plus de connaissances médicales que lui, en balayant du revers de la main la question de la contextualisation de ces connaissances. de l'expérience empirique, et de la qualité des connaissances en question.

Il a même osé sortir que les derniers modèles de LLM sont aussi bons que le top 50 mondial des développeurs
On retrouve des comportements qu'on voyait chez les antivax :
  • Ceux qui n'en sont pas adeptes sont déclarés cons, déclassés, obsolètes, etc.
  • On ne peut pas expliquer véritablement pourquoi c'est fiable, alors quand on le demande on vous renvoie sur des pages web qui ne vous expliquent pas davantage (cf. ci-dessous, que son émetteur n'a pas lu) ou qui ont des vidéos ou liens de personnes convaincues elles aussi. But du jeu : noyer le poisson et égarer.
104014-1750336692-5597.png

  • Et en cas de contestation sur ses capacités, la qualité ou l'exactitude de créations/générations, une propension à élever la voix, voire à s'énerver très vite.
On tombe dans la conviction religieuse de nouveau et le sectarisme.
Citation :
Publié par Caniveau Royal
- Je lui donne des valeurs, il me fait des calculs et m'aide.
- Comment sait-il quelles formules il faut appliquer avec quels paramètres, quand et sous quelles conditions, pour obtenir quoi et en faire quoi ensuite ?
- Oh, mais ça je m'en fous ! Il se débrouille ! Mais il y arrive... !
Généralement, pour ce genre de calculs, il est très convaincant mais fait en fait n'importe quoi mdr
Pour arriver à quelque chose de bon, il faut y aller pas à pas, lui demander quels algo utiliser etc.


Citation :
Publié par kermo
On voit ça clairement avec les étudiants, en 2023 ils prenaient avec des pincettes la sortie des LLMs et reformulaient (lettres de motivation, rapports, code, etc.).
Maintenant on a des gros copiés-collés, je n'ai jamais reçu autant de code qui ne compile pas que depuis que les étudiants essaient de tout faire sans réfléchir.
Idem sur les soutenances où certains sont incapables de répondre à certaines questions portant sur leur rapport de stage.
On reçoit aussi des lettres de motivation du style "Je suis ravi de candidater dans [insérer le nom de l'employeur]", au moins c'est rapide à lire.
Ca reste un problème d'utilisateur, si tu demandes à ChatGPT de te coder un truc et que tu copie-colle tel quel, ça marchera pas à coup sûr. Il faut prendre le code, le compiler, lui renvoyer les éventuelles messages d'erreur, lui demander des cas de tests etc.
C'est plus long et complexe que de copier coller direct ce que donne ChatGPT, mais ça reste beaucoup plus rapide que de tout coder.
Perso, j'ai codé des trucs en python pour automatiser des tâches (suppression de message par exemple), j'ai galéré un peu et ça ne marchait pas du premier coup, j'y ai passé 2-3h pour que ça finisse par marcher, mais à la fin, ça marchait.
Et ce alors que j'ai jamais codé en Python lol, j'aurais mis des mois pour réussir à faire ça sans ChatGPT et j'aurais ptet même surement abandonné en cours de route.

Dernière modification par Doudou Spuiii ; 19/06/2025 à 16h03.
Citation :
Publié par Bardiel Wyld
Une étude du MIT vient de sortir (note : juste publiée, pas encore de peer review) au sujet de l'impact sur les capacités cognitives des utilisateurs de ChatGPT : lien vers l'article dans TIME

En résumé quelques points :
- Plus on avance dans le temps et moins les utilisateurs se font chier et se contentent de faire des C/C sans réfléchir au résultat des requêtes
- Pour les plus jeunes utilisateurs, cela dégrade leur courbe d'apprentissage et n'aide pas (au contraire) au développement du cerveau
- Une étude résumée dans l'article a mené 3 groupes d'étudiants à produire des dissertations : un groupe avec ChatGPT ; un groupe sans outils (ni ChatGPT ni google) ; un groupe avec google search et sans ChatGPT. Je vous laisse lire les résultats et ne pas tout vous mâcher (surtout si vous lisez avec ChatGPT... ) ^^
- Des utilisateurs de RS ont été grillés à utiliser des LLM pour résumer l'étude (grâce à la bonne technique du "ne lis que le tableau suivant"), et la LLM a même inventé la version de ChatGPT de l'étude alors que ce n'était précisé nulle part
- Les chercheurs travaillent sur un autre papier sur l'utilisation de l'IA dans... La programmation (ça rappelle quelque chose ? ) et que les résultats sont (oh comme c'est étonnant) encore pires

En très résumé, l'étude indique que cela fragilise les capacités cognitives et l'esprit critique des utilisateurs réguliers qui ne compte "que" sur l'IA. En revanche cela indique bien que si c'est un outil utilisé avec parcimonie c'est utile (Cf. résultat de la 2è partie de l'étude) - mais il ne faut pas que ce soit au détriment du développement de celui qui l'utilise.
Formidable, on a réussi à les rendre encore moins viable que les stars de téléréalité.

Comme quoi un bon outils dans les mains de cons ça fait pas des miracles, ça ne fait que démontrer leur état.
Citation :
Publié par Doudou Spuiii
Ca reste un problème d'utilisateur, si tu demandes à ChatGPT de te coder un truc et que tu copie-colle tel quel, ça marchera pas à coup sûr. Il faut prendre le code, le compiler, lui renvoyer les éventuelles messages d'erreur, lui demander des cas de tests etc.
C'est plus long et complexe que de copier coller direct ce que donne ChatGPT, mais ça reste beaucoup plus rapide que de tout coder.
Perso, j'ai codé des trucs en python pour automatiser des tâches (suppression de message par exemple), j'ai galéré un peu et ça ne marchait pas du premier coup, j'y ai passé 2-3h pour que ça finisse par marcher, mais à la fin, ça marchait.
Et ce alors que j'ai jamais codé en Python lol, j'aurais mis des mois pour réussir à faire ça sans ChatGPT et j'aurais ptet même surement abandonné en cours de route.
Ce que je constate avec les années c'est que mes étudiants maintenant ne savent plus quoi faire à part copier-coller la sortie du LLM.
Pour des exercices relativement simples, ça peut être plus rapide de tout faire à la main, si on a appris son cours (j'en demande sûrement trop).
Une fois qu'on a le recul nécessaire, cela est évidemment un outil très utile, mais lors de la phase d'apprentissage c'est une catastrophe.
Citation :
Publié par kermo
Une fois qu'on a le recul nécessaire, cela est évidemment un outil très utile, mais lors de la phase d'apprentissage c'est une catastrophe.
C'est ce que semblent dire les développeurs expérimentés sur Youtube :
un jeune développeur qui utilise tôt le vibe coding se détruit.
Il passe outre toutes les étapes d'expérimentation "à la dure" qui font l'acquis : les astuces et réflexes que chacun acquiert et qui sont siens.
Du coup, en face d'une situation où le générateur ne peut pas apporter la solution, ils sont démunis.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés