Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)

Répondre
Partager Rechercher
Citation :
Publié par Jet
Plus qu'à attendre les résultats de NVidia !
Citation :
Nvidia posted a strong second quarter and set a $60 billion stock buyback, but its shares fell in postclose trading after a narrow revenue miss in a key segment.
waaaah!!! c'est la fiiiin!

(ou bien , je ne comprends rien a la finance, ils sont pas contents quand tout est au vert et juste un petit truc ne l'est pas? )
Tu parles des fricopathes. Ces gens ne vivent pas la même rationalité que nous. Ils ont inventé les prêts subprimes, les crypto-monnaies, le sandwich hollandais et le trading haute fréquence. Ils font des trucs qui seraient illégaux et t'enverraient en taule pour un siècle si c'étaient les pauvres qui le faisaient, mais sont légaux et applaudis par les médias puisque c'est eux.
Le No Code, apparu dans les années 2015 - 2020, escompte beaucoup que la première génération d'une application soit la bonne.
Et s'il admet ensuite des adjonctions, il se prête mal aux modifications et réglages. Au point que certains ne proposent même pas de versionnements...

Le Vibe Coding est accusé d'avoir ce problème et de l'amplifier. Les deux, pour simplifier, ne savent pas se relire pour poursuivre un travail, et plus encore si le travail qu'elles ont faite a dû être marginalement adapté pour être correct.
Une IA peut choisir de régénérer from scratch une application entière après qu'une demande d'évolution lui ait été faite, et en tout cas, ce qu'elle affectera à chaque évolution est assez imprévisible.

Le problème devient alors : quelle confiance puis-je avoir que ce qui fonctionnait avant dans mon application fonctionnera toujours après mon changement, qu'il soit loin ou proche de la modification ?

Il n'est quasiment pas possible de le savoir, sauf à avoir prévu des tests très étendus.

Dernière modification par Caniveau Royal ; 28/08/2025 à 09h49.
Citation :
Publié par Caniveau Royal
Il n'est quasiment pas possible de le savoir, sauf à avoir prévu des tests très étendus.
A supposer que ton coding assistant ne modifie pas le test lui même pour qu'il passe (ça se voit régulièrement)
Citation :
Publié par SekYo
A supposer que ton coding assistant ne modifie pas le test lui même pour qu'il passe (ça se voit régulièrement)
Oui l IA n'est pas packagé avec une conscience professionnelle ...

J'ai des réponses épiques d IA qui après multiples prompt de demande source et vérification et de reformulation.

Finis par dire qu elle a inventé des issues GitHub et des sources pour correspondre à la demande...
ça progresse quand même :

Citation :
Je souhaite utiliser obsidian.md pour préparer ma prochaine campagne de jeux de rôle, utilisant les règles de pathfinder, 2e édition. Quelles sont les étapes à suivre pour utiliser et configurer ce logiciel pour cet usage ? En particulier, quels sont les plugins les plus utiles à ajouter à obsidian.md ?

ChatGPT a dit :
Préparer une campagne de Pathfinder 2e édition avec Obsidian est une excellente idée : le logiciel combine une structure souple avec une vraie puissance organisationnelle. Voici un plan détaillé :

1. Installer et configurer Obsidian de base

  1. Télécharge Obsidian (obsidian.md) et crée un nouveau vault dédié à ta campagne.
    • Nom du vault : quelque chose comme PF2E_Campagne_[Nom].
  2. Organise un squelette initial :
    • Code:
      01_Règles
      (notes de règles spécifiques à ta campagne)
    • Code:
      02_Monde
      (lore, géographie, factions)
    • Code:
      03_PNJ
      (fiches de PNJ avec tags)
    • Code:
      04_Aventures
      (scénarios, synopsis, rencontres)
    • Code:
      05_Joueurs
      (fiches résumées des PJ et leurs backgrounds)
    • Code:
      99_Resources
      (liens vers SRD Pathfinder 2e, aides de jeu PDF, etc.)

2. Activer les fonctionnalités natives utiles

  1. Liens internes : utilise
    Code:
    [[Nom de la note]]
    pour connecter PNJ, lieux, factions.
  2. Tags : crée des tags comme
    Code:
    #pnj
    ,
    Code:
    #faction
    ,
    Code:
    #lieu
    pour les filtrer rapidement.
  3. Graph view : pratique pour visualiser comment ton monde se relie.

3. Installer les plugins essentiels

Plugins officiels (directement dans Obsidian)

  • Templates : crée des modèles pour PNJ, lieux, quêtes.
  • Daily Notes : utile si tu veux un journal de session.
  • Backlinks : déjà inclus, mais vérifie qu’ils sont bien affichés.

Plugins communautaires recommandés pour le JdR

Citation :
Pour les installer : Settings → Community plugins → Turn off Safe mode → Browse → Install + Enable.
  1. Templater
    • Plus puissant que "Templates" natif.
    • Permet d’insérer automatiquement la date, des variables personnalisées, ou d’appeler des scripts (ex. générer un PNJ aléatoire).
  2. Dataview
    • Transforme tes notes en base de données consultable.
    • Ex. : lister tous les PNJ d’une ville avec
      Code:
      table Nom, Alignement, Lieu from "03_PNJ" where contains(tags, "#ville-Aldoria")
      .
  3. Dice Roller
    • Lancer des dés directement dans Obsidian (
      Code:
      !dice 1d20+7
      ).
    • Parfait pour improviser en session.
  4. Fantasy Calendar (ou Chronology)
    • Gérer le calendrier de ton monde.
    • Pathfinder a son propre calendrier (Absalom Reckoning), tu peux le configurer.
  5. Obsidian Leaflet
    • Affiche des cartes interactives.
    • Tu peux placer des marqueurs cliquables (villes, donjons).
  6. Icon Folder / Emoji Shortcodes
    • Ajoute des icônes pour visualiser facilement tes dossiers/notes (ex. un bouclier pour "Règles").
  7. QuickAdd
    • Crée des raccourcis pour ajouter rapidement un PNJ ou une quête avec un template prédéfini.
  8. Initiative Tracker (si disponible/compatible)
    • Pour gérer les combats directement depuis Obsidian (sinon garde Dice Roller + une feuille Excel).

4. Créer tes modèles de notes

Exemples :

PNJ


Code:
# {{title}}
**Rôle :**  
**Alignement :**  
**Lieu :**  
**Particularités :**  
**Liens :** [[Factions]] [[Autres PNJ]]  
**Stat bloc :** (Lien vers Archives of Nethys ou résumé des stats)

Lieu


Code:
# {{title}}
**Type :** Ville / Donjon / Région  
**Description rapide :**  
**PNJ notables :**  
**Quêtes associées :**  
**Rencontres possibles :**

5. Travailler au fil des sessions

  • Utilise une note par session (Session 01 - La caravane).
  • Lien vers : PNJ rencontrés, lieux visités, événements marquants.
  • Avec Dataview, tu peux automatiquement générer une timeline des sessions.

6. Synchronisation et sécurité

  • Sync via Obsidian Sync (payant) ou un service cloud (Google Drive, Dropbox, Git si tu es à l’aise).
  • Sauvegardes régulières pour ne pas perdre ta campagne.

Résumé des plugins incontournables :

  • Templater – modèles avancés.
  • Dataview – fiches dynamiques.
  • Dice Roller – jets de dés intégrés.
  • Fantasy Calendar – calendrier d’Absalom.
  • Obsidian Leaflet – cartes interactives.
  • QuickAdd – ajout rapide de contenu.

Veux-tu que je te prépare un pack de templates tout faits (PNJ, lieux, quêtes, sessions, factions) prêts à coller dans Obsidian avec Dataview et Templater déjà pensés pour Pathfinder 2e ? Ou que je te fasse une arborescence de dossiers complète avec exemples de notes remplies ?
Citation :
Publié par Caniveau Royal
Le No Code, apparu dans les années 2015 - 2020, escompte beaucoup que la première génération d'une application soit la bonne.
Et s'il admet ensuite des adjonctions, il se prête mal aux modifications et réglages. Au point que certains ne proposent même pas de versionnements...

Le Vibe Coding est accusé d'avoir ce problème et de l'amplifier. Les deux, pour simplifier, ne savent pas se relire pour poursuivre un travail, et plus encore si le travail qu'elles ont faite a dû être marginalement adapté pour être correct.
Une IA peut choisir de régénérer from scratch une application entière après qu'une demande d'évolution lui ait été faite, et en tout cas, ce qu'elle affectera à chaque évolution est assez imprévisible.

Le problème devient alors : quelle confiance puis-je avoir que ce qui fonctionnait avant dans mon application fonctionnera toujours après mon changement, qu'il soit loin ou proche de la modification ?

Il n'est quasiment pas possible de le savoir, sauf à avoir prévu des tests très étendus.
Ouais, j'ai quand même l'impression que le problème ici c'est pas l'IA mais le dev qui essaye de faire quelque chose qu'il ne comprend pas du tout. C'est du même niveau que d'aller sur Stackoverflow, copier un script tel quel et être choqué qu'il ne fonctionne pas.

Incroyable, quand le professionnalisme de l'humain derrière le prompt est inexistant, la machine fait de la merde.. Qui aurait pu prévoir?
Citation :
Publié par Metalovichinkov
Ouais, j'ai quand même l'impression que le problème ici c'est pas l'IA mais le dev qui essaye de faire quelque chose qu'il ne comprend pas du tout. C'est du même niveau que d'aller sur Stackoverflow, copier un script tel quel et être choqué qu'il ne fonctionne pas.

Incroyable, quand le professionnalisme de l'humain derrière le prompt est inexistant, la machine fait de la merde.. Qui aurait pu prévoir?
Ça n'a rien a voir...ce n'est pas un détournement d usage.

Le vibe coding fait partie du cahier des charges de l IA....
Il est bien évident que la principale raison de la bulle est la promesse de remplacer la main d oeuvre qualifié et chère.
Citation :
Publié par ind
Ça n'a rien a voir...ce n'est pas un détournement d usage.

Le vibe coding fait partie du cahier des charges de l IA....
Il est bien évident que la principale raison de la bulle est la promesse de remplacer la main d oeuvre qualifié et chère.
J'imagine que t'as une source?
D'après les liens d'Anthodev c'est l'inverse qui se produit, c'est la main d'oeuvre peu qualifiée et pas chère (ie les jeunes diplomés) qui est remplacée par l'IA.
Citation :
Publié par Metalovichinkov
Ouais, j'ai quand même l'impression que le problème ici c'est pas l'IA mais le dev qui essaye de faire quelque chose qu'il ne comprend pas du tout. C'est du même niveau que d'aller sur Stackoverflow, copier un script tel quel et être choqué qu'il ne fonctionne pas.

Incroyable, quand le professionnalisme de l'humain derrière le prompt est inexistant, la machine fait de la merde.. Qui aurait pu prévoir?
Tu mettras cela en commentaires de la vidéo YouTube (17 minutes) qui présente ce que je t'ai décrit.

Les outils de Vibe Coding ont la main sur le code qu'elles produisent et, par principe, peuvent affecter l'intégralité de ce qu'elles ont généré au moins une fois. C'est leur champ d'action. Donc si un projet a été généré en 10 sous-répertoires et 200 fichiers sources, à chaque évolution des prompts, une partie de ceux-ci vont être transformés ou supprimés, et peut-être de nouveaux ajoutés.

Lesquels, comment, pourquoi ? Le "prompteur" / vibe-codeur n'en est pas forcément conscient (on lui vend même qu'il n'a pas à l'être : c'est magique), et ça m'étonnerait qu'il puisse l'être entièrement, cela le mènerait trop loin.
Si l'IA refait quelque-chose qu'on pensait rester stable : Pourquoi régénères-tu la gestion du service courrier quand on modifie la gestion du parking de notre flotte automobile ?, il faut détecter cela et tout recontrôler.

Il y a une différence essentielle entre :

1) L'utilisation des IA et des algorithmes de data-science ou analyse pour l'exploration des données et les suggestions / prédictions / classifications
qui sont la source de très nombreux projets aujourd'hui, parce qu'il y a des enjeux extraordinaires derrière.

2) Et le Vibe Coding, qui est une énorme connerie, et macroscopiquement, en simplifiant et en y allant un peu fort : une escroquerie.
Mais une connerie, qui sur l'échelle de Richter est pas loin de monter à 10...
  • On sait pas ce que ça génère
  • On sait pas si on retente dans trois mois si ça régénérerait la même chose
  • Quand on demande une évolution, on sait pas où ça tape vraiment
  • Côté sécurité, on en parle pas : trou la la itou, "Au hacker reconnaissant"
C'est pour cela que autant les IA y a une énorme hype dessus,
autant le Vibe Coding, il ne démarre pas. Sauf dans les entreprises qui auraient fait du No Code à la place...
Mais pour ces entreprises-là, on est aussi avec Wix, Windev et autres clic-boutons...
Et il y a un marché pour ça.
Et plein de bonimenteurs qui se ruent dessus. C'est ça que tu vois en ce moment.
C'est pour ça que tu as plein de vidéos.

Mais :
→Pas de dépôts Gitlab / Github avec des vrais projets open-source générés par du Vibe-Coding qui fonctionnent
de version en version depuis des mois, soutenant des évolutions, étant habiles et efficaces.

Il n'y en a pas... Ça ne vous alerte pas, ça ?

Dernière modification par Caniveau Royal ; 29/08/2025 à 06h52.
Merci je sais ce qu'est un cahier des charges. Comme tu me prends pour un con j'ai pas trouvé vibe coding dans ton lien mais passons.
T'as une source que l'IA vise à remplacer la main d'oeuvre qualifiée et chère alors que le lien d'Anthodev parle exactement de l'inverse?
Anthodev parle de la réalité du marché pas des promesses, ni sur quoi on travaille.

Sachant qu un dev junior c'est de la main d oeuvre qualifié et chère.
On est sur du 36/38k avec un bac+5 en province, ce qui donne un 80k en superbrut.

Alors oui, je suis sec car c'est une évidence que je remonte.

Voilà une partie des recherches en cours sur un domaine.

https://www.clausiuspress.com/assets...1716195588.pdf

https://www.juniper.net/fr/fr/resear...etworking.html

A ton avis, quel est le but d implémenter du pilotage d infrastructures par intention ?
Citation :
Publié par ind
Anthodev parle de la réalité du marché pas des promesses, ni sur quoi on travaille.

Sachant qu un dev junior c'est de la main d oeuvre qualifié et chère.
On est sur du 36/38k avec un bac+5 en province, ce qui donne un 80k en superbrut.


Alors oui, je suis sec car c'est une évidence que je remonte.
Mais de quoi tu parles? On va pas remplacer un cariste au SMIC ou un plombier quand on cherche des développeurs
Un jeune diplômé n'est ni qualifié ni cher, qu'un développeur soit mieux payé qu'un chauffeur de bus ou un prof n'en fait pas quelqu'un de cher.

L'évidence l'est peut être chez toi mais tu serais grand prince de partager quelque chose qui l'étaye, aujourd'hui elle est branlante. Les liens que tu donnes n'ont aucun rapport avec le sujet.

EDIT :
Citation :
Publié par ind
A ton avis, quel est le but d implémenter du pilotage d infrastructures par intention ?
T'es le seul au monde à arriver à cette conclusion ou t'as un papier qui soutient ton avis?
Le grand remplacement par la machine ça ne date pas de l'IA pourtant on est toujours là à travailler donc mon avis, comme le tien, ne pèsent pas bien lourd dans la balance.
Tu veux l analyse d un professionnel qui bosse sur le sujet c'est ça ?
En grand prince, je te l ai donné.

Et si juniper et Cisco en parle c'est qu on est pas les seuls à bosser dessus.
Que faut-il penser de cette approche innovante de l’intelligence artificielle générale fondée sur un modèle de raisonnement hiérarchique (HRM).
https://www.actuia.com/actualite/alt...-hierarchique/

Voici un extrait de ce que donne ChatGPT 5
Citation :
Le modèle repose sur deux modules récurrents :

  • Un module haut niveau pour la planification abstraite lente.
  • Un module bas niveau pour les calculs rapides et détaillés. Cette dualité évoque les systèmes 1 et 2 de la cognition humaine (pensée automatique vs raisonnement délibéré) 1.
Performance et efficacité : Avec seulement 27 millions de paramètres et 1000 exemples d’entraînement, HRM surpasse des modèles bien plus volumineux sur des tâches complexes comme les puzzles Sudoku extrêmes, les labyrinthes 30x30, et surtout le benchmark ARC-AGI.

Le HRM rompt avec le paradigme dominant du Chain-of-Thought (CoT), qui repose sur une décomposition explicite des tâches en étapes intermédiaires. Cette méthode, bien que utile, est fragile, coûteuse en données et lente. HRM, en revanche, exécute le raisonnement en une seule passe, sans supervision intermédiaire, grâce à une architecture récurrente hiérarchique.

Je lui ai demandé "En quoi consiste le module haut niveau"
Citation :
Le module haut niveau joue un rôle central dans la capacité du modèle à raisonner de manière générale et abstraite. Il fonctionne selon les principes suivants :

Traitement à long horizon temporel : Contrairement au module bas niveau, il ne réagit pas immédiatement aux entrées, mais élabore des plans ou des stratégies sur plusieurs étapes.

Représentation abstraite : Il encode des représentations plus globales et moins sensibles aux détails locaux. Cela permet de généraliser à partir de peu d’exemples.

Contrôle du flux computationnel : Il guide le module bas niveau en lui fournissant des objectifs intermédiaires ou des contraintes, sans micro-manager chaque opération.

Récurrence lente : Il utilise une boucle récurrente avec une fréquence de mise à jour plus faible, ce qui permet de stabiliser le raisonnement et d’éviter les oscillations ou les surajustements.

Absence de supervision intermédiaire : Le module haut niveau n’est pas entraîné à produire des étapes explicites de raisonnement (comme dans Chain-of-Thought), mais apprend à planifier directement à partir des entrées et sorties finales 2.
Franchement là j'ai l'impression que c'est du b******* mais essayons d'en savoir plus

Citation :
Le module haut niveau du HRM est une unité de planification abstraite, opérant à une échelle temporelle lente, qui permet au modèle de raisonner sans supervision intermédiaire. Il structure le raisonnement en profondeur, en coordonnant les opérations du module bas niveau, tout en restant compact (27M paramètres) et économe en données (1000 exemples seulement).
Screenshot_20250829_104701_M365 Copilot.jpg
je ne comprends pas ce dont il s'agit et sur quoi c'est entraîné, cela ne sert pas sur le langage mais uniquement à faire des maths ? Cela n'a pas de capacité d'apprentissage ?

La référence la plus sérieuse semble être
https://github.com/sapientinc/HRM

Il y a aussi une discussion ici
https://www.reddit.com/r/DeepSeek/co...t=share_button

Dernière modification par znog ; 29/08/2025 à 10h53.
Du peu que j'ai en lu l intérêt perçu serait de l' intégrer aux LLM en tant que co-processeur.

Il serait plus performant notamment pour les problèmes d algorithme.

En gros, tu prompt ton LLM qui structure la donnée l envoie vers le hrm et ensuite le LLM te traduit la réponse.

https://aipapersacademy.com/hierarch...asoning-model/

Il semble y avoir une tendance qui vise à compenser les limites des modèles actuel en prenant la piste de solution hybride.

Il y a clairement un mur sur l efficience en terme de calcul et de résultat nécessaire pour passer la prochaine étape et répondre aux promesses de l IA.
Sans parler d AGI.

La plupart des thèses CIR et CIFRE que j'ai vu passer ont pour objectif de répondre à ces deux questions.

Dernière modification par ind ; 29/08/2025 à 11h41.
Citation :
Publié par ind
Du peu que j'ai en lu l intérêt perçu serait de l' intégrer aux LLM en tant que co-processeur.

Il serait plus performant notamment pour les problèmes d algorithme.
Ok donc c'est du Mixture of experts dédié à certains problèmes ?
Citation :
Publié par znog
Ok donc c'est du Mixture of experts dédié à certains problèmes ?
C'est du moins ce que ma remonté ma veille.

Si je veux vraiment expliquer le fond de ma pensée.

C'est ce que les bloggers anticipent et ce que les chercheurs m ont expliqué.
Chercheur qui eux cherchent des solutions pour nous donner des pistes d implémentation fiable.
Sachant qu avant les problématiques de coûts, c'est avant tout mitiger les hallucinations qui nous manquent pour passer la seconde en terme d automatisation.

On peut l' appeler pilotage par intention, vibe coding ou autre.
C'est same shit, traduire la volonté humaine dans du code fiable pour piloter de l IT.

Je ne suis pas chercheur en AI, je fais de l ingénierie.
Donc à prendre avec des pincettes, je ne suis pas positionner a la "source" mais dans la seconde étape xD.

Dernière modification par ind ; 29/08/2025 à 21h06.
Tient, je viens de lire un truc intéressant sur les IA. Une société Suisse d'une 20aine de personne seulement (giotto.ai) vient de remporter un concours sur un problème posé pour la première fois à un algo: 23% de résolution pour giotto, 16% pour Grok, 10% pour GPT5.
https://www.rts.ch/info/sciences-tec...-28983253.html
Le truc intéressant c'est le nombre de paramètre utilisé par giotto: 200 millions seulement (on parle de 200 milliards pour gpt4).
Ce pourrait-il qu'en fait, les mastodontes du moment fassent fausse route avec leurs investissements démentiels qui vont se heurter inévitablement au mur énergétique?
On a peu d'infos sur comment leur modèle fonctionne
Après c'est pas trop surprenant que sur des taches de raisonnement on puisse faire mieux que les LLM classiques, c'est quand même pas fait pour ça à la base. Et c'est déjà un petit miracle que les CoT et autres techniques du genre fonctionnent si bien.
Répondre

Connectés sur ce fil

 
2 connectés (0 membre et 2 invités) Afficher la liste détaillée des connectés