|
Citation :
On a un nouveau projet. On a 20 devs dessus. 0 dette technique, 0 historique, donc opportunite totale de faire les choses correctement des le debut. La majorite des devs ont bosser sur des services historique avec 10-15ans de dette technique, des patterns completement depasse etc... Resultat? Je m'apercois que certains d'entre eux (pas forcement les juniors d'aillleurs) copie/colle le code des services historique pour le nouveau produit. Du coup, ils importent avec la dette technique, certains bugs critiques qui sont pourtant connu etc... On a enormement de documentation, de formation, d'exemple recent sur les bonnes recettes a appliquer etc... donc pas ou peu d'excuse sur le "on savait pas". Le choix de dev un nouveau service ayant en parti ete fait justement pour ne pas avoir a subir cette dette technique. ![]() J'en trouve certains via la revue de code, mais c'est exactement le meme principe qu'avec une IA entraine sur le mauvais jeu de donnees, ils reproduise ce qu'ils connaissent. Je peux meme pas leur en vouloir, c'est un probleme de management car ils ont ete sensibilise a livre le plus vite posslble et donc ils font au plus "simple" pour eux. |
![]() |
|
Aller à la page... |
Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)
Suivre Répondre |
|
Partager | Rechercher |
|
|
![]() |
Caniveau Royal |
Voir le profil public |
Trouver plus de messages par Caniveau Royal |
|
Un bon exemple d'hallu, je demande une truc linux spécifique à chatgpt, il me sort :
Citation :
|
![]() |
|
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
Locke / Rezard |
Voir le profil public |
Trouver plus de messages par Locke / Rezard |
|
Entraînement / apprentissage... ou pas
Une IA, à ma connaissance, n'a que de deux manières connues de répondre. Elle le fait : Soit à partir de choses qu'elle a analysées par le passé (entraînement / apprentissage) - encore appelés algorithmes supervisés : on donne à l'IA des exemples avec des conséquences ou des résultats connus, pour qu'en suite quand elle aura des questions auxquelles elle devra répondre, elle pourra avec le moins de chances possible de se tromper, dire les conséquences ou le résultat qui va - Vous avez vus ou lus les résultats de l'équipe de Lyon contre l'équipe de Paris, Versailles, Brest, Quimper, Vesoul, Morne-à-l'Eau, Cayenne, Valenciennes et 600 autres villes, alors quand on vous demande : "Hé ! Si Lyon joue maintenant contre Bar-le-Duc [que vous n'avez pas testé] ça va être quoi, le score ?" Eh bien, il y a une chance que vous ayez une bonne idée : ce sera sans doute 5 - 1. Soit en essayant de comprendre seule et de déterminer ce qu'il faut trouver - algorithmes non supervisés -. C'est un peu compliqué à expliquer, mais dans ce cas, elle essaie de trouver elle-même de quoi est composé ce qu'on lui donne à regarder/analyser, de voir si parmi tout ce qui compose tout ce qu'on lui donne (et ce peut être des choses très différentes, et de l'un il peut y avoir beaucoup et de l'autre peu) il y a des choses que l'on peut regrouper d'une manière qu'on comprend ce qu'elles font, ensemble, même si elles ne sont pas venues toujours du même objet ou du même document. Certes, c'est un peu ce que font les algorithmes supervisés déjà, mais alors que dans leur cas on est face à des objets ou des documents à analyser de structure connue (même elle est longue et compliquée), là on ne sait absolument rien au départ, et on a même pas idée de ce qu'on va trouver. Au retour d'une requête, on pourra autant parler de fleurs que de chiens, ou de pneus de bicyclette. Si on a du bol... Car il se pourrait même que ce qu'on parle on sache peut-être comment il évolue et se comporte, mais qu'on ne sache pas dire ce que c'est... (ci-dessus, c'est ma compréhension des IA, ou de la data-science) Ce que dit un article du Monde, Pourquoi notre utilisation de l'IA est un gouffre énergétique ? C'est que cet apprentissage, à l'échelle d'OpenAI version 4, a coûté 50 Gigawatts d'électricité, soit l'alimentation de Paris pendant deux jours. Mais que ça n'y suffit pas parce qu'on veut toujours la rafraîchir de connaissances nouvelles. Une portion de ceci est consommé chaque jour, en supplément. Pour que l'IA ait sa "base de travail". La requête Quand l'utilisateur questionne une IA d'une simple requête, il consomme en électricité déjà ce qu'il faudrait pour charger 2% de son téléphone portable. De l'ordre de 0.4 Wh, et peut aisément doubler ou tripler cela si la requête est complexe. Parce que lorsque la réponse ne peut être donnée seulement par les requêtes supervisées à apprentissage, il faut à l'IA passer par les algorithmes non supervisés qui réclament une réflexion dédiée au problème soumis, dont l'analyse peut être complexe. Une image générée, c'est 287 Wh. [Soit 17 minutes de radiateur électrique dans une chambre donne en comparaison un lecteur du Monde] Quelle est l'inquiétude ? Le blackout. Soit d'IA, soit d'électricité dans le pays. La panne. Aux Etats-Unis, les IA consomment déjà 3% de l'électricité produite. Et l'on s'attend que ça double au moins, d'ici 2030. Et un hype peut provoquer une ruée d'internautes à les questionner : un sujet d'intérêt ou une inquiétude brutale. Ce que je comprends, c'est que si un data-center fournisseur d'IA cède, qu'il tombe en panne parce qu'on lui a trop demandé, ses serveurs grillent, les requêtes vont aller ailleurs se faire. Et à la manière que ça arrive (même si ça arrivera moins vite) qu'un blackout électrique, tous les fournisseurs capables de fournir cette IA vont tomber, ou refuser de répondre aux requêtes. Gare à ceux qui en dépendront, alors... Dernière modification par Caniveau Royal ; 09/06/2025 à 09h55. |
![]() |
|
Caniveau Royal |
Voir le profil public |
Trouver plus de messages par Caniveau Royal |
Caniveau Royal |
Voir le profil public |
Trouver plus de messages par Caniveau Royal |
Duc / Duchesse
|
Avec des probabilités du moins pour les modèles en production.
On a déjà eu cette conversation sur ce fil. |
![]() |
|
Caniveau Royal |
Voir le profil public |
Trouver plus de messages par Caniveau Royal |
|
Franchement informe toi: les IA génératives sont probabilistes, c'est vraiment un non sujet:
P(motn+1∣mot1,…,motn) Modèles de langage et réseaux de neurone: https://web.stanford.edu/~jurafsky/slp3/ https://arxiv.org/abs/2005.14165 Conséquence: Non-déductivité : contrairement à un système logique, une IA générative ne déduit pas ses sorties d’un raisonnement strict, mais échantillonne ce qui est probable. Elle ne comprends pas. |
![]() |
|
|
Mais ce que tu me donnes suffit à montrer que les choses ne sont pas aussi simples que tu l'écris.
Et les chapitres 4 à 7 de ton lien parlent des algorithmes que je t'évoques moi, comme fondations. |
![]() |
|
Caniveau Royal |
Voir le profil public |
Trouver plus de messages par Caniveau Royal |
Caniveau Royal |
Voir le profil public |
Trouver plus de messages par Caniveau Royal |
|
Faudrait transférer sur le fil des religions, parce que là, c'est clairement le sujet
![]() |
![]() |
|
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
|
Et puis bon pour avoir des seniors, il faut avant tout des juniors
|
![]() |
|
Suivre Répondre |
Connectés sur ce fil1 connecté (0 membre et 1 invité)
Afficher la liste détaillée des connectés
|