Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)

Répondre
Partager Rechercher
Une IA vient d'obtenir de meilleurs résultats que les modèles météorologiques les plus pointus pour les prévisions météos.
https://arstechnica.com/science/2023...-google-study/
En résumé : des performances supérieures pour une dépense énergétique inférieure, mais des limitations et des situations où le réseau de neurones ne fonctionne pas aussi bien qu'un modèle physique.

Bon, en gros, c'est complémentaire avec les modèles physiques, pour l'instant.


MAIS le changement, la révolution, le truc qui file le vertige c'est qu'on est en train, très rapidement de voir nos capacités cognitives de plus haut niveau être dépassées par celles d'une IA, et qu'on a strictement AUCUN moyen de savoir comment elles font, puisque ce sont de véritables boîtes noires.
C'est chiant, parce que ça signifie qu'il existe des corrélations et des "lois" qu'elles peuvent identifier mais auxquelles nous ne pouvons pas accéder. C'est scientifiquement très frustrant. Le risque c'est à terme de confier des prises de décision (genre évacuer une ville à cause d'un cyclone) à des IA sans avoir la moindre idée de comment elle opère son diagnostique. Elle deviendrait une sorte d'oracle, une divinité qu'on interroge et qui donne des réponses plus fiables que ce nous pouvons trouver par nous mêmes, mais sans améliorer notre compréhension. Cela pourrait être une source de stagnation intellectuelle et culturelle.
ce n'est pas que c'est l'IA qui va faire le choix, mais elle va devenir un outil d'aide à la décision tel que les décideurs humains eux-mêmes deviendront rapidement de simples passe-plats.
Sauf si le citoyen moyen peut avoir accès à la meilleure des IA. J'ai l'impression que c'est le chemin que l'on prend : Openai a récemment dévoilé son plan 2024 (?) pour permettre à chacun de développer son GPT "spécialisé" qu'il mettra à disposition de tous le monde pour en tirer des revenus.
Citation :
Publié par Aloïsius
Une IA vient d'obtenir de meilleurs résultats que les modèles météorologiques les plus pointus pour les prévisions météos.
https://arstechnica.com/science/2023...-google-study/
En résumé : des performances supérieures pour une dépense énergétique inférieure, mais des limitations et des situations où le réseau de neurones ne fonctionne pas aussi bien qu'un modèle physique.

Bon, en gros, c'est complémentaire avec les modèles physiques, pour l'instant.


MAIS le changement, la révolution, le truc qui file le vertige c'est qu'on est en train, très rapidement de voir nos capacités cognitives de plus haut niveau être dépassées par celles d'une IA, et qu'on a strictement AUCUN moyen de savoir comment elles font, puisque ce sont de véritables boîtes noires.
C'est chiant, parce que ça signifie qu'il existe des corrélations et des "lois" qu'elles peuvent identifier mais auxquelles nous ne pouvons pas accéder. C'est scientifiquement très frustrant. Le risque c'est à terme de confier des prises de décision (genre évacuer une ville à cause d'un cyclone) à des IA sans avoir la moindre idée de comment elle opère son diagnostique. Elle deviendrait une sorte d'oracle, une divinité qu'on interroge et qui donne des réponses plus fiables que ce nous pouvons trouver par nous mêmes, mais sans améliorer notre compréhension. Cela pourrait être une source de stagnation intellectuelle et culturelle.
Et à la fin, elle répondra ... 42
Citation :
Publié par Aloïsius
C'est chiant, parce que ça signifie qu'il existe des corrélations et des "lois" qu'elles peuvent identifier mais auxquelles nous ne pouvons pas accéder. C'est scientifiquement très frustrant. Le risque c'est à terme de confier des prises de décision (genre évacuer une ville à cause d'un cyclone) à des IA sans avoir la moindre idée de comment elle opère son diagnostique.
Je sais pas si sur l'idée que l'IA repère des corrélation ou des lois soit juste.
Vu que de ce que j'ai compris du fonctionnement d'IA elle ne "cherche" justement pas à comprendre le fonctionnement mais juste à avoir le bon résultat.

Par contre est ce que ça ne pourrait pas justement être un moyen d'amélioré les modèles en faisant des comparaisons multiples entre les résultats du modèle / les résultat de l'IA pour ensuite étudié la différence ? Ça suppose que l'IA est plus fiable, mais ça permettrait de multiplié les comparaisons car actuellement on ne peut confronter les modèles qu'à une "réalité" où à d'autre modèles.

Citation :
Publié par -Black-Shadow-
Sauf si le citoyen moyen peut avoir accès à la meilleure des IA. J'ai l'impression que c'est le chemin que l'on prend : Openai a récemment dévoilé son plan 2024 (?) pour permettre à chacun de développer son GPT "spécialisé" qu'il mettra à disposition de tous le monde pour en tirer des revenus.
Bah si le citoyen ne sait pas comment l'IA obtient le résultat il est pas plus avancer pour savoir ce qui justifie la décision.
J'aurais même tendance à penser que ca pourrait créer de nouveau problème a cause du gap de capacité entre les IA qui serait à disposition des décideurs et celles à disposition du publique.
Si on prend l'exemple de l'évacuation d'une ville donné par Aloïsius, j'imagine le pire si l'IA du gouvernement conclut a l'évacuation de Marseille car un tsunami va arrivé mais que Openai moins développer conclu que non pas besoin.
Citation :
Publié par Jet
ce n'est pas que c'est l'IA qui va faire le choix, mais elle va devenir un outil d'aide à la décision tel que les décideurs humains eux-mêmes deviendront rapidement de simples passe-plats.
Louez l'OmniMessie !


C'est plutôt une bonne chose. Il ne sera pas bien difficile pour les IA de prendre de meilleurs décisions que les décideurs politiques : enfin des décisions rationnelles, prenant en compte un max de données sans électoralisme.
Citation :
Publié par Zardok
Louez l'OmniMessie !


C'est plutôt une bonne chose. Il ne sera pas bien difficile pour les IA de prendre de meilleurs décisions que les décideurs politiques : enfin des décisions rationnelles, prenant en compte un max de données sans électoralisme.
Le léger détail important à prendre en compte c'est est-ce que ces meilleures décisions seront des choses que la plupart des gens seront capable d'accepter ? Si demain une IA nous sort un plan pour qu'on puisse réduire de façon concrète nos émissions de co2, il faudra pas atteindre 10 minutes pour que ce soit les émeutes et voir des idiots défoncer des machines à café.
Citation :
Publié par Sakizama
Le léger détail important à prendre en compte c'est est-ce que ces meilleures décisions seront des choses que la plupart des gens seront capable d'accepter ? Si demain une IA nous sort un plan pour qu'on puisse réduire de façon concrète nos émissions de co2, il faudra pas atteindre 10 minutes pour que ce soit les émeutes et voir des idiots défoncer des machines à café.
y a aussi un autre détail non négligeable dans cette histoire. Qui aura codé le code de cette IA, et qu'est ce qu'il aura mis dedans.
Parce qu'une IA codé par le PCC peut s'avérer très efficace, ça veut pas forcément dire que c'est une bonne chose......
Citation :
Publié par -Black-Shadow-
Sauf si le citoyen moyen peut avoir accès à la meilleure des IA. J'ai l'impression que c'est le chemin que l'on prend : Openai a récemment dévoilé son plan 2024 (?) pour permettre à chacun de développer son GPT "spécialisé" qu'il mettra à disposition de tous le monde pour en tirer des revenus.
Je crois que ce sont les GPTs, disponible depuis bientôt deux semaines, le store n'est pas encore disponible par contre. Pour le moment j'ai rien vu de transcendant venant de ces trucs, certains sont amusants mais ce n'est pas incroyable non plus par rapport à GPT 4 que tu peux utiliser sur le site ou le playground, ça va probablement s'améliorer mais on est pas encore là. En revanche Sam Altman a dit qu'OpenAI travaille sur GPT-5 mais ils manquent de datas et de cartes graphiques.
Citation :
Publié par Zardok
C'est plutôt une bonne chose. Il ne sera pas bien difficile pour les IA de prendre de meilleurs décisions que les décideurs politiques : enfin des décisions rationnelles, prenant en compte un max de données sans électoralisme.
Ca dépendra des critères que tu forceras l'IA à prendre en compte.

Une IA ultra pragmatique sans aucun critère moral ce sera Hitler en pire.

Oublies pas qu'on est en surpopulation, qu'on protège les plus faibles (gauche/droite est une histoire de curseur mais tout le monde s'accorde sur l'idée de base), les enfants, les handicapés, les vieux, les malades incurables, etc. Bref on fait preuve d'humanité autant que possible.

Y aussi de grandes chances qu'une IA en ait rien à branler de l'écologie et adopte plutôt une politique ultra technologique pour résoudre les soucis de notre monde.

Puis des concepts comme les droits de l'homme (ou des droits tout court en fait ) n'en parlons pas.
C'est un peu la base de la loi de la robotique, quand même. IA ou robots ça revient au même, si on met pas des gardes-fous dès le départ, ça ne peut pas aller autrement que mal pour les humains/le vivant, c'est sûr.
Citation :
Publié par baboudumonde42
C'est un peu la base de la loi de la robotique, quand même. IA ou robots ça revient au même, si on met pas des gardes-fous dès le départ, ça ne peut pas aller autrement que mal pour les humains/le vivant, c'est sûr.
Oui m'enfin on a le temps de voir venir quand même et l'appellation "intelligence artificielle" que tout le monde utilise est pour le moment assez ridicule. Un ver de terre est plus intelligent qu'une "IA" actuelle, il n'y a pas le moindre début de réflexion ou d'intelligence c'est uniquement du code et de la création humaine.

Alors peut être qu'on va apprendre à mieux les coder, à en faire de formidables outils mais parler d'intelligence et du danger potentiel que ça représente c'est pour le moment du vent.
Citation :
Publié par Aloïsius
MAIS le changement, la révolution, le truc qui file le vertige c'est qu'on est en train, très rapidement de voir nos capacités cognitives de plus haut niveau être dépassées par celles d'une IA, et qu'on a strictement AUCUN moyen de savoir comment elles font, puisque ce sont de véritables boîtes noires.
C'est chiant, parce que ça signifie qu'il existe des corrélations et des "lois" qu'elles peuvent identifier mais auxquelles nous ne pouvons pas accéder.
@Soya02 : imo, y a des gens qui seront surpris dans moins de 10 ans... si le climat n'a pas commencé à vraiment nous chahuter d'ici là.

Et de toute façon, en restant sur du vivant, et même purement de l'humain, on a toujours pas répondu à ce qu'était l'intelligence. Quand je regarde les 30 dernières années, des dirigeants Politiciens aux grands Patrons, de l'intelligence j'en vois bien peu. Des opportunistes, des entubeurs de mouches, quelques hurluberlus boucs émissaires et une poignée de véritables enculés, ça oui j'en vois à la pelle. Mais pas grand chose de ce que, moi, je considère comme de l'intelligence (à mes yeux, être capable de se payer une Ferrari pour s'encastrer comme une merde dans un mur à moitié torché à peine sorti de la concession, c'est pas être intelligent. Et c'est exactement ce qu'on fait avec notre société mondialisée, sur quasiment tous les sujets, plans et niveaux. Alors l'intelligence...).
Citation :
Publié par baboudumonde42
(à mes yeux, être capable de se payer une Ferrari pour s'encastrer comme une merde dans un mur à moitié torché à peine sorti de la concession, c'est pas être intelligent. Et c'est exactement ce qu'on fait avec notre société mondialisée, sur quasiment tous les sujets, plans et niveaux. Alors l'intelligence...).
Selon moi, l'intelligence c'est la capacité à traiter l'information pour résoudre des problèmes ou faire preuve de créativité. A ne pas confondre avec la sagesse qui serait la capacité à utiliser son expérience et son jugement (de ce qui est bien ou mal, souhaitable ou pas) pour éviter les problèmes.
Citation :
Publié par Doliprane 500mg
En revanche Sam Altman a dit qu'OpenAI travaille sur GPT-5 mais ils manquent de datas et de cartes graphiques.
En parlant de Sam Altman, cofondateur d'OpenAI, il vient de se faire virer par le Conseil d'administration de l'entreprise. Il n'aurait plus la confiance du Conseil. Il est aussi accusé publiquement depuis 2021 par sa sœur d'abus sexuel durant leur enfance, mais pour le moment le Conseil se borne à dire qu'ils l'ont viré car ils n'avaient plus confiance dans sa capacité à diriger OpenAI et qu'il n'a « pas toujours été franc dans ses communications avec le conseil, ce qui a entravé sa capacité à remplir ses responsabilités ».
Citation :
Publié par baboudumonde42
@Soya02 : imo, y a des gens qui seront surpris dans moins de 10 ans... si le climat n'a pas commencé à vraiment nous chahuter d'ici là.

Et de toute façon, en restant sur du vivant, et même purement de l'humain, on a toujours pas répondu à ce qu'était l'intelligence. Quand je regarde les 30 dernières années, des dirigeants Politiciens aux grands Patrons, de l'intelligence j'en vois bien peu. Des opportunistes, des entubeurs de mouches, quelques hurluberlus boucs émissaires et une poignée de véritables enculés, ça oui j'en vois à la pelle. Mais pas grand chose de ce que, moi, je considère comme de l'intelligence (à mes yeux, être capable de se payer une Ferrari pour s'encastrer comme une merde dans un mur à moitié torché à peine sorti de la concession, c'est pas être intelligent. Et c'est exactement ce qu'on fait avec notre société mondialisée, sur quasiment tous les sujets, plans et niveaux. Alors l'intelligence...).
L'IA ne pense pas, ne réfléchit pas, n'a aucune volonté propre. C'est l'humain qui décide d'absolument tout et il n'y a actuellement pas plus de danger qu'elle se rebelle qu'un four à micro-ondes. Les gens qui dev ça donnent parfois un coté "humain" factice parce que l'anthropomorphisme est quelque chose de très présent chez nous (exemple: https://www.youtube.com/watch?v=6-RunpF2nk8) mais ça n'en reste pas moins du fake.

J'ai plus peur de ce que l'humain va faire dans le futur avec ces outils qu'une pseudo rébellion des IA.
Citation :
Publié par Arkken
En parlant de Sam Altman, cofondateur d'OpenAI, il vient de se faire virer par le Conseil d'administration de l'entreprise. Il n'aurait plus la confiance du Conseil. Il est aussi accusé publiquement depuis 2021 par sa sœur d'abus sexuel durant leur enfance, mais pour le moment le Conseil se borne à dire qu'ils l'ont viré car ils n'avaient plus confiance dans sa capacité à diriger OpenAI et qu'il n'a « pas toujours été franc dans ses communications avec le conseil, ce qui a entravé sa capacité à remplir ses responsabilités ».
Le plus inquiétant c'est qu'ils n'ont pas donné les réelles raisons de cette perte de confiance subite, ils vont mettre la directrice technique en interim au poste de PDG.

Les investisseurs risquent de perdre confiance aussi sans plus d'informations, même Microsoft a réussi à baisser hier suite à l'annonce.

affaire à suivre
Citation :
Publié par Jet
Le plus inquiétant c'est qu'ils n'ont pas donné les réelles raisons de cette perte de confiance subite, ils vont mettre la directrice technique en interim au poste de PDG.
(rumeur) il aurait abusé de sa soeur
Citation :
Serious allegations of abuse made against OpenAI’s newly fired CEO Sam Altman by his sister Annie Altman gained renewed attention on social media in October 2023 and highlighted which sort of stories receive widespread press coverage.


(...)
Annie Altman alleged in a November 2021 Twitter thread that she “experienced sexual, physical, emotional, verbal, and financial abuse from my biological siblings, mostly Sam Altman and some from Jack Altman.” She returned to those allegations in 2023, seeming to call out Sam.
https://www.themarysue.com/annie-alt...ity-over-tech/
Citation :
Publié par Touful Khan
Le principal frein à l'IA, c'est de constater dans le milieu professionnel l'incapacité des gens à ne serait-ce que faire une recherche sur Google.
C'est pas un frein. Mais c'est pour ça qu'on dit que le vrai débat il ne sera pas entre IA vs Humains mais entre Humains qui savent utiliser l'IA et ceux qui ne savent pas.

Il y a aussi un troisième niveau entre ceux qui utilisent un GPT de manière basique et ceux qui savent prompter correctement. Mais ce troisième niveau existait aussi au début des moteurs de recherche entre ceux qui les utilisaient de manière basique et ceux qui connaissaient la syntaxe pour affiner leur recherche.
Citation :
Publié par znog
(rumeur) il aurait abusé de sa soeur

https://www.themarysue.com/annie-alt...ity-over-tech/
d'autres rumeurs

Citation :
Le cofondateur, président d’OpenAI et ami de Sam Altman, Greg Brockman, a lui aussi annoncé son départ, sans non plus fournir d’explication. Sur les réseaux sociaux, moult rumeurs ont été avancées, des hypothèses et des scénarios dignes de la série Succession. Affaire personnelle ? Conflits d’ego, archifréquents dans la Silicon Valley ? Révolution de palais ? Divergences stratégiques avec Microsoft ? Certains ont fait valoir que le géant du logiciel, qui n’a actuellement pas de représentant au conseil d’administration d’OpenAI, allait désormais avoir plus de contrôle. Selon l’agence Bloomberg, deux responsables ont assuré sous couvert d’anonymat que Microsoft n’avait « pas orchestré le départ » de Sam Altman.

(...)


Kara Swisher, journaliste spécialiste de la Silicon Valley, a, elle, fait état d’une division grandissante au sein d’OpenAI entre « partisans du profit » et adeptes du modèle non lucratif.
https://www.lemonde.fr/economie/arti...0901_3234.html
Citation :
Publié par Soya02
J'ai plus peur de ce que l'humain va faire dans le futur avec ces outils qu'une pseudo rébellion des IA.
Pas besoin de rébellion des IA pour qu'elles nous envoient dans le mur. Suffit qu'elles deviennent tellement efficace pour qu'on en fasse des sortes de divinité dont les oracles auraient force de loi, même lorsqu'elles cessent d'être efficaces.
On l'a déjà fait dans le passé avec des dieux imaginaires ("sacrifiez 10 000 guerriers en mon honneur sans quoi ce sera la fin du monde"), vu le niveau de connerie ambiant je pense qu'on pourrait faire des conneries équivalentes si une IA hallucinait un résultat improbable.
Citation :
Publié par Aloïsius
Pas besoin de rébellion des IA pour qu'elles nous envoient dans le mur. Suffit qu'elles deviennent tellement efficace pour qu'on en fasse des sortes de divinité dont les oracles auraient force de loi, même lorsqu'elles cessent d'être efficaces.
Et il y a également une autre manière d'aller dans le mur, c'est de filer à des "IA" le contrôle de systèmes critiques (ou indirectement mais accessible à l'IA) parce qu'il aura été considéré comme plus efficace qu'un humain et qu'un bug ou qu'une décision soit prise à cause de mauvais paramètres ou d'une mauvaise "compréhension" d'un contexte spécifique pour potentiellement avoir de gros problèmes par la suite.
Ma femme a un abonnement à GPT4 et elle trouve que le prix est ridicule par rapport à ce que ça apporte, surtout que les concurrents comme Bard, sont très loin derrière. Elle pense que ce changement de tête va aller avec ces augmentations de prix salés et que c'est pour ça qu'il a été viré, ça rapporte pas assez par rapport à ce que ça devrait.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés