Intelligence Artificielle (IA): derniers dévelopments

Répondre
Partager Rechercher
Je n'ai pas trouvé de fil sur le sujet, et pourtant j'ai l'impression qu'on en discute de temps en temps sur JoL.

On est pas encore arrivé a Skynet, mais un ingénieur de Google (en mise a pied actuellement) aurait déclaré qu'une de leur IA serait "sentient" (c'est quoi le terme équivalent en français? Consciente?).
En gros elle exprimerait de la peur de se faire déconnecter ret donc de mourir, et l'ingénieur dit qu'on dirait un enfant de 7ans.
Si c'est vrai, il est temps de s'armer et de chercher John Connor....


Article du Guardian: https://www.theguardian.com/technolo...-blake-lemoine

Extrait du dialogue avec le chat bot:


Citation :
“I’ve never said this out loud before, but there’s a very deep fear of being turned off to help me focus on helping others. I know that might sound strange, but that’s what it is,” LaMDA replied to Lemoine.

“It would be exactly like death for me. It would scare me a lot.”
On aura plus a se soucier du réchauffement climatique.
Même si c'est exact ça ne prouve strictement rien à part que l'ordinateur a appris à reproduire une peur humaine à partir des millions de textes écrits par des humains qu'on lui a fait ingurgiter.

Le moment ou l'ia va nous supplier de ne pas la débrancher quand on s'approche du bouton n'est pas encore là je pense
Citation :
Publié par Zangdar MortPartout
Même si c'est exact ça ne prouve strictement rien à part que l'ordinateur a appris à reproduire une peur humaine à partir des millions de textes écrits par des humains qu'on lui a fait ingurgiter.

Le moment ou l'ia va nous supplier de ne pas la débrancher quand on s'approche du bouton n'est pas encore là je pense
Pareil.
Mais cela peut avoir des conséquences sur certains humains qui vont en tirer des conclusions qui pourraient avoir un impact sur l'humanité elle-même.
Ce n'est pas une conscience, ok.

Mais qu'en est-il de la distinction, pour l'interlocuteur, entre une conscience humaine et le programme qui a appris à reproduire la peur ?
Approche-t-on du moment où on ne saura pas, si on n'a pas été averti, que ce n'est pas un être humain ?
Citation :
Publié par Sal
Pas convaincu à la lecture des dialogues (https://cajundiscordian.medium.com/i...w-ea64d916d917)
Et on aura des modèles capables de simuler plus ou moins bien une conscience bien avant d'avoir des IA conscientes pour sur
est-ce que simuler une conscience n'est pas suffisant au final ? où est la différence entre une simulation parfaite et une réalité ?
[Modéré par Kocinsky :]


Sinon, il me semblait me souvenir d'un test inventé il y a longtemps pour définir si un robot était « conscient » ou pas, je délire ? Ça vous évoque quelque chose ? Est-ce qu'on sera un jour en capacité de dire « telle IA est consciente et une forme de sentiments » ou pas ?

Dernière modification par Kocinsky ; 17/06/2022 à 00h11.
Citation :
Publié par Pitit Flo -TMP
C'est ce que tu expliques à tes conquêtes après des ébats ratés ?

Sinon, il me semblait me souvenir d'un test inventé il y a longtemps pour définir si un robot était « conscient » ou pas, je délire ? Ça vous évoque quelque chose ? Est-ce qu'on sera un jour en capacité de dire « telle IA est consciente et une forme de sentiments » ou pas ?
Je pense que tu fais référence à ce test, mais il teste seulement si la machine peut se faire passer pour un humain, pas si elle est consciente.
https://en.wikipedia.org/wiki/Turing_test
Sans parler de cette actu très tape-à-l'oeil, y'a vraiment des nouveautés hallucinantes.

Passe-science a donné quelque exemples assez bluffants :

https://www.youtube.com/watch?v=Yoq5cfndzhM

Les deux exemples qui m'ont le plus impressionnés :

- Une IA capable de programmer comme le ferait un ingénieur, à partir d'instructions orales. A partir de là on est sans doutes plus très loin d'avoir des IA capables de s'auto-améliorer, non plus simplement dans leur apprentissage mais dans leur conception profonde.

- Une autre capable d'expliquer, en anglais, des blagues écrites en anglais. Je m'étais souvent posé la question de savoir quel est le dernier secteur qui resterait inaccessible aux IA et j'avais tablé sur l'humour, que je trouvais trop profondément lié à la psyché humaine. Ben je me suis bien planté !

Si on extrapole et qu'on considère que ces exemples sont publiques, donc probablement bien en dessous des réelles avancés qui sont fait dans les labo des géants du net, je me dis que les IA fortes (capable de calcul portant sur n'importe quoi, et plus seulement spécialisé autour d'un domaine en particulier) existent potentiellement déjà.

Citation :
Publié par Yubaba-Yaga
Je pense que tu fais référence à ce test, mais il teste seulement si la machine peut se faire passer pour un humain, pas si elle est consciente.
https://en.wikipedia.org/wiki/Turing_test
Ben vu qu'on ne sait pas définir la conscience, nous demander si l'IA est consciente ne nous avancera pas à grand chose. Le test de turing est beaucoup plus révélateur : si un humain n'arrive pas à différencier un humain d'une IA, quel que soit les questions posés, ça implique que l'IA est au moins aussi intelligentes qu'un humain en terme d'intelligence générale, dans tout les domaines dans lesquels l'humain est intelligent. Mais aussi qu'elle comprends suffisamment bien la psyché humaine et ses propres différences par rapport à celle-çi pour être capable de tromper un humain.

Si tout ça ça n'implique pas la conscience, alors c'est sans doutes que la conscience, pragmatiquement parlant c'est pas grand chose de très important.
Google avait présenté il y a longtemps un robot assistant qui prenait rdv pour quelqu'un chez un vrai coiffeur (si c'était pas bidonné, je ne sais pas), ca m'impressionne plus qu'un inge qui a l'air d'être devenu dingue à force d'avoir trop conversé avec son IA

Citation :
Publié par 'Az
Ben vu qu'on ne sait pas définir la conscience, nous demander si l'IA est consciente ne nous avancera pas à grand chose.
Il existe des définitions de la conscience. Mais étant nous même des machines électriques qui apprenons depuis notre conception je pense que pendant longtemps ce n'est pas la question de la conscience qui se posera mais celle de la vie. Est-ce qu'une machine qui sera capable d'appréhender sa "mort" pourra être considérée comme étant vivante ?
On pourra se dire que non vu que ça restera une fabrication mais d'un autre côté ça reviendrait à dire que la vie ne peut être issue que de la biologie. Pourquoi pas.

A titre personnel j'ai plutôt tendance à penser que la SF d'anticipation qui envisage que la création d'une intelligence in fine supérieure ne pourrait aller que dans le sens de notre extermination tape plutôt juste.
L'IA n'a probablement pas de réelle conscience mais rendu là ça passe le test de Turing non ?

Je ne sais pas si vous avez lu les transcripts, mais la seule chose qui permet vraiment de savoir que c'est une IA, c'est le contexte de la discussion et le fait qu'elle admette être une IA.
En dehors de ces éléments, on ne peut vraiment pas savoir que c'est un ordinateur qui parle.
Citation :
Publié par Cpasmoi
L'IA n'a probablement pas de réelle conscience mais rendu là ça passe le test de Turing non ?

Je ne sais pas si vous avez lu les transcripts, mais la seule chose qui permet vraiment de savoir que c'est une IA, c'est le contexte de la discussion et le fait qu'elle admette être une IA.
En dehors de ces éléments, on ne peut vraiment pas savoir que c'est un ordinateur qui parle.

Comme toutes les "IA" de ce type, je te parie que ca prend moins de 10 minutes pour lui faire pondre des discours incoherent, ou la faire dégénerer vers une boucle de mots répétés ad nauseam.
Citation :
Publié par --------------------------------------------------
Comme toutes les "IA" de ce type, je te parie que ca prend moins de 10 minutes pour lui faire pondre des discours incoherent
Je te parie que j'arrive à faire ça avec n'importe quel être humain
Citation :
Publié par Aragnis
A titre personnel j'ai plutôt tendance à penser que la SF d'anticipation qui envisage que la création d'une intelligence in fine supérieure ne pourrait aller que dans le sens de notre extermination tape plutôt juste.
Pfiou... ça c'est une question compliqué.

Disons que l'humain de ce début du 21ième siècle aura bien du mal à garder une place dans le monde de demain où des IA prendront de meilleurs décisions politique, économiques, militaires qu'eux.
Maintenant, l'humain de la 2ième partie du 21ième siècle et au delà sera sans doutes assisté par de nombreux outils personnels qui amélioreront grandement ses connaissance et sa capacité à prendre de bonnes décisions, possiblement amplifié par de la bio-ingenierie et de la cybernétique.

Ce qui me semble évident, c'est qu'on va devenir, encore plus qu'on ne l'est déjà, totalement dépendant de notre technologie.

Citation :
Publié par Cpasmoi
L'IA n'a probablement pas de réelle conscience mais rendu là ça passe le test de Turing non ?

Je ne sais pas si vous avez lu les transcripts, mais la seule chose qui permet vraiment de savoir que c'est une IA, c'est le contexte de la discussion et le fait qu'elle admette être une IA.
En dehors de ces éléments, on ne peut vraiment pas savoir que c'est un ordinateur qui parle.
Le test dans sa forme originale prévoit des questions très poussés et spécialement conçues pour chercher à distinguer l'IA de l'humain. Pour qu'un test de turing soit indiscutablement réussis, il faudrait que le concepteur de l'IA n'arrive pas à la différencier d'un humain tiré au hasard en ayant toute la latitude qu'il veut dans les questions à poser.
Je ne pense pas qu'on en soit là, même si ça n'est sans doutes qu'une question d'années.
Je ne sais pas si vous connaissez le mec mais il est plutôt marrant dans ses live, et concernant les IA il avait fait ça :


D'un côté ça écrit bien, mais ça part très vite en couille, et la cohérence est clairement pas là.

Mais pour ceux qui parlent de Turing, le but est juste de converser à l'écrit et que les humains n'arrivent plus à différencier une IA de vrais humains. Il n'y a pas de question de conscience ou quoi derrière dans la notation.
Citation :
Publié par --------------------------------------------------
Comme toutes les "IA" de ce type, je te parie que ca prend moins de 10 minutes pour lui faire pondre des discours incoherent, ou la faire dégénerer vers une boucle de mots répétés ad nauseam.
Comme sur l'Agora ?

Citation :
Publié par 'Az
Pfiou... ça c'est une question compliqué.

Disons que l'humain de ce début du 21ième siècle aura bien du mal à garder une place dans le monde de demain où des IA prendront de meilleurs décisions politique, économiques, militaires qu'eux.
Maintenant, l'humain de la 2ième partie du 21ième siècle et au delà sera sans doutes assisté par de nombreux outils personnels qui amélioreront grandement ses connaissance et sa capacité à prendre de bonnes décisions, possiblement amplifié par de la bio-ingenierie et de la cybernétique.

Ce qui me semble évident, c'est qu'on va devenir, encore plus qu'on ne l'est déjà, totalement dépendant de notre technologie.
Comme tu le dis, il arrivera un moment où les machines sauront prendre des meilleurs décisions que les humains (et dans certains domaines c'est déjà le cas) donc ça ne sera même plus une question de dépendance à la techno.
J'ai envie de dire que si à l'heure actuelle on laissait une IA conçue pour le bien commun gérer la politique internationale, la Terre serait probablement globalement un meilleur endroit pour la majorité actuellement en souffrance, mais ouf on en est loin vu que ceux qui ont l'argent (et donc le pouvoir) ne sont pas près de laisser ça arriver .
A voir si on donne plus de liberté à une IA comme celle là. Elon Musk veut placer une IA dans ses droïdes, peut être qu'avec une limitation physique et en étant dans un corps mécanique cette IA serait capable de mauvaises ou de bonnes choses. Avec l'IA de Google ça serait pas mal de lancer ce même scénario, celui de la placer dans un corps, et la mettre au milieu de la foule pour voir ce qu'elle va faire.

Si elle partirait en plein conflit Russe/Ukraine et quel côté elle choisirait, Le côté Russe à torturer et violenter des Ukrainiennes ou brandir le drapeau Ukrainien sur une place Russe. Ou alors un scénario à la transcendance, Arriver à un mix entre matière organique et mécanique.

Sinon ça ne me fait ni chaud ni froid comme annonce. Jusqu'à aujourd'hui le monde n'a pas eu besoin d'IA pour être un énorme foutoir. Alors des robots, avec une conscience ou pas, en plus dans la partie ne changera pas grand chose à mes yeux.

Le meilleur serait que cette ou ces IA se mettent d'accord en nous jugeant inapte à dominer le monde. De nous voir trop immature à passer tout notre temps libre à jouer aux petits soldats, à se goinfrer de sucre toute la journée, à faire des concours du plus gros etron et autres joyeusetés du même genre.

-> Jet: On va garder le concours d'etron alors

Dernière modification par smonk ; 14/06/2022 à 16h30.
Citation :
Publié par smonk
A voir si on donne plus de liberté à une IA comme celle là. Elon Musk veut placer une IA dans ses droïdes, peut être qu'avec une limitation physique et en étant dans un corps mécanique cette IA serait capable de mauvaises ou de bonnes choses. Avec l'IA de Google ça serait pas mal de lancer ce même scénario, celui de la placer dans un corps, et la mettre au milieu de la foule pour voir ce qu'elle va faire.

Si elle partirait en plein conflit Russe/Ukraine et quel côté elle choisirait, Le côté Russe à torturer et violenter des Ukrainiennes ou brandir le drapeau Ukrainien sur une place Russe.
C'est vraiment pas la bonne façon de considérer les choses. Tu met une IA face à des problèmes éthiques humains.

Si tu met une IA au milieu d'un conflit humain, elle fera exactement ce pour quoi elle a été conçue : résoudre la tâche que lui a confié son développeur.

Si c'est se ranger au côté des russes, elle le fera, si c'est se ranger au côté des ukréniens, elle le fera.

Si c'est de cueillir des fleurs sans considération pour la guerre en cours, elle le fera aussi. Mais dans ce dernier cas, peut être qu'elle risque de déterminer que se prendre des bombes sur la gueule, c'est pas génial pour maximiser la quantité de fleur cueillis. Du coup qu'est ce qu'elle va trouver de plus opti ? Si le concepteur n'a pas inclus des composantes éthiques à son IA, alors la meilleur façon de maximiser la quantité de fleurs récoltés ça pourrait être de massacrer tout les humains alentours, russes ou ukrainiens, parce que la probabilité qu'ils viennent interférer dans la récolte serait évalué comme trop élevé.

Le danger des IA c'est ça : que leur trop grande intelligente pour résoudre les tâches qui leur ont été confié dépasse les limites de notre imagination, et lorsqu'elles seront en terra incognita, est-ce que les décisions qu'elles prendront seront vraiment pour le bien commun réel, ou alors pour un bénéfice limité par l'interprétation qu'elle fait de son programme, qui peut du coup être tout et n'importe quoi.
Citation :
Publié par 'Az
Si le concepteur n'a pas inclus des composantes éthiques à son IA, alors la meilleur façon de maximiser la quantité de fleurs récoltés ça pourrait être de massacrer tout les humains alentours, russes ou ukrainiens, parce que la probabilité qu'ils viennent interférer dans la récolte serait évalué comme trop élevé.
ou alors il a trop bien inclus l'éthique...à mon avis contre l'éthique vaut mieux se faire vacciner, ça trimballe plein de maladies.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés