IA, Robots et la question de la conscience

Répondre
Partager Rechercher
Citation :
Publié par Soir
L'Hard AI semble correspondra à la définition forte de l'AI. Et rester de la SF pour le moment. Réalisable ou pas ? C'est une des questions . L’expérience dans le lien est intéressante, ce n'est qu'un argument parmi d'autres, mais c'est un argument à prendre en considération. Il entre pile dans le sujet, sur la question de la conscience, en tout cas !
Pour le realisable, ou non, on en a aucune idee a l'heure actuelle. On a pas la moindre idee de ce qui cause notre experience consciente, et de quel role ca joue (ou non) dans l'intelligence. A notre stade, on est plus dans le domaine de la croyance que de la science quant a la reponse a ce genre de questions.
Citation :
Publié par Sergul
Concrètement, la partie "choix de l'objet à récupérer", c'est de la vision ? Recherche de forme correspondante, décodage de code barre, recherche par couleur, truc comme ça ? Certainement avec une caméra mobile (sur un bras qui se promène ? ) ? Ou en recherchant un signal émis par une puce quelques centimètres autour de l'objet ? Un peu de tout ça ?

Si oui, je considère pas ça comme de l'IA mais comme un algorithme complexe de recherche avec différents capteurs mis en commun (vision, ondes radio diverses).
C'est ça, un peu de tout. Tout le principe de cette compétition est de laisser le libre choix des compétiteurs pour le design du robot, il y a juste des contraintes d'encombrement.

Ton expression "algorithme complexe de recherche" est à peu près aussi précise que l'expression "intelligence artificielle". Après rien n'empêche de cumuler les fonctions, et de laisser au robot d'Amazon la possibilité de jouer au tennis si on lui donne une raquette et une balle. L'avantage du support informatique est qu'on peut facilement adapter un algo sur un nouveau support, d'ailleurs en robotique la plupart des algos de l'état de l'art sont dispo en open-source histoire que les gens s'acharnent à faire de nouvelles choses et pas à réinventer la roue.
Citation :
Publié par Soir
...
Debione, je comprends ton point de vue mais il me semble un peu trop extrême. J'ai l'impression que non seulement tu demandes que l'IA correspondent à la définition forte, mais tu exiges d'elle des choses que qu'un humain aurait du mal à faire.

...
La création d'un troisième concept nouveau à partir de deux concepts anciens. On le fait régulièrement, n'importe quel humain.
Disons que l'humain ne fait pas preuve d'intelligence tout le temps. Comme dit dans un message précédent, pour moi quelqu'un qui fait de hautes études n'est pas forcément intelligent, il a juste une capacité supérieur à restituer selon certaines attentes (il fait comme le script le lui demande).
Je m'essaye dans une démonstration simple d'intelligence...simple:
Quand je me lève le matin, les yeux gonflés, que j'empoigne ma cafetière italienne et prépare mon café, je ne fais preuve d'aucune intelligence. Quand je remarque avec effroi que ma brique de lait est vide, toujours aucune preuve d'intelligence. Par contre, soit je ne fais pas preuve d'intelligence et je vais chercher du lait à l'épicerie en bas de chez moi (car mon script c'était café au lait) soit je me souviens que j'ai de la crème chantilly au frigo et malgré le fait que mon script me dise "café au lait" je vais faire café chantilly... Alors que la possibilité de faire café au lait existe, je vais aller à l'encontre de mon script. A noter que cet exemple n'est valable qu'une seule fois, le lendemain si je n'ai toujours pas de lait et que je me refais un café chantilly, je ne ferai pas à nouveau preuve d'intelligence, mais appliquerai un script éprouvé.
Citation :
Publié par debione
Par contre, soit je ne fais pas preuve d'intelligence et je vais chercher du lait à l'épicerie en bas de chez moi (car mon script c'était café au lait) soit je me souviens que j'ai de la crème chantilly au frigo et malgré le fait que mon script me dise "café au lait" je vais faire café chantilly... Alors que la possibilité de faire café au lait existe, je vais aller à l'encontre de mon script.
Je vois. Nous ne sommes sans doute pas d'accord sur la nature de l'intelligence, ou plutôt des intelligences, mais je pense comprendre ton point de vue. Permets-moi quand même de te poser une question un peu malicieuse .

Comment es-tu sûr que ta décision "café chantilly" n'est pas le résultat d'un script ? Du genre "Si le script café au lait est impossible, lancer le script chercher autre chose pour mettre dans le café ? Je pense que quelque soit l'exemple que tu me donnes, je pourrais toujours trouver un script qui y correspond.
Du coup j'ai du mal à voir où tu veux en venir Soir, à cerner ta question générale.

Le but d'une IA est d'imiter l'intelligence humaine, généralement en ce qui concerne un ou quelques tâches. Ces tâches (tri, détections diverses, dialogue et compréhension de questions, etc) sont toujours précisées, en fait une IA sans tâche n'a à mon sens pas d'utilité. Une IA n'existe qu'au travers de sa tâche.

Tandis qu'un humain n'a pas un but précis. Ce n'est qu'au travail qu'on peut, dans certains domaines, résumer l'humain à un ensemble de tâches (et c'est pour ça que le travail humain est remplacé gentiment par celui de machines à IA). Du coup, l'idée d'une IA avec conscience est pour l'instant absurde, parce que l'IA est esclave de sa/ses tâches. Une IA n'obéit pas à un ordre, elle vit uniquement au travers de cet ordre, elle existe de par cet ordre (son programme est lié à sa tâche).

Tant qu'une IA sera liée à une tâche, elle ne pourra pas avoir de conscience à mon sens.
Je ne vois pas le rapport. Le robot Daneel Olivaw a comme tâche, à première vue, de résoudre des affaires criminelles. Mais il a tout à fait l'air d'avoir conscience d'exister. En mettant de côté le gouffre technologique qui nous sépare de ce genre de réalisation, je me demande même si c'est possible. On ne sera jamais sûr que ce soit vraiment une conscience de soi ou une simulation très élaborée.

De plus, on peut arguer qu'un humain a plusieurs tâches, comme rester en vie, aller vers le plaisir / fuir la douleur, construire une vision cohérente du monde, etc.
Citation :
Publié par Soir
Je ne vois pas le rapport. Le robot Daneel Olivaw a comme tâche, à première vue, de résoudre des affaires criminelles. Mais il a tout à fait l'air d'avoir conscience d'exister. En mettant de côté le gouffre technologique qui nous sépare de ce genre de réalisation, je me demande même si c'est possible. On ne sera jamais sûr que ce soit vraiment une conscience de soi ou une simulation très élaborée.

De plus, on peut arguer qu'un humain a plusieurs tâches, comme rester en vie, aller vers le plaisir / fuir la douleur, construire une vision cohérente du monde, etc.
Oui mais on est dans la SF là (et j'adore Asimov au passage), c'est difficile de concevoir que ce type d'IA puisse exister puisqu'on ne saurait même pas définir exactement son fonctionnement. Asimov en parle si je m'en souviens bien comme d'un humanoïde évolué et autonome bridé par les trois lois de la robotique, qui effectivement a une fonction.

Perso je parle de ce qui existe dans le monde actuel, où aucune IA à ma connaissance n'a de tâche "ouverte" comme celles que tu décris à la fin. D'ailleurs, elles sont très intéressantes et je pense que tu pointes là des "tâches" qui elles généreraient une sorte de conscience : rester en vie, rester le plus intact possible, etc.

A ce niveau, on pourrait imaginer une IA qui évolue avec un ensemble de priorités et de tâches ou obligations qui y sont liées. Mais ça resterait un algorithme ne laissant aucune place au hasard. Par exemple, si on soumet le robot aux trois lois de la robotique (pas tuer d'humain, se protéger et obéir aux humains), voire même en virant la troisième, ils auront toujours un comportement prédictif.


Un exemple tout con, mais un robot avec une IA de ce type ne pourrait pas faire quelque chose qui aille à l'encontre de sa santé (sauf pour sauver un humain). Exit la clope/l'alcool (en admettant que ça leur nuise autant qu'à nous), les drogues, etc.La conscience c'est aussi la possibilité de faire le mauvais choix, ce qu'une IA ne peut pas faire. Elle peut se tromper par manque de performance, mais ne peut pas faire de "mauvais choix" volontairement.
Tant qu'on connaitra pas mieux le fonctionnement du cerveau humain je ne pense pas qu'on va avancer dans la hard I.A. mais je pense que pour certains domaines de l'entertainment, secteur des services ou de l'aide a domicile nous allons créer bientôt (dans + ou - une génération =25ans) des robots qui simule l’empathie et la conscience qui soit vraiment "bluffant" que même un psychologue lambda est de la difficulté a différentier le "fake".
Sergul, oui, une IA consciente, c'est de la SF. Mais le côté SF n'a rien à voir avec le fait que le robot aie une tâche ou pas, c'est juste que l'on n'a pas la technologie. SI on l'avait, qu'est-ce quel nous empêcherait de créer un Daneel ?

Quant au hasard, on peut très bien faire un algo qui se base sur de l'aléatoire.
Je ne vois pas pourquoi on voudrait au hasard en fait.
Une IA est conçue pour faire une tâche et la complexité de l'IA ne fait qu'étendre la complexité des tâches possibles.
Il ne doit pas y avoir de hasard dans la réalisation de la tâche, par contre l'intérêt de l'IA c'est qu'on ne sait pas exactement comment le système va se comporter pour y parvenir.
Par exemple, un robot qui doit parvenir à une certaine position en évitant des obstacles. Déjà, c'est assez difficile de dire dès le début si c'est possible de le faire. Ensuite, si le robot va trouver une solution (empiriquement c'est pas trop mal, mais la théorie ne peut pas conclure). Et enfin, s'il arrive à la bonne position, on ne pouvait pas forcément prévoir sa trajectoire. Et pour cause, on ne lui a pas donné une trajectoire à suivre mais une position à atteindre et des obstacles à éviter. La seule façon de savoir pas où il va passer, c'est de simuler le système mais ça revient au même problème.
En définitive, la trajectoire n'est pas choisie au hasard, elle est même déterministe et peut être très différente pour des paramètres un peu différents (éviter un obstacle par la gauche ou la droite, typiquement ça se joue à peu de choses).
Le hasard intervient toutefois dans certains algo de sortie de minimums locaux : si le robot est bloqué dans un cul de sac, on peut lui faire faire des mouvements aléatoires en espérant qu'il sorte et atteigne la bonne position.
Notons que le problème est similaire à n'importe quelle optimisation sous contrainte : minimiser l'erreur sur une tâche (ici la position) tout en respectant certaines contraintes (ici représentées par les obstacles). Sauf qu'en robotique, le chemin suivi par l'algo d'optimisation est en fait la trajectoire dessinée par le robot.
On peut imaginer une fusion cerveau ordinateur.
C'est à dire un cerveau connecté directement à la puissance de l'ordinateur.

Vous pensez un calcul demandant des milliards d'opération en une seconde. Dans la seconde qui suit vous êtes capables de traduire ce résultat en imagerie.
Vous pourrez apprendre tout le savoir de l'humanité par une mise à jour de données...
Les applications sont vertigineuses.

Je pense que l'humain va créé un sapiens amélioré plutôt qu'une autre espèce à part entière.

Le transhumanisme, l'H+ a déjà été évoqué sur jol, au moins par Jack'o et moi même.
C'est comique comme ce topic me fait penser à la trame de fond de Battlestar Galactica et à Caprica

Pour moi, on est pas prêt de voir arriver une IA développée comme l'OP le dit. C'est déjà limite d'arriver à concevoir des ordinateurs qui plantent pas, alors...

Si un jour (vraiment très lointain) on en venais à créer de telles choses. Je pense que ca serait assez compliqué à gérer. Mais d'ici-là, j'espère que l'humanité aura évolué et aura compris certaines choses et évitera tous les scénarios catastrophe qu'on peut imaginer aujourd'hui.
Citation :
Publié par Ron J.
...
Vous pensez un calcul demandant des milliards d'opération en une seconde. Dans la seconde qui suit vous êtes capables de traduire ce résultat en imagerie.
Vous pourrez apprendre tout le savoir de l'humanité par une mise à jour de données...
Les applications sont vertigineuses.
...
Sauf que le cerveau est exactement conçu pour fonctionner à l'inverse de cela. Oublier, modifier les souvenirs sont même une des bases de son bon fonctionnement.

A moins de créer un "truc" bourré de pathologie psychiatrique, il n'y a aucune chance que ce soit un "cerveau humain" avec ses caractéristiques humaines qui soit relié à ce genre de dispositif. On ne se rappelle déjà même pas de 1% de notre vie, en plus de manière erronée (ce qui nous permet de justement ne pas développer de pathologie), je t'explique même pas la bouillie cérébral d'un tel dispositif. Le problème la n'est pas la technologie, mais le fonctionnement humain.
L’intérêt de faire une I.A libre (sans but) serait utile pour le domaine de la R/D afin de solutionner des problèmes auquel l'homme est confronté mais aussi pour certains robot évoluant dans des conditions et environnement extrême (parce qu'ici tout n'est pas paramétrable).

Pour le reste je ne pense pas que c'est utile , c'est même plutôt encombrant , vos mieux des robots a I.A faible. Parce que des robot avec des crises existentielles c'est plutôt chiant à gérer.

Dernière modification par Bal'E ; 10/12/2014 à 13h38.
Citation :
Publié par Ron J.
On peut imaginer une fusion cerveau ordinateur.
C'est à dire un cerveau connecté directement à la puissance de l'ordinateur.

Vous pensez un calcul demandant des milliards d'opération en une seconde. Dans la seconde qui suit vous êtes capables de traduire ce résultat en imagerie.
Vous pourrez apprendre tout le savoir de l'humanité par une mise à jour de données...
Les applications sont vertigineuses.

Je pense que l'humain va créé un sapiens amélioré plutôt qu'une autre espèce à part entière.

Le transhumanisme, l'H+ a déjà été évoqué sur jol, au moins par Jack'o et moi même.
Ca doit faire partie de la ou on en est le plus loin a vrai dire. La memoire est un des domaines les moins compris de notre cerveau.
Bon je pense pas que je vais révolutionné le sujet. Il y a des types qui ont passé leur vie à répondre à ce genre de question.

Est-ce qu’il est possible de créer une entité consciente d’elle-même ?
C'est à mon avis tout à faire possible. "La conscience", "l'esprit" humain, c'est la manifestation d'un substrat biologique matériel. Et si on parle de la "machine biologique" c'est que l'organisation d'un organisme, plus ou la connait, mieux on arrive à conceptualisé les organigrammes qui la fait marcher.
Quant aux neurosciences, entre ceux qui s'inspire de l'organisation d'un cerveau pour faire des machines... et ceux qui s'inspire de l'organisation des réseaux pour comprendre le cerveau... on comprend bien à quel point l'idée de la vie comme simple machine n'est pas loin.

C'est une question de temps. De là à dire 10, 100 ou 1000 ans, je ne suis pas devin.


Est-ce que les IA nous dépassent ou vont nous dépasser ?
Sur tous les points. Pas en même temps.
Forcément, si on fait des machines exactement comme nous.
Bah... elles sont exactement comme nous.


Est-ce que les machines ont besoin d’une conscience pour être une menace ?
Oui/non. Surement. Ou pas.
C'est l'idée du "Guns don't kill people — people kill people"
Citation :
Publié par Soir
des intelligences
Enfin !

Peut-être que tout simplement, il existe des formes diverses et variées d'intelligence ? Une fourmi, ou un groupe de fourmis, qui se dépatouille dans une situation inconnue, un chimpanzé qui utilise une pipette de bois pour attraper des termites, des éléphants qui pleurent leurs enfants morts, une mante religieuse qui boulotte son compagnon après copulation, etc etc... formes d'intelligence, non ? Nécessité de conscience de soi ?

Sinon, en vrac, après avoir lu tous les messages, oui je ne passe que très rarement sur la taverne :
- des conférences sur l'AI, il y en a, même un paquet ... non, un gros paquet ! Pour n'en citer que 3 ou 4, IJCAI, ECAI, ICML, ICAI...
- AI libre, sans but, oui, 3 fois oui, et ça existe depuis un moment déjà, avec de belles surprises parfois, découvrir son AI qui développe un comportement parfaitement inattendu pour résoudre son problème, c'est plaisant.
- des NN qui évoluent dans leur architecture, idem, NN et GA, par exemple, bon mélange, depuis au moins une 15aine d'années.
- transhumanisme, pourquoi pas, il y a une 20aine d'années j'avais lu un papier sur la greffe de neurones de limaces sur plaque de silicium, aucune idée où cela a abouti à l'heure actuelle, pas dans ma spécialité.
Oui, des formes variées et des niveaux d'intelligence, aussi. Quand je parle de niveaux, je ne veux pas dire "X plus intelligent que Y", bien qu'à l'évidence cela puisse être mesuré pour certains types d'intelligences, je veux dire que la façon dont l’intelligence agit dépend du niveau dans lequel elle se trouve, comme le montre les travaux sur l'intelligence de l'enfant.

On ne peut pas dire qu'une IA, ce n'est pas une vraie intelligence sous prétexte que l'on y met des normes très élevées qu'elle ne satisferait pas.

Merci d'avoir apporté ton éclairage à la discussion, Kelem.
C'est également ce que je voulais souligner en pointant l'exemple de la conférence de robotique. On ne parle que très peu d'IA en ce terme, car dans notre domaine c'est trop flou.
Il y a des des sessions sur la panification de mouvement, la reconnaissance d'objets, l'interaction homme-machine... Mais tout ça peut aussi rentrer dans l'IA au sens général, c'est juste qu'on l'exprime en termes plus explicites, même si ça fait moins rêver et que ça a l'air moins "élevé".
Je remonte ce fil pour parler de deux choses que j'ai vu dernièrement (dont une ce soir).

Premièrement il s'agit d'un discours de Jeremy Howard lors de la dernière conférence TED à propos des ordinateurs (plutôt des logiciels) qui apprennent (ça dure 20min).


Il nous apprends que la technologie est déjà pas mal avancée et qu'un logiciel est déjà très efficace pour reconnaître et comprendre ce qui l'entoure. Cependant je tiens à souligner que ce n'est pas de l'intelligence artificielle mais juste de l'apprentissage et de la restitution de données (qu'ensuite le programme (ou un autre) traite pour savoir ce qu'il doit). En tout cas elle fonctionne toujours dans les limites de leur programmation et ne présente aucune intelligence (dans le sens IA, c'est plutôt désincarné si je peux dire).


La deuxième que j'ai regardé est le 10e épisode (de la 4e saison) de Person of Interest. Pour ceux qui ne connaissent pas, c'est une série américaine traitant d'une IA qui a été créée par un homme (un génie évidemment) pour espionner la population des Etats-Unis (et de New York plus spécifiquement) pour lutter contre les menaces terroristes.
L'IA est tellement puissante qu'elle peut prédire les attaques terroristes mais également les crimes ordinaires (grâce au data mining de tout ce qui circule sur Internet et autres différents réseaux). C'est une IA qui ne semble avoir aucune limite au niveau de ses capacités.

Cela a beau être une série, elle a le mérite de pouvoir soulever des questions quant au besoin d'espionnage pour faire le bien mais aussi sur puissance des intelligences artificielles et de notre dépendance à la technologie.

Je vais un peu spoiler je préviens (pour ceux qui suivent la série), le dernier épisode montre un "affrontement" entre la Machine (l'IA créée par l'homme indiqué un peu avant) et Samaritain, une IA créée par le gouvernement (mais qui possède moins de limites "morales" que la Machine) mais dirigée par une société privée.
Durant l'épisode, Samaritain pour une raison X (que je ne vais pas indiquer) montre qu'elle est capable de diriger la ville, régulant les transports, en empêchant les crimes et en sauvant les personnes en danger. Cette démonstration dure pendant une journée. 24h après, Samaritain montre qu'elle peut faire exactement l'inverse : diffuser des secrets (adultères, des trafiques, etc...), dérégler les transports, provoquer des accidents, etc provoquant le chaos en ville.

Et on parle d'une IA (de série évidemment) qui fait cela sans qu'elle ai reçu le moindre ordre afin de simplement montrer les étendues de son pouvoir. Ironiquement les différents protagonistes de l'histoire parle d'une possible guerre imminente entre deux Dieux.

Ce qui m'a le plus "marqué", c'est le dialogue de l'homme qui a créé la Machine avec l'une de ses associés qui semble très juste, le sujet portait sur le fait qu'il faudrait peut-être laisser Samaritain (ou la Machine) diriger nos vies parce qu'elle peut être meilleure grâce à elle (c'était pendant la période où Samaritain réglait tous les problèmes) :
Citation :
Même si j'avais réussi à créer une machine bienveillante, si une telle machine pouvait exister, n'oubliez pas qu'une soi-disante super intelligence artificielle amicale serait tout autant dangereuse qu'une super intelligence malveillante.
[...]
- Avez-vous oublié qu'elle nous a demander de tuer un député ?
- Mais c'était pour empêcher Samaritain de se connecter.
- Alors où ça s'arrête Mademoiselle *** ?
Un député ici, un président là ?
Que se passerait-il si un jour, une intelligence artificielle bienveillante décidait de mettre un terme à la faim dans le monde en tuant suffisamment de personnes sur la planète pour qu'il n'y ai plus de problèmes de nourriture ? Elle aurait atteint son but, mais ce n'est pas exactement dans notre meilleur intérêt.
- Votre machine ne ferait jamais cela.
- Vous ne pouvez pas en être sûr, miss ***.
Dire qu'une machine est bienveillante, ne la fait pas le devenir pour autant, cela vous conduit juste à oublier la réalité.
- Qui est ?
- Que notre système moral ne sera jamais traduit en elles pour la simple raison qu'elles ne sont pas humaines.
Tout ça pour qu'on est pas si loin que ça de la création d'une véritable IA. Ce qu'il faut c'est réussir à donner de l'intelligence à ces programmes d'apprentissage par exemple. Cependant, si on ne met pas des chaînes à ces IAs (comme l'Homme de la série), le boomerang pourrait très bien nous revenir en pleine figure.

PS : l'IA dans la série (je parle de la Machine) a réussi à se déplacer à travers le pays sans que personne ne s'en rendent compte (elle usurpait l'identité des personnes (civiles, armées ou gouvernementales) pour déplacer ses serveurs comme elle le souhaitait, est capable de prédire des crimes des jours à l'avance, peut entrer dans n'importe quel système informatique et peut espionner (de manière visuelle je parle là) presque n'importe qui à partir du moment qu'il y a un PC (ou un téléphone/PC portable) avec une connexion Internet. Ce sont des choses qui sont techniquement faisables aujourd'hui par l'homme (enfin la prédiction des crimes pas vraiment, il y a trop de données à traiter pour qu'une personne (ou un groupe de personnes) puisse le faire dans un temps imparti), donc pour une IA c'est du gâteau.
Citation :
Publié par Anthodev
Cependant je tiens à souligner que ce n'est pas de l'intelligence artificielle mais juste de l'apprentissage et de la restitution de données (qu'ensuite le programme (ou un autre) traite pour savoir ce qu'il doit). En tout cas elle fonctionne toujours dans les limites de leur programmation et ne présente aucune intelligence (dans le sens IA, c'est plutôt désincarné si je peux dire).
Deux points :
- AI et apprentissage : une machine qui apprend n'est pas considéré comme une AI, d'après toi ?
- limites de sa programmation : et nous ? Peut-être que nous-mêmes ne sommes capables de fonctionner que dans les limites de notre programmation, biologique ?

Citation :
PS : l'IA dans la série (je parle de la Machine) a réussi à se déplacer à travers le pays sans que personne ne s'en rendent compte (elle usurpait l'identité des personnes (civiles, armées ou gouvernementales) pour déplacer ses serveurs comme elle le souhaitait, est capable de prédire des crimes des jours à l'avance, peut entrer dans n'importe quel système informatique et peut espionner (de manière visuelle je parle là) presque n'importe qui à partir du moment qu'il y a un PC (ou un téléphone/PC portable) avec une connexion Internet. Ce sont des choses qui sont techniquement faisables aujourd'hui par l'homme (enfin la prédiction des crimes pas vraiment, il y a trop de données à traiter pour qu'une personne (ou un groupe de personnes) puisse le faire dans un temps imparti), donc pour une IA c'est du gâteau.
Y'a un truc qui me titille là-dedans... si cette AI est capable de prédire des crimes, elle devrait également être capable de prédire d'autres types évènements, non ? Si non, pourquoi ? Si oui, alors elle devrait être capable de prédire sa, ou plutôt "ses" fins, non ? Or, si elle peut le prédire, elle devrait pouvoir l'empêcher, non ? Par de nombreux moyens ? Et donc, pourquoi bouger ses serveurs ? Il devrait exister des moyens qui engagent moins de dépense énergétique, non ? Possible que parfois il n'existe qu'un seul moyen d'échapper à son sort, mais dans ce cas pourquoi bouger sans cesse ? Pourquoi ne pas anticiper, plusieurs coups à l'avance ?

Ce n'est pas totalement clair, mais ça me titille...
Citation :
Publié par Kelem Khâl La'Ri
Deux points :
- AI et apprentissage : une machine qui apprend n'est pas considéré comme une AI, d'après toi ?
Je quote que ça, après, c'est de la SF.

Donc non ce n'est pas une IA.
C'est comme un scanner. Il scan la feuille et peut l'imprimer ensuite.

Lui, il "imprime" des données et peut te les restituer. En aucun cas ses données changeront sa fonction
Citation :
Publié par Kelem Khâl La'Ri
Deux points :
- AI et apprentissage : une machine qui apprend n'est pas considéré comme une AI, d'après toi ?
- limites de sa programmation : et nous ? Peut-être que nous-mêmes ne sommes capables de fonctionner que dans les limites de notre programmation, biologique ?
Dans l'exemple de Jeremy Howard c'est plutôt clair. La machine apprends à trier mais elle n'a aucune initiative (et ne peut pas changer sa fonction comme l'indique bien MiniTIZ). Le logiciel ne fait rien si tu ne lui demande rien. Une IA dans le cas présent pourrait anticiper tes besoins : les trier par couleur, par modèle, date, etc... avant même que tu le lui "demande".

L'Homme n'a pas un programme clair à part (sur)vivre et procréer. Le reste ce sont des choix que nous faisons.

Citation :
Publié par Kelem Khâl La'Ri
Y'a un truc qui me titille là-dedans... si cette AI est capable de prédire des crimes, elle devrait également être capable de prédire d'autres types évènements, non ? Si non, pourquoi ? Si oui, alors elle devrait être capable de prédire sa, ou plutôt "ses" fins, non ? Or, si elle peut le prédire, elle devrait pouvoir l'empêcher, non ? Par de nombreux moyens ? Et donc, pourquoi bouger ses serveurs ? Il devrait exister des moyens qui engagent moins de dépense énergétique, non ? Possible que parfois il n'existe qu'un seul moyen d'échapper à son sort, mais dans ce cas pourquoi bouger sans cesse ? Pourquoi ne pas anticiper, plusieurs coups à l'avance ?
Elle peut prédire les crimes car elle a des tonnes d'informations à sa disposition : contenu des mails, appels, messages téléphoniques, situation psychologique, financière etc... toutes ces infos lui permet de savoir quand un crime (prémédité évidemment, les crimes passionnels ne peuvent pas être prédits) peut avoir lieu (pas forcément exactement mais en tout cas sur une période donnée).

Dans la série, elle ne peut prévoir sa fin car elle n'a aucune information sur ce que fait le camp d'en face, dans ces conditions c'est difficile de calculer son espérance de vie.
(Et pour la question du déplacement de ses serveurs, c'était pour éviter que quelqu'un puisse avoir un accès physique aux serveurs (qui sont extrêmement puissants) afin d'éviter d'être reprogrammé ou coupé. Et justement elle a déplacé ses serveurs parce qu'elle a anticipé le fait que le gouvernement voulait la modifier/couper).
Citation :
Publié par Kelem Khâl La'Ri
Deux points :
- AI et apprentissage : une machine qui apprend n'est pas considéré comme une AI, d'après toi ?
Tu peux donner les outils pour que la machine puisse récupérer puis traiter des informations, mais elle ne sera capable "d'apprendre" que dans ces limites.
Au final c'est plus de l'anticipation de la part de l'homme que du réel apprentissage de la part de la machine.

Or, si on considère que l'intelligence n'est pas ce que l'on sait, mais ce que l'on fait quand on ne sait pas (Piaget), alors non, la machine n'est pas intelligente.

Ce qui résume à peu prêt tout le problème de la faisabilité des IA* d'ailleurs: une machine est incapable de traiter ce qu'elle ne comprend pas, et elle est incapable de comprendre quelque chose si elle n'a pas été conçue pour.

(*) reste à déterminer ce que l'on considère comme une IA évidemment


Sinon pour répondre aux questions initiales:

Est-ce qu’il est possible de créer une entité consciente d’elle-même ?
Si par conscience de soi, on s'en tient simplement à savoir qu'on existe, alors techniquement n'importe quelle machine qui a un système de dépannage/debug a conscience de son existence car elle peut te donner son état actuel.
Si par contre tu pars du principe qu'elle doit être capable de philosopher sur son existence, alors non évidemment.
Je prend les 2 extrêmes pour éviter le débat sur la conscience de soi.

Est-ce que les IA nous dépassent ou vont nous dépasser ?
Non, et non (dans un futur proche).
En terme de quantité de travail/puissance de calcul, on fait déjà des machines qui nous sont supérieures, mais en terme de possibilités, elles sont limitées par nos possibilités, donc elles resteront longtemps inférieures (ou au mieux égales) à nous même.
Le robot qui sert à boire dans un post plus haut est un bon exemple: il est capable de chercher une information dans son environnement, car il sait déjà quoi chercher; mais quand il se retrouve dans un situation inconnue il a un comportement prédéfini "je suis face à une inconnue! halp!", il est incapable de définir puis traiter cette inconnue.

Est-ce que les machines ont besoin d’une conscience pour être une menace ?
Il faudrait déjà qu'elles soient dotées d'intelligence pour envisager qu'elles puissent devenir une menace.
Citation :
Publié par Kelem Khâl La'Ri
Deux points :
- AI et apprentissage : une machine qui apprend n'est pas considéré comme une AI, d'après toi ?
Citation :
Publié par MiniTiZ
Je quote que ça, après, c'est de la SF.

Donc non ce n'est pas une IA.
C'est comme un scanner. Il scan la feuille et peut l'imprimer ensuite.

Lui, il "imprime" des données et peut te les restituer. En aucun cas ses données changeront sa fonction
Citation :
Publié par Anthodev
Dans l'exemple de Jeremy Howard c'est plutôt clair. La machine apprends à trier mais elle n'a aucune initiative (et ne peut pas changer sa fonction comme l'indique bien MiniTIZ). Le logiciel ne fait rien si tu ne lui demande rien. Une IA dans le cas présent pourrait anticiper tes besoins : les trier par couleur, par modèle, date, etc... avant même que tu le lui "demande".
MiniTiZ et Anthodev, je ne vais pas m’épancher sur la vie privée de Kelem Khâl La'Ri (et il aurait horreur de cela ), mais bon, l'IA, c'est un spécialiste. Vraiment. Que vous ne soyez pas d'accord avec lui montre simplement que votre définition de l'IA n'est pas celle admise par la communauté scientifique. Je parle de science, hein, pas de science-fiction.

Dans la SF, on a les robots d'Asimov que rien, d'un point vue intellect, ne distingue vraiment des humains. Si par IA vous entendez des robots à la Asimov, alors à l'évidence l'IA n'existe pas aujourd'hui et il est permis de douter que ce type d'IA existera un jour (c'est le sens de ma première question). Par contre, aujourd'hui, dans un sens plus communément admis que le votre, il existe diverses formes d'IA. Dont certaines apprennent. Et, aussi étonnant qu'il puisse vous paraître, on peut faire une IA capable de changer ses fonctions. Vous devriez relire la première intervention de Kelem dans ce fil. Par exemple quand il dit :

Citation :
- AI libre, sans but, oui, 3 fois oui, et ça existe depuis un moment déjà, avec de belles surprises parfois, découvrir son AI qui développe un comportement parfaitement inattendu pour résoudre son problème, c'est plaisant.
Maintenant, une IA n'a pas forcément un haut niveau d'intelligence, comme un être humain n'a pas forcément non plus un haut niveau d'intelligence.


Citation :
Publié par Suh
(*) reste à déterminer ce que l'on considère comme une IA évidemment
Voir au-dessus


Citation :
Publié par Suh

Sinon pour répondre aux questions initiales:

Est-ce qu’il est possible de créer une entité consciente d’elle-même ?
Si par conscience de soi, on s'en tient simplement à savoir qu'on existe, alors techniquement n'importe quelle machine qui a un système de dépannage/debug a conscience de son existence car elle peut te donner son état actuel.
Si par contre tu pars du principe qu'elle doit être capable de philosopher sur son existence, alors non évidemment.
Je prend les 2 extrêmes pour éviter le débat sur la conscience de soi.

Est-ce que les IA nous dépassent ou vont nous dépasser ?
Non, et non (dans un futur proche).
En terme de quantité de travail/puissance de calcul, on fait déjà des machines qui nous sont supérieures, mais en terme de possibilités, elles sont limitées par nos possibilités, donc elles resteront longtemps inférieures (ou au mieux égales) à nous même.
Le robot qui sert à boire dans un post plus haut est un bon exemple: il est capable de chercher une information dans son environnement, car il sait déjà quoi chercher; mais quand il se retrouve dans un situation inconnue il a un comportement prédéfini "je suis face à une inconnue! halp!", il est incapable de définir puis traiter cette inconnue.

Est-ce que les machines ont besoin d’une conscience pour être une menace ?
Il faudrait déjà qu'elles soient dotées d'intelligence pour envisager qu'elles puissent devenir une menace.
1) pourquoi est-ce si évident pour toi ?
2) que veux-tu dire par "elles sont limitées par nos possibilités" ? Ton exemple d'un robot serveur ne me semble pas pertinent.
3) Le robot ci-dessous, employé sur les Campus de Microsoft, est assez intelligent pour patrouiller et estimer s'il y a des comportements suspects.


Citation :
Publié par Soir
Et les robots/IA sont au B.A.BA, mais on les trouve de plus en plus à occuper des emplois avant occupés par les humains :

Campus de Microsoft, à la place des vigiles :
Il est contrôlé par une IA, mais pas une IA de SF comme tu l'entends. Une IA qui comparée celle d'un humains est très basique. Suppose que dans la prochaine version, il ne soit pas beaucoup plus intelligent mais soit capable, au lieu de simplement prévenir les autorités, de se servir d'armes intégrées. Il ne sera pas intelligent au sens fort, mais tu crois qu'il ne sera pas dangereux ?

Dernière modification par Soir ; 21/12/2014 à 02h20. Motif: Mankèunmo.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés