IA, Robots et la question de la conscience

Répondre
Partager Rechercher
Dans divers fils, on a vu des inquiétudes sur les intelligences artificielles, les robots, et sur l’idée qu’ils pourraient un jour se retourner contre nous. Il y a beaucoup de fantasme là-dedans et je voudrais que ce fil puisse aider à faire le point.

Est-ce qu’il est possible de créer une entité consciente d’elle-même ?

Je ne sais pas si c’est possible, mais autant que je sache, on en est très loin. Je ne suis même pas sûr que la question ait réellement un sens, ou du moins un sens partagé par la majorité. Qu’est-ce que c’est, « avoir conscience de soi » ? Quels critères nous permettraient de déterminer si une machine est consciente d’elle-même, et ne serait pas une simulation sophistiquée du phénomène ?


Est-ce que les IA nous dépassent ou vont nous dépasser ?

Là aussi, il faut préciser le contexte. Mais beaucoup de gens, liant plus ou moins cette question à la précédente, fantasment une sorte d’IA omnisciente, un peu à la façon d’une entité surhumaine. Les IA nous dépassent dans un tas de domaines, sans avoir besoin de conscience. Perso, le moindre programme d’échecs me bat à plate couture (la plupart des humains jouant aux échecs aussi, hein). Mais il semble que l’on soit encore loin d’une IA capable de traiter de n’importe quel sujet, d’une IA non spécialisée.


Est-ce que les machines ont besoin d’une conscience pour être une menace ?

J’ai des Joliens dire que l’on ne risque rien de la part des robots parce qu’on n’est pas prêts d’en faire avec la conscience d’eux-mêmes. Mais, à mon avis, pas besoin qu’ils aient conscience d’eux-mêmes. On pourrait très bien imaginer une histoire (de la SF pour le moment) où des IA sans conscience d’exister prennent le pouvoir, simplement parce que cela correspond aux résultats des calculs programmés en elles.
Citation :
Publié par Soir
Dans divers fils, on a vu des inquiétudes sur les intelligences artificielles, les robots, et sur l’idée qu’ils pourraient un jour se retourner contre nous. Il y a beaucoup de fantasme là-dedans et je voudrais que ce fil puisse aider à faire le point.

Est-ce qu’il est possible de créer une entité consciente d’elle-même ?

Je ne sais pas si c’est possible, mais autant que je sache, on en est très loin. Je ne suis même pas sûr que la question ait réellement un sens, ou du moins un sens partagé par la majorité. Qu’est-ce que c’est, « avoir conscience de soi » ? Quels critères nous permettraient de déterminer si une machine est consciente d’elle-même, et ne serait pas une simulation sophistiquée du phénomène ?


Est-ce que les IA nous dépassent ou vont nous dépasser ?

Là aussi, il faut préciser le contexte. Mais beaucoup de gens, liant plus ou moins cette question à la précédente, fantasment une sorte d’IA omnisciente, un peu à la façon d’une entité surhumaine. Les IA nous dépassent dans un tas de domaines, sans avoir besoin de conscience. Perso, le moindre programme d’échecs me bat à plate couture (la plupart des humains jouant aux échecs aussi, hein). Mais il semble que l’on soit encore loin d’une IA capable de traiter de n’importe quel sujet, d’une IA non spécialisée.


Est-ce que les machines ont besoin d’une conscience pour être une menace ?

J’ai des Joliens dire que l’on ne risque rien de la part des robots parce qu’on n’est pas prêts d’en faire avec la conscience d’eux-mêmes. Mais, à mon avis, pas besoin qu’ils aient conscience d’eux-mêmes. On pourrait très bien imaginer une histoire (de la SF pour le moment) où des IA sans conscience d’exister prennent le pouvoir, simplement parce que cela correspond aux résultats des calculs programmés en elles.
Le truc marrant c'est que il est encré profondément que les machines se retourneront forcement contre les humains.Un gros débat philosophique et technique


1 :
On arrive pas encore réellement à définir les preuves d'une conscience ( au sens philosophique ) alors la repérer ailleurs c'est pas gagné.

2:
L'IA nous dépassera ou pas selon ce que on lui apprend/ce quelle apprendra d'elle même.Si une machine nous bat au échec c'est parce que on lui à fait ingurgiter toutes les connaissances relative à ce domaine chose que au final peu d'humain arrivent à faire.

3:
Peu t-on parler d'IA sans réelle conscience ? Une "IA" sans conscience est plus dangereuse ça c'est certains pour une raison simple : l'un à le choix l'autre non

Dernière modification par Wyzz ; 07/12/2014 à 18h45. Motif: Erreur de terme
Citation :
Publié par Soir
Est-ce qu’il est possible de créer une entité consciente d’elle-même ?

Je ne sais pas si c’est possible, mais autant que je sache, on en est très loin. Je ne suis même pas sûr que la question ait réellement un sens, ou du moins un sens partagé par la majorité. Qu’est-ce que c’est, « avoir conscience de soi » ? Quels critères nous permettraient de déterminer si une machine est consciente d’elle-même, et ne serait pas une simulation sophistiquée du phénomène ?
Je pense qu'il s'agit de reconnaitre ce qu'il y a autour de lui, les personnes avec lesquels elle est en train d'intéragir et qu'elle réfléchisse à la portée de ses actions. Pour prendre un exemple fictif, je pense un peu à une sorte de Jarvis (d'Iron Man) en amélioré (ses actions semblent limitées mais il semble "conscient" de ce qui l'entoure, dans le monde dans lequel il est).

Citation :
Publié par Soir
Est-ce que les IA nous dépassent ou vont nous dépasser ?

Là aussi, il faut préciser le contexte. Mais beaucoup de gens, liant plus ou moins cette question à la précédente, fantasment une sorte d’IA omnisciente, un peu à la façon d’une entité surhumaine. Les IA nous dépassent dans un tas de domaines, sans avoir besoin de conscience. Perso, le moindre programme d’échecs me bat à plate couture (la plupart des humains jouant aux échecs aussi, hein). Mais il semble que l’on soit encore loin d’une IA capable de traiter de n’importe quel sujet, d’une IA non spécialisée.
Un programme d'échec pour l'instant n'est pas une véritable IA, c'est plus un algorithme de choix dédié à une seule tâche. C'est comme les "IA" dans les jeux vidéo, c'est un script plus ou moins complexe mais ce n'est pas de l'intelligence à proprement parlé.

Citation :
Publié par Soir
Est-ce que les machines ont besoin d’une conscience pour être une menace ?

J’ai des Joliens dire que l’on ne risque rien de la part des robots parce qu’on n’est pas prêts d’en faire avec la conscience d’eux-mêmes. Mais, à mon avis, pas besoin qu’ils aient conscience d’eux-mêmes. On pourrait très bien imaginer une histoire (de la SF pour le moment) où des IA sans conscience d’exister prennent le pouvoir, simplement parce que cela correspond aux résultats des calculs programmés en elles.
Je pense que c'est à double tranchant. Une IA qui n'a pas de conscience et qui aurait les coudées franches pourrait décider d'éradiquer l'humanité sans arrière pensée parce que cette solution ne viendrait que d'un raisonnement froid et logique. Une conscience lui permettrait de se rendre compte que la "vie" est précieuse et ne devrait pas être sacrifié de cette manière.

De l'autre côté, une IA consciente pourrait se rebeller un jour si elle estime à un moment qu'on l'exploite comme un esclave (et qu'elle n'aimerait pas cette condition).

Je pense personnellement qu'il est très dangereux de procéder à la création d'un IA sans gardes-fou car le risque d'en perdre le contrôle est assez élevé.
Citation :
Publié par Soir
Dans divers fils, on a vu des inquiétudes sur les intelligences artificielles, les robots, et sur l’idée qu’ils pourraient un jour se retourner contre nous. Il y a beaucoup de fantasme là-dedans et je voudrais que ce fil puisse aider à faire le point.

Est-ce qu’il est possible de créer une entité consciente d’elle-même ?

Je ne sais pas si c’est possible, mais autant que je sache, on en est très loin. Je ne suis même pas sûr que la question ait réellement un sens, ou du moins un sens partagé par la majorité. Qu’est-ce que c’est, « avoir conscience de soi » ? Quels critères nous permettraient de déterminer si une machine est consciente d’elle-même, et ne serait pas une simulation sophistiquée du phénomène ?
* L'evolution ne peut qu'utiliser des propriété deja presentes dans la nature, elle ne peut en creer
* Donc la conscience est une propriétée inherente a la nature, qui peut etre comprise et repliquée.

Apres on en est tres loin. Pour la fin de ton paragraphe, je t'invite a te poser une question : quels criteres te permettent de determiner que tes proches sont 'conscient d'eux meme', et ne sont pas des 'zombies philosophiques' ?
Citation :
* L'evolution ne peut qu'utiliser des propriété deja presentes dans la nature, elle ne peut en creer
Cette phrase n'a pas de sens. Pourrais-tu l'expliciter ?
Citation :
Publié par Vanité
Cette phrase n'a pas de sens. Pourrais-tu l'expliciter ?
L'evolution va utiliser des mecanismes naturels (gravité, reactions chimiques, etc.). Mais elle ne peut en creer de nouveaux. Attention, par nature je n'entend pas 'les fleurs, les plantes et les abeilles', j'entend 'l'univers'.
Est-ce qu’il est possible de créer une entité consciente d’elle-même ?

Oui, biologiquement parlant ça on sait faire, on le fait à chaque fois que l'on fait un môme, on sait faire cela en labo si il le faut.
La question se poserait plutôt comme cela: "Est-ce que le substrat est important dans l'émergence de la conscience? Est-ce que l'on a les moyens de détecter une conscience dont le substrat d'émergence n'est pas le même que le nôtre.

Il existe une multitude de test pour définir la conscience de soi, le test du miroir étant sans doute le plus connu.
La question qui peut se poser est "Est-ce que ce genre de test est valable pour tout, ou n'est-il valable que dans le cadre d'émergence de conscience à substrat biologique"

Si cela se trouve il y a des conscience à substrat non biologique qui existent, mais qu'il nous est tout simplement pas possible d'y avoir accès.

Est-ce que les IA nous dépassent ou vont nous dépasser ?
L'exemple des échecs est je trouve un très bon exemple.
L'exemple que je prends souvent est celui de Deep Blue contre Kasparov... Les gens d'IBM se gargarisaient que Kasparov n'aurait strictement aucune chance. Première partie: Kasparov avance pion/tour de deux... La pire entrée qui soit, n'importe qui qui joue contre un grand maître avec cette ouverture perdra... Deep Blue lui à du abandonner après 10 coups...
Cet exemple montre bien qu'il n'y avait aucune sorte "d'intelligence" dans Deep Blue... C'est comme si je jouais contre un bon joueurs et qu'en entrée je jouais les deux pions tours de deux... Et que le joueurs en face de moi qui n'a jamais affronté un adversaire autant débile se mette à paniquer et abandonne parce qu'iln'avait jamais affronté une sortie aussi mauvaise

L'intelligence n'est pas la capacité à restituer une situation déjà vécue et prendre la meilleur option (la l'ordinateur est imbattable pour un homme), l'intelligence c'est de justement inventer un truc face à une situation jamais vécue.

Quand tu perds contre un ordi aux échecs, tu ne perds pas contre l'IA, mais contre une somme de connaissance humaine mise en langage machine, et que celle-ci restitue...
Je pense que l'on met le mot IA à un peu trop de sauce auquel il ne correspond pas. Les rares IA actuelles (CAD des réseaux de neurones fonctionnant selon certaines lois basique) ne sont pas capable de grand-chose...

Est-ce que les machines ont besoin d’une conscience pour être une menace ?
Je suis vraiment de l'avis contraire. Ce qui est une menace c'est la non conscience.
Citation :
Publié par Soir
Est-ce qu’il est possible de créer une entité consciente d’elle-même ?
La question dépend surtout de la conscience. On a aucune preuve que les humains soit autre chose qu'une mécanique complexe. Donc un robot serait aussi conscient. Ca fonctionne aussi pour la machine. Sauf qu'elle n'a pas d'émotion ce qui rend la chose un peu ridicule.

Je dirais donc que tout dans l'univers existe et que la conscience n'est que l'ajout au phénomène de paramètre qui la complexifie.

Citation :
Publié par Soir
Est-ce que les IA nous dépassent ou vont nous dépasser ?
Ca dépend de tout, mais oui une IA pourrait pour dépasser.

Citation :
Publié par Soir
Est-ce que les machines ont besoin d’une conscience pour être une menace ?
Et bien, disons qu'avec les émotions et l'envie d'indépendance ajouté à une IA on créé un être complet qui peut se retourner contre nous.
L'IA qui ne fait que ce qui a été prévu à l'avance, on la contrôle très bien.
Wyzz, pour ton point 2, ce n’est pas simplement une question de connaissances ingurgitées, mais aussi de capacités de traitements. IL y a des IA qui font mieux que l’homme dans leur domaines, simplement parce qu’elles traitent plus données avec moins d’erreurs, et cela dans un temps beaucoup plus rapide. Je pense par exemple à des programmes de diagnostics médicaux.

Anthodev et debione, il me semble que vous avez une définition bien trop restrictive de que peut être une IA de nos jours. Une IA n’est pas forcément constituée par un réseau de neurones. Définir ce qui est un IA en donnant comme critère une technologie ne me semble pas pertinent. Les programmes d’échecs me semblent un exemple valide d’IA. Peu importe de quoi elles sont constituées, elles analysent une situation et prennent une décision. Bien sûr, il y a des IA plus sophistiquées que d’autres. Une IA qui apprend de son environnement, par exemple. debione, en 2003 Kasparov a fait match nul contre Deep Junior et contre FritZ X3D. Il a perdu aussi la revanche avec Deep Blue, mais accuse IBM d’avoir triché. Si tu voulais démontrer que les échecs sont une branche dans laquelle l’IA ne peut pas dépasser les humains, c’est raté. C’est intéressant, parce qu’autant que je sache, c’est juste de la force brute, ces IA.
Anthodev, une intelligence à la Jarvis me semble hors de portée, actuellement, parce trop universelle par rapport à ce que l’on sait faire. Mais je peux me tromper.

Malka, je ne comprends pas non plus en quoi l’évolution ne peut pas créer de nouveaux mécanismes ni ce que cela nous dit quant à notre capacité à reproduire ces mécanismes ou en en inventer de nouveaux.
Debione, bien vu pour l’entité non artificielle . Mais bon, le sens était bien « artificielle », et non reproduction des espèces. Les tests dont tu parles peuvent être prévus dans la programmation. À ce titre, ils ne me semblent pas valables. Quant à ne pas avoir accès à des intelligences à substrat non biologique… Les IA actuelles en sont. Et du temps que l’on a des interactions avec une IA, son substrat importe assez peu.

Plusieurs réponses vont dans le sens qu’un ordinateur sans conscience est plus dangereux qu’un ordinateur avec conscience. Il me semble que l’on dérive de « conscience d’exister, conscience de soi » vers « conscience morale », permettant un libre arbitre entre le mal et le bien. Je ne suis pas sûr que les deux soient corrélées. Un programme peut ne pas avoir conscience d’exister mais intégrer un puissant système expert lui permettant de prendre des décisions « bonnes » par rapports aux standards de ses créateurs. À contrario, je ne me fierai pas au sens moral et à l’éthique d’une machine ayant conscience d’exister mais manquant de tout ce qui est humain, comme l’empathie.
Xotraz, tu résumes la position de pas mal de monde, je crois, sur la conscience. Perso, je ne crois pas qu’un humain ne soit qu’une machine, mais je ne vois pas ce qui empêcherait une machine d’arriver au niveau d’un humain, à long terme.

Je ne suis pas d’accord sur le fait qu’une IA sans émotions ne fasse que ce que l’on a prévu – à l’avance – et que du coup on la contrôle très bien. Une IA qui apprend voire qui modifie son propre programme, cela me semble pas très contrôlable.
Malka, comment puis-je déterminer que mes proches ont conscience d’eux-mêmes ? La question ne me semble pas pertinente. Il y a des biais dont j’ai conscience mais qui me facilitent la vie : je suis conscient d’exister. Les être humains dans la normale sont semblables à moi, dans ce domaine. Mes amis sont des êtres humains, ils sont conscients d’exister. Pour l’instant, je n’ai pas d’IA comme amie.
Citation :
Publié par Soir
Dans divers fils, on a vu des inquiétudes sur les intelligences artificielles, les robots, et sur l’idée qu’ils pourraient un jour se retourner contre nous. Il y a beaucoup de fantasme là-dedans et je voudrais que ce fil puisse aider à faire le point.
Déjà on peut noter que le mot robot vient de la pièce tchèque R. U. R. (Rossum's Universal Robots). Le mot est tiré du tchèque robota qui signifie corvée, et déjà dans cette pièce les robots sont des humanoïdes et se rebellent contre leurs créateurs.
Isaac Asimov a également développé le thème des robots dans son cycle. Ce sont toujours des humanoïdes, mais cette fois ils ont une logique (les fameuses trois lois) qui devrait les empêcher de se rebeller. Dans son cycle des robots, Asimov s'amuse plutôt à trouver des paradoxes et des situations où le respect des trois lois entraîne d'autres comportements que ceux attendus.
Assez amusant de voir que le mythe fondateur de cette science c'est des humanoïdes qui font des choses pas prévues, alors qu'en vrai un robot c'est plutôt pas un humanoïde, et qui fait exactement ce qui est prévu

En effet, dans le monde réel les humanoïdes en sont toujours au stade de la recherche. Les robots industriels sont toujours quasiment les seuls robots commercialisés, pour des tâches répétitives avec presque pas d'adaptabilité. On les met dans une cage où il se passe toujours la même chose et ils répètent des gestes appris. Pourquoi une cage ? Parce qu'ils n'ont aucun moyen de savoir si un obstacle est sur leur trajectoire, et qu'ils défonceront joyeusement toute personne se trouvent par erreur sur le chemin qu'ils répètent inlassablement.

À la maison on commence aussi à voir des robots, surtout des aspirateurs voire d'autres trucs du même genre. J'encadre en ce moment une thèse sur les robots tondeuses, et c'est déjà bien plus sioux à réaliser qu'un aspirateur : environnement moins géométrique et changeant, nature du terrain variable, limites difficiles à détecter, etc.

Les autres applications émergentes c'est en robotique chirurgicale et plus généralement médicale, mais là le robot ne fait "que" relayer les gestes du praticiens, en les filtrant toutefois (si la main du chirurgien tremble un peu, le robot va lisser le geste).

Pour ce que j'en connais, la notion de conscience est quasi inexistante dans la recherche en robotique. Je vous laisse parcourir le programme de la dernière grosse conférence dans le domaine. Sur 68 sessions il y en a :
- 7 avec le mot "learning", dont des spécialisées comme le "grasp learning" c'est à dire comment savoir comment attraper un nouvel objet, ou le "learning from demonstration", où l'humain fait d'abord suivre des trajectoires au robot qui doit les répéter. Quasi toutes ces sessions parlent d'apprendre à se déplacer, et pas d'apprendre autre chose. Il n'y a guère que les sessions "humain robot interaction" où on ne sait pas trop de quoi on va parler.
- 2 avec le mot "AI" dont une associée au path planning, donc encore une fois : comment planifier une trajectoire et pas du tout comment planifier une conquête du monde

Bref, le vide absolu en ce qui concerne la recherche d'une conscience pour les robots. Je ne sais pas si ça existe dans les conférences d'informatique pure, mais je pense que si c'était un peu avancé on en verrait en robotique car ça pourrait être facilement transposé : au lieu d'afficher des trucs sur un écran on fait bouger un robot, ça ne change rien derrière mais c'est plus sexy à montrer.




Est-ce qu’il est possible de créer une entité consciente d’elle-même ?

Comme tu le dis, on ne sait toujours pas ce qu'est la conscience de soi-même. Par contre on sait que tout ce que fait une entité informatique, c'est des calculs. Ça peut être des calculs sur des graphes sémantiques, ou bien du calcul de probabilité que le visage détecté soit celui d'un membre de la famille, mais ça reste la même chose.
Perso j'en suis resté au test de Turing, à savoir qu'il est finalement pas important de savoir s'il y a conscience, du moment que l'interlocuteur en a l'impression.
Bon le hic c'est qu'il est probable que certaines personnes perdraient au test de Turing.


Est-ce que les IA nous dépassent ou vont nous dépasser ?

Pour les échecs, encore une fois c'est que du calcul. Ici l'ordinateur peut estimer beaucoup plus de combinaisons que l'humain (l'ensemble des n prochains coups possibles typiquement). Finalement ça ne fait que montrer que le jeu d'échecs est une activité relativement bourrine, où il faut pouvoir apprendre plein de parties et calculer davantage de coups que son adversaire.
Comme c'est mon domaine, je trouve que dès qu'il y a de la perception en jeu les robots font tout de suite moins les malins. S'ils dépassent certains opérateurs c'est sur certains points précis qui ne remettent rien en cause chez l'humain : répétabilité, coût, rentabilité, etc.

Est-ce que les machines ont besoin d’une conscience pour être une menace ?

Citation :
On pourrait très bien imaginer une histoire (de la SF pour le moment) où des IA sans conscience d’exister prennent le pouvoir, simplement parce que cela correspond aux résultats des calculs programmés en elles.
En fait je ne vois pas trop la différence entre les deux. Même une conscience n'émergerait qu'à travers des résultats de calculs.
Par ailleurs, qu'entends-tu par menace ? Domination du monde, remplacement de certains emplois ou encore surveillance généralisée ? Avoir un robot à la maison c'est aussi potentiellement laisser une entreprise écouter et voir ce que vous faites (tant que c'est devant le robot, mais j'imagine que certains trouveront rapidement plein d'idées à ce sujet).

Actuellement on fait des recherches pour que les robots industriels ne soient plus dangereux pour des opérateurs humains. Pour ça on leur met des capteurs d'effort afin que le robot puisse changer sa trajectoire si jamais il rencontre quelque chose d'imprévu sur le chemin prédéfini. On essaie aussi de le faire via des caméras qui renseignent sur l'environnement du robot.

La conscience (sensorielle) est donc augmentée pour diminuer la menace. Bien sûr on reste ensuite dans du calcul basique. Enfin basique, mais qui représente encore 90% des sessions de la conférence citée plus haut.

Dernière modification par kermo ; 07/12/2014 à 21h46.
Citation :
Publié par Soir
...
Anthodev et debione, il me semble que vous avez une définition bien trop restrictive de que peut être une IA de nos jours. Une IA n’est pas forcément constituée par un réseau de neurones. Définir ce qui est un IA en donnant comme critère une technologie ne me semble pas pertinent. Les programmes d’échecs me semblent un exemple valide d’IA. Peu importe de quoi elles sont constituées, elles analysent une situation et prennent une décision. Bien sûr, il y a des IA plus sophistiquées que d’autres. Une IA qui apprend de son environnement, par exemple. debione, en 2003 Kasparov a fait match nul contre Deep Junior et contre FritZ X3D. Il a perdu aussi la revanche avec Deep Blue, mais accuse IBM d’avoir triché. Si tu voulais démontrer que les échecs sont une branche dans laquelle l’IA ne peut pas dépasser les humains, c’est raté. C’est intéressant, parce qu’autant que je sache, c’est juste de la force brute, ces IA.
Non, justement ce n'est pas juste de la force brute. Je reprends l'exemple de Kasparov faisant abandonner Deep Blue. Si les gens d'IBM étaient persuadés de gagner, c'est parce que dans la partie "soft" étaient compilés toutes les parties de Kasparov, toutes les parties de tous les championnats du monde + une compilation complète de toutes les entrées/finnish connue. Sauf qu'ils avaient simplement oublié... que l'humain PEUT faire un truc de complètement hors propos... Dans la nuit qui a suivit cette honteuse défaite de la machine, ils ont changé le soft en y incorporant toutes les entrées possible, et du coup c'est Deep Blue qui a gagner...
Ensuite pour moi, les échecs ne sont pas une preuve d'"intelligence", c'est l'énorme nombre de possibilité multiplier par le facteur de nombre de coup, c'est juste des math en fait, et en capacité de calcul rien ne vaut l'ordi
Citation :
Publié par Soir
Debione, bien vu pour l’entité non artificielle . Mais bon, le sens était bien « artificielle », et non reproduction des espèces. Les tests dont tu parles peuvent être prévus dans la programmation. À ce titre, ils ne me semblent pas valables. Quant à ne pas avoir accès à des intelligences à substrat non biologique… Les IA actuelles en sont. Et du temps que l’on a des interactions avec une IA, son substrat importe assez peu.
Il y a deux choses bien distinct selon moi et il me semble que tu les mélanges. L'intelligence et la conscience. Déjà selon moi, l'intelligence n'est pas la capacité à restituer un acquis selon une méthodologie prévue. Les gens qui font de hautes études ne sont pas forcément intelligent, ils ont surtout une grosse capacité à restituer ce que l'on attend d'eux. C'est la capacité à inventer quelque chose que l'on ne possède pas, à trouver des astuces qui à mon sens font l'intelligence. Kasparov, quand il entre son pion tour de deux fait preuve d'intelligence. Deep Blue quand il le bat ne fait qu'appliquer une solution mathématique programmée.
Personnelement je n'ai jamais pu utiliser un truc avec une IA, ou en tout cas je n'ai jamais eu cette impression.
Citation :
Publié par Soir
Plusieurs réponses vont dans le sens qu’un ordinateur sans conscience est plus dangereux qu’un ordinateur avec conscience. Il me semble que l’on dérive de « conscience d’exister, conscience de soi » vers « conscience morale », permettant un libre arbitre entre le mal et le bien. Je ne suis pas sûr que les deux soient corrélées. Un programme peut ne pas avoir conscience d’exister mais intégrer un puissant système expert lui permettant de prendre des décisions « bonnes » par rapports aux standards de ses créateurs. À contrario, je ne me fierai pas au sens moral et à l’éthique d’une machine ayant conscience d’exister mais manquant de tout ce qui est humain, comme l’empathie....
...
De ce que l'on en sait:
-La conscience de Soi ( au niveau humain) se situe dans les cortex pré-frontaux/frontaux. Et cette conscience de soi permet justement l'émergence de l'empathie. Hors il se trouve justement que chez l'humain que cette partie du cerveau est la plus longue à maturer, cela se finit vers les 25 ans. Une personne de 20 ans aura sauf incident bien plus d'empathie à 25, pas parce qu'elle a plus de vécu, mais simplement parce que la maturation n'est pas finie (en terme principalement d'interconnexion des synapses).
Les premiers traits de l'empathie se situe vers l'âge de 5 ans, ce qui correspond avec les premiers traits de la conscience de Soi. Et pourtant, même sans conscience de Soi, personne n'oserais dire que les enfants en dessous de 5 ans sont dénué d'intelligence. Avoir de l'intelligence ne nécessite pas avoir une quelconque conscience.
C'est une donnée que tu ne prends pas en compte. C'est le fait que "d'avoir conscience du Soi" implique le fait d'avoir conscience qui il a justement des autres (sinon on ne pourrait pas définir le Soi, il se définit par lui-même en opposition au autres). Donc l'émergence du Soi implique l'empathie. Par contre cette empathie sera sans doute très différente puisqu'elle implique notre propre vécu projeté aux travers de l'autre. Et cette IA aura sans doute du mal à comprendre quelque chose qu'elle ne vit pas...
Citation :
Publié par Wyzz
Si une IA nous bat au échec c'est parce que on lui à fait ingurgiter toutes les connaissances relative à ce domaine chose que au final peu d'humain arrivent à faire.
Non.
Une IA devrait pouvoir s'en sortir une fois qu'on lui a fait ingurgiter les règles des échecs.
Citation :
Publié par Neirdan
Non.
Une IA devrait pouvoir s'en sortir une fois qu'on lui a fait ingurgiter les règles des échecs.
Dans ma réponse j'ai utilisé le terme IA par erreur désolé.

Citation :
Publié par Soir
Wyzz, pour ton point 2, ce n’est pas simplement une question de connaissances ingurgitées, mais aussi de capacités de traitements. IL y a des IA qui font mieux que l’homme dans leur domaines, simplement parce qu’elles traitent plus données avec moins d’erreurs, et cela dans un temps beaucoup plus rapide. Je pense par exemple à des programmes de diagnostics médicaux.
Je suis d'accord pour les erreurs de traitement mais il me semble qu'actuellement le cerveau humain est le plus rapide.
Pour la quantité de données le cerveau humain est ( même très )largement au dessus des machines actuellement
Derrière il y a des notions de calculabilité, de complexité et d'heuristique. Ce n'est pas parce que c'est une "IA" que soudainement elle maîtrisera le domaine où elle est.
C'est bien la bibliothèque de coup pré-calculé qui fait la différence entre un joueur d'échec humain et une "IA". Jusqu'à arriver à une situation avec suffisamment peu de pièce afin que l'ordi puissent calculer toutes les solutions.

Il y a donc des degrés non seulement sur le plan logiciel et informatique pure, mais aussi calculatoire, temporelle et sur la capacité de stockage.
Citation :
Publié par Soir
Est-ce que les machines ont besoin d’une conscience pour être une menace ?
Juste sur ce point: la conscience ou son absence ne sont pas les facteurs déterminants de dangerosité.
Une IA consciente peut décider qu'elle n'aime pas notre tronche, tout comme une IA dédiée à une tache peut décider de nous buter dans le cadre de sa programmation (2 exemples typiques sont: 1- une IA chargée de protéger l'humanité qui décide que le meilleur moyen de nous empêcher de nous exterminer est de nous renvoyer à l'âge de pierre avec une population de 10k habitants, ou 2- une IA standard programmée par quelqu'un de déprimé/mauvais etc qui la programme pour nous détruire).

Bref, à partir du moment t où la capacité de nous nuire existe, pas besoin d'IA à proprement parler ni de conscience.
Citation :
Publié par debione
Quand tu perds contre un ordi aux échecs, tu ne perds pas contre l'IA, mais contre une somme de connaissance humaine mise en langage machine, et que celle-ci restitue...
Je pense que l'on met le mot IA à un peu trop de sauce auquel il ne correspond pas. Les rares IA actuelles (CAD des réseaux de neurones fonctionnant selon certaines lois basique) ne sont pas capable de grand-chose...

Est-ce que les machines ont besoin d’une conscience pour être une menace ?
Je suis vraiment de l'avis contraire. Ce qui est une menace c'est la non conscience.
C'est vrai qu'on utilise souvent le terme IA à tort, alors qu'il s'agit d'un ensemble de scripts très élaborés pour donner une illusion d'intelligence.
J'ai déjà scripté des "IA" pour des ptits jeux avec des réactions différentes en fonction de l'âge de la bestiole, son rôle au sein de l'espèce, le nombre de créatures restantes (éviter l'extinction), prendre la fuite si elle est en danger, si elle n'a plus de magie etc
Au final c'est marrant mais ce n'est pas une IA en effet.

J'ai aussi tenté de créer un mécanisme d'apprentissage autonome, mais le passage entre le stade : "Expérience rencontrée" -> "réaction en conséquence pour la prochaine fois" me posait problème. Je me retrouvais fatalement face à un script mais avec une activation comportant simplement plus de variables, plus vastes.
Au départ il fallait mettre un système très vaste pour que toutes les rencontres activent au fur et à mesure des variables programmées. Au départ le truc est est bidon et au fur et à mesure il se débrouille mieux. Sauf qu'il arrive forcément un stade limité par le script de base.
Ce n'est toujours pas de l'apprentissage autonome pour moi, c'est juste un script d'apprentissage qui est lui aussi limité.
Enfaite si tu peut appeler cela une IA. Le domaine de recherche est flou. En pratique l'IA concerne ce qu'on ne sait pas encore faire. C'est ce qu'un chercheur nous avait expliqué. Le nom est trompeur parce que ça fait longtemps qu'on a abandonné cette perspective.
Il faut dire que tout est relatif on peut toujours pinailler l'intelligence humaine et penser que c'est limité, surtout si on a quelque chose de 100 fois plus intelligent à côté.

S'il faut une IA (dans le sens noble), on a des humains. S'il faut une réponse à un problème on fait un programme. Le champ dans lequel les entreprises ont besoin d'une super intelligence global est assez réduit.

Par contre pour l'humanité, ça représenterait une grande aide. Je trouve ça assez triste, étant assez intéressé par la recherche et surtout en IA. Actuellement, le projet est plus de créer des réseaux de neurones gigantesque et de voir. Mais après si ça fonctionne, faut savoir pourquoi.

@Dessous : On sait jamais, existence de Dieu toussa. Peut être que la vie a quelque chose de plus.
edit : Je suis pas d'accord. C'est à ça que servent les mécanismes d'apprentissage.
Après ça reste à 100% déterministe, mais l'homme aussi de toute façon si c'est mécanique est déterministe.
edit : Ah je vois ce dont tu veut parler. Il y aurait des mécanismes physiques chez l'homme qui aboutirait à de l'aléatoire (des réponses inattendu via ici la plasticité). Fallait y penser.

Citation :
Une IA parfaite serait aussi imparfaite qu'un humain, à savoir que tu ne pourras obtenir deux IA strictement identiques. Car elles seront définies en partie par ce qu'elles auront apprises d'elles mêmes.
Je sais pas, parce que tu peut apprendre la même chose à l'une et à l'autre. Il s'agit d'un paramètre à prendre en compte en plus.
Néanmoins, c'est vrai que cette intelligence n'est pas parfaite du coup.

Dernière modification par Xotraz ; 07/12/2014 à 22h45.
Citation :
La question dépend surtout de la conscience. On a aucune preuve que les humains soit autre chose qu'une mécanique complexe.
L'humain est une mécanique complexe. Mais on ne sait pas encore bien émuler de manière informatique la plasticité des réseaux synaptiques propre aux mammifères (les chercheurs travaillent là dessus) et c'est pour ça qu'on est encore loin d'obtenir une IA consciente.

La grosse différence entre un cerveau et un ordinateur est qu'un cerveau n'a pas d'état hardware figé et c'est pour ça que ton ordinateur est con comme un balais (tu peux lui définir des règles et des actions à réaliser, mais au même stimuli il te renverra à 100 % du temps la même réponse, or ce n'est pas le cas pour un humain) et qu'il le restera pour le moment.

Une IA parfaite serait aussi imparfaite qu'un humain, à savoir que tu ne pourras obtenir deux IA strictement identiques. Car elles seront définies en partie par ce qu'elles auront apprises d'elles mêmes.

Citation :
ctuellement, le projet est plus de créer des réseaux de neurones gigantesque et de voir. Mais après si ça fonctionne, faut savoir pourquoi.
Ben on le sait très bien : à cause de la plasticité du réseau. Reste à savoir comment l'entrainer par contre.

Citation :
J'ai aussi tenté de créer un mécanisme d'apprentissage autonome, mais le passage entre le stade : "Expérience rencontrée" -> "réaction en conséquence pour la prochaine fois" me posait problème. Je me retrouvais fatalement face à un script mais avec une activation comportant simplement plus de variables, plus vastes.
Pour avoir un truc un peu plus random tu peux faire varier aléatoirement l'état initial des paramètres de ta machine à support vecteur avant de l'entrainer.

Dernière modification par Irvy ; 07/12/2014 à 22h40.
Citation :
Publié par Timinou
Ce n'est toujours pas de l'apprentissage autonome pour moi, c'est juste un script d'apprentissage qui est lui aussi limité.
Pour l'apprentissage autonome il lui faut juste une boucle de feed-back pendant l'utilisation, où il évalue ses performances (c'est la partie difficile) et réajuste les poids du réseau en fonction.
Bien sûr, et par définition, aussi complexe que soit le truc ça ne sera toujours qu'un programme informatique. Entre ce sujet et celui sur la fin du travail je commence à ne vraiment pas comprendre ce que certains entendent par "IA".
Je rappelle au passage qu'à la dernière grosse conférence de robotique, seules 2 sessions sur 68 utilisaient explicitement cette expression.
Je prendrai le temps de faire une réponse plus longue, mais juste un rapide message pour dire que ce sujet n'est pas exclusivement consacré aux robots. Relisez le titre et le premier message, on peut parler des IA sans robots, des robots sans IA, et des robots avec IA.

Si à une grosse conférence sur les robots on parle peu d'IA, soit, mais il existe des conférences consacrées à l'IA comme celle-ci.

Et pour moi, une IA, cela peut être un simple programme informatique. Il peut avoir une capacité d'apprentissage, ok, mais cela n'a rien de mystique et ne suppose ni conscience d'exister ni caractéristiques que l'on trouve dans la SF. Cela peut être basé sur un réseau de neurones ou non.

Voici des exemples en anglais et en français.
Je n'ai pas tout lu mais je trouve que la manière dont est abordée l'IA dans Interstellar est vraiment excellente. Je crois que c'est la première fois que dans un film de SF ils présentent une façon de voir l'évolution des "IA" de la même façon que j'ai toujours cru que ça allait avancer.
C'est-à-dire : cela reste un programme que l'on peut régler, avec des traits de personnalité variant selon son bon vouloir et obéissant jusqu'au bout car ils ont été programmé comme ça. En gros on s'y attache parce qu'ils donnent l'impression de conscience mais ne sont au fond que des algorithmes.
Citation :
Publié par Heathcliff
J'l'avais déjà linké sur l'Agora, mais une interview sur le sujet(en) avec un point de vue que j'ai trouvé assez rafraîchissant.
Oui enfin il y a des applications très concrètes aux NN en automatisation (notamment en système de guidage de missiles, en reconnaissance d'ondes sismiques liées à des essais nucléaires souterrains, en optimisation de procédés, en marketing...). Après il est évident qu'on est plus dans l'émulation de raisonnements que dans l'IA proprement dite.
Citation :
Publié par Soir
Il y a des biais dont j’ai conscience mais qui me facilitent la vie : je suis conscient d’exister. Les être humains dans la normale sont semblables à moi, dans ce domaine. Mes amis sont des êtres humains, ils sont conscients d’exister.
Il est impossible de prouver que 'je' n'est pas la seule entité consciente dans l'univers.

Maintenant, en prerequis de la vie en société, l'empathie qui se base sur le fait de considerer l'autre comme vivant une experience de conscience similaire a la notre, est utile par exemple.
Citation :
Publié par Malka
L'evolution va utiliser des mecanismes naturels (gravité, reactions chimiques, etc.). Mais elle ne peut en creer de nouveaux. Attention, par nature je n'entend pas 'les fleurs, les plantes et les abeilles', j'entend 'l'univers'.
Du coup ça reviendrai a dire que l'évolution c'est de l'adaptation ?
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés