IA, Robots et la question de la conscience

Répondre
Partager Rechercher
Citation :
Publié par Soir


Est-ce que les machines ont besoin d’une conscience pour être une menace ?

J’ai des Joliens dire que l’on ne risque rien de la part des robots parce qu’on n’est pas prêts d’en faire avec la conscience d’eux-mêmes. Mais, à mon avis, pas besoin qu’ils aient conscience d’eux-mêmes. On pourrait très bien imaginer une histoire (de la SF pour le moment) où des IA sans conscience d’exister prennent le pouvoir, simplement parce que cela correspond aux résultats des calculs programmés en elles.
Non, une machine sans conscience fait ce qu'on lui dit.
Tu programme une machine pour qu'elle détruise toute les source de chaleur qu'elle trouve, elle va détruire toute les sources de chaleurs qu'elle trouve, y compris l'humain.
De facto elle est une menace, pourtant elle n'a pas de conscience.

Certaine IA de SF sont doté de conscience, ça donne systématiquement une machine qui se rend compte qu'elle est supérieur a nous, et boom.
D'autre IA sont juste très développé mais ne peuvent pas dérivée.
Y'a un bon exemple des 2 types dans Stargate SG1 avec les réplicateurs.
Citation :
Publié par Timinou
C'est vrai qu'on utilise souvent le terme IA à tort, alors qu'il s'agit d'un ensemble de scripts très élaborés pour donner une illusion d'intelligence.
Au final est-ce que l'homme n'est pas un "ensemble de scripts très élaborés" lui aussi ?

Bien sûr, le tout largement plus poussé qu'une simple machine.

Ce qui forme notre pensée c'est avant tout l'éducation, un homme auquel on n'apprend rien, éloigné de toute forme de société / civilisation (ou même tribu pour le truc le plus "primitif") sera au final très semblable à un animal vu qu'il ne sera guidé que par ses instincts primaires.

Après on peut penser que suite à cette éducation, à la naissance d'une certaine conscience de soi et d'un tas d'autres concepts (je pense à la mort par exemple), on devient plus "libre" qu'une machine à laquelle on aurait inculqué tous ces concepts un à un, mais bon .. Je garde un doute
Citation :
Publié par Atomnium
Au final est-ce que l'homme n'est pas un "ensemble de scripts très élaborés" lui aussi ?

Bien sûr, le tout largement plus poussé qu'une simple machine.

Ce qui forme notre pensée c'est avant tout l'éducation, un homme auquel on n'apprend rien, éloigné de toute forme de société / civilisation (ou même tribu pour le truc le plus "primitif") sera au final très semblable à un animal vu qu'il ne sera guidé que par ses instincts primaires.
Ca n'est pas totalement faux, mais la différence fondamentale est justement que l'homme est de lui même arrivé à ce stade par l'évolution, il n'a pas eu besoin d'une présence supérieure pour lui fournir ces "scripts", il se les ait créés lui même.
Citation :
En gros on s'y attache parce qu'ils donnent l'impression de conscience mais ne sont au fond que des algorithmes.
Citation :
Publié par Irvy
Après il est évident qu'on est plus dans l'émulation de raisonnements que dans l'IA proprement dite.
De mon point de vue l'émulation de raisonnement c'est assez proche de l'IA, non ?
Idem quand on algo donne l'impression de conscience : la technologie actuelle ne permet pas de faire grand chose d'autre que des algo.
Le petit robot Nao qui dit "j'aime bien quand tu me tiens la main", il est juste programmé pour le dire de temps en temps. Mais ça marche, et finalement c'est du même ordre qu'une fille qui aime bien son mec parce que tous les X jours il lui rappelle qu'elle est belle / lui offre des fleurs / etc.

La tendance de l'IA actuelle c'est de manger beaucoup de données pour en tirer des corrélations. L'objectif est de pouvoir prédire, après coup, des comportements à partir des seules données initiales grâce à cette base de corrélations.

Perso, la forme la plus douteuse de l'IA actuelle je la vois sous la forme des algorithmes de trading haute fréquence. Ils peuvent avoir un impact sur les cours de la bourse à une vitesse inatteignable pour nous, et font leurs calculs à partir des cours passés, de phénomènes observés, de lois économiques plus ou moins obscures. On en arrive à des moments où tout s'emballe pendant quelques minutes alors que chaque algo, dans son coin, applique simplement les règles qu'on lui a données.
S'il y a bien une classe d'IA menaçante, pour moi c'est celle-là, car sous couvert d'automatisation financière on peut obtenir des comportements non désirés et même aberrants. Et derrière il y a des entreprises, des boulots, des personnes qui peuvent subir des conséquences de ces comportements émergents non désirés.

Citation :
Au final est-ce que l'homme n'est pas un "ensemble de scripts très élaborés" lui aussi ?
Même avec cette hypothèse ça ne dit pas s'il est possible de reproduire un comportement similaire.
Un débat similaire a existé sur la vie elle-même, où certains estimaient que la vie n'est pas réductible à des lois physico-chimiques. Si j'en crois Wikipedia le débat actuel est plutôt de savoir comment on définit la vie :
Citation :
De fait, la frontière entre systèmes vivants et systèmes non vivants de même que le moment à partir duquel le non vivant serait devenu vivant sont arbitraires.
Je pense que la même question peut se poser sur l'intelligence ou la conscience artificielle.
Citation :
Publié par Atomnium
...

Ce qui forme notre pensée c'est avant tout l'éducation, un homme auquel on n'apprend rien, éloigné de toute forme de société / civilisation (ou même tribu pour le truc le plus "primitif") sera au final très semblable à un animal vu qu'il ne sera guidé que par ses instincts primaires.

Après on peut penser que suite à cette éducation, à la naissance d'une certaine conscience de soi et d'un tas d'autres concepts (je pense à la mort par exemple), on devient plus "libre" qu'une machine à laquelle on aurait inculqué tous ces concepts un à un, mais bon .. Je garde un doute
Oui mais pas seulement. Déjà, dans les animaux il y a pléthore qui ont conscience de soi (ou en tout cas qui réussisse les tests). Les rites funéraires ont les retrouves aussi chez certains animaux, bref cette conscience de soi n'est en rien lié à l'éducation. Je l'ai mis dans un autre post, c'est bien les maturations des cortex frontaux/pré-frontaux qui donne la conscience de soi.
L'humain (et l'animal en général) n'est justement pas un script que l'on insert et qui va donner ce que l'on en attend, contrairement justement à une machine. La différence est la plasticité du substrat, Chaque humain est unique dans l'organisation neurale et des interconnections synaptiques. Dans l'ensemble cela se ressemble, dans la réalité chaque être est différent à ce niveau la. LA raison en est justement la plasticité et l'évolution des réseaux de neurones qui est propre à chaque individu (ces réseaux peuvent être renforcé). Le jour ou on aura une machine qui en temps réel change ses réseaux au niveau de son substrat (Faire disparaître ou apparaître ou encore renforcer des liaisons PHYSIQUES) du au script que tu lui imposes, la on aura quelque chose de semblable.
Citation :
De mon point de vue l'émulation de raisonnement c'est assez proche de l'IA, non ?
Ben non parce que dans le cas des réseaux de neurones c'est toi qui fait le raisonnement et qui l'injecte dans ton système pour qu'il le réplique (dans le cas des NN tu dois quand même déjà avoir une base de données dans laquelle tu sais à quel cas appartient chaque ligne). En ce sens ça n'est pas différent du programmeur qui programme une machine pour accomplir une tache quelconque : tu injecte ton raisonnement dans la machine mais ce n'est pas elle qui y arrive par elle même. En gros tu obtiens un automate, ni plus ni moins.

Or en ce sens c'est très différent de la manière dont peut fonctionner un humain (pas tous, on est d'accord). Tu vas pouvoir emuler un raisonnement à un instant t pouvant intervenir dans le périmètre des données que tu as utilisé pour entrainer le réseau mais tu ne peux pas en sortir de manière optimale.
Question de néophyte: Pourquoi s'attacher au fantasme d'une IA que l'on comparerait directement à ce qui est le plus complexe : l'humain et sa conscience ?. N'existe t'il pas des paliers théoriquement plus accessibles ?
Citation :
Publié par Irvy
Ben non parce que dans le cas des réseaux de neurones c'est toi qui fait le raisonnement et qui l'injecte dans ton système pour qu'il le réplique (dans le cas des NN tu dois quand même déjà avoir une base de données dans laquelle tu sais à quel cas appartient chaque ligne). En ce sens ça n'est pas différent du programmeur qui programme une machine pour accomplir une tache quelconque : tu injecte ton raisonnement dans la machine mais ce n'est pas elle qui y arrive par elle même. En gros tu obtiens un automate, ni plus ni moins.
Pour moi l'expertise dans l'apprentissage automatique elle se trouve dans la sélection des entrées et des sorties.
Typiquement en vision par ordinateur, il y a des milliards de façons de tirer des informations visuelles d'une image : positions de certains points, présence de certains motifs, couleur dominante, détection d'un carré, d'un ovale... Là oui le raisonnement humain est encore nécessaire.
Sans cette phase on passe dans la facette du big data décriée dans l'article cité par Heathcliff, à savoir que de façon aveugle un algo trouvera dans une énorme base de données plein de corrélations entre différentes variables, sans savoir si il y a une vraie raison derrière.

Par contre l'émulation du raisonnement est un peu présente dans la façon de relier les variables entre elles. C'est une des définitions de l'intelligence, à savoir repérer des liens entre des choses qui ne semblent pas en avoir, tirer des règles générales à partir de cas particuliers, voir des similitudes dans différentes situations, etc.

Et rien n'empêche de ré-entraîner le réseau régulièrement, d'ailleurs en apprentissage artificiel on utilise également la notion d'oubli qui est finalement un avantage : peut-être que le système qu'on cherche à modéliser évolue dans le temps, et dans ce cas les vieux exemples sont à oublier progressivement car ils ne sont plus représentatifs du fonctionnement actuel. C'est ce que je faisais dans des automates industriels utilisant des réseaux de neurones, avec quelques indicateurs statistiques pour dire s'il était temps de réapprendre ou non.
J'ai l'impression que chacun part sur sa définition de l'intelligence artificielle, en y mettant parfois des choses qui n'ont rien à voir avec ce qui est couramment admis comme étant de l'IA.

Prenons un exemple concret, Watson, d'IBM. C'est de l'IA (sans réseau neuronaux, autant que je sache). Watson comprend le langage naturel (y compris humour et ironie), est capable d'apprendre et de tirer des conclusions. Il est utilisé dans un tas de domaines différents, par exemple pour poser des diagnostics médicaux.

Et je viens d'apprendre qu'il y a une offre freemium pour le grand public, tiens ! Il faudra que je trouve le temps de m’amuser avec !

Citation :
Watson, l'intelligence artificielle d’IBM, se compose de 90 serveurs de la génération Power 750 Express. Dans chacune de ces 90 machines tournent 32 processeurs. L’ensemble est piloté par un noyau (kernel) de système d’exploitation virtuel qui incite à se représenter Watson, non pas comme une gigantesque armoire bourrée d’électronique, mais comme une grappe (cluster) de serveurs surpuissants. La « grappe de serveurs » est capable d’effectuer 1000 milliards d’opérations élémentaires par seconde. Elle est équipée d’une base de connaissances en vocabulaire et notions cliniques ainsi qu’un d’un système de formulation vocale. Les 2880 processeurs et l’encyclopédie médicale mémorisée permettront à la « grappe » d’analyser 200 millions de pages de données en quelques secondes puis de proposer oralement des options de diagnostic.



Réduire les erreurs de diagnostic
Watson s’était fait remarqué il y a quelques mois en battant deux cerveaux humains dans un jeu télévisé de devinettes sur des connaissances générales. Il avait été spécialement configuré pour répondre à des questions du genre : « Grande tour en métal dans Paris ? ». C’était la deuxième fois qu’un dispositif informatique battait des bipèdes pensants : en 1997, Deep Blue avait défait le champion du monde Kasparov aux échecs. Désormais déprogrammé des jeux télévisés, Watson renoue avec le deuxième terme de l’acronyme IBM. Il va générer du business.

International Business Machine s’est en effet associée à la compagnie d’assurances WellPoint Inc. pour vendre aux médecins et aux hôpitaux des aides au diagnostic sur le cancer. Pourquoi le cancer ? Parce que c’est le mal qui progresse le plus vite aux Etats-Unis et qui coûte le plus cher aux compagnies d’assurances. Pourquoi une aide au diagnostic ? Parce que, selon WellPoint, 10 à 15 % des diagnostics initiaux sont erronés. Diminuer de moitié ces erreurs humaines d’appréciation permettrait d’augmenter le taux de guérison et, donc, de gagner de l’argent.

Des aides au diagnostic existent déjà sur le web. Le plus célèbre est « Isabel Healthcare », auquel sont abonnés une trentaine d’hôpitaux américains. Le nom de ce service en ligne vient d’une petite fille qui a souffert pendant des années de traitements inappropriés. Quand sa maladie a été enfin identifiée, son père, Jason Maude, a démissionné de son poste dans la finance pour créer un site susceptible de faire gagner du temps aux médecins. L’abonnement à cette base de connaissances est de 375 dollars par an pour un praticien individuel, 50 000 dollars pour un hôpital et jusqu’à 400 000 pour des ensembles médicaux plus larges. Un autre outil d’aide au diagnostic, Simul Consult est spécialisé dans les problèmes d’ordre génétique.

Watson est supposé travailler d’une toute autre manière que ces sites. Outre la littérature médicale qu’il est en train d’ingurgiter, il collectera en permanence non seulement les publications scientifiques, des rapports soumis aux symposiums spécialisés dans le cancer et certains témoignages que peuvent contenir les blogs des personnes qui souffrent de cette maladie.

Démontrées à l’occasion du jeu télévisé Jeopardy !, ses capacités phénoménales d’analyse et d’inférence vont assister - et non remplacer - les médecins. La « grappe de serveurs » collecte beaucoup plus d’indices que plusieurs individus pourraient le faire. L’inférence consistera à confronter certains de ces indices à ceux que le patient formule ou recèle, ainsi qu’à son dossier médical. Le résultat de la confrontation entre les indices et les données pourra être un éventail d’options dont certaines conduiront à un diagnostic. Watson pourra aussi suggérer des questions de plus en plus précises. Jamais il ne s’avisera d’imiter Louis Jouvet en docteur Knock dans le film inspiré par la comédie de Jules Romains : « Does it tickles or does it itches ? » (« ça vous chatouille ou ça vous gratouille ? »).

Outre la réduction de ses dépenses, WellPoint disposera grâce à sa collaboration avec IBM d’un fantastique capital de données médicales sur le cancer. Un capital immatériel qui devrait lui conférer un surcroît d’autorité dans la lutte contre le cancer ainsi que des occasions de rentabiliser ses investissements en vendant par exemple des paquets d’informations sur la santé des citoyens américains.



Un iPhone transformé en microscope
Avant d’être mis à la disposition du corps médical et des statisticiens probabilistes de la compagnie d’assurances, Watson devra répondre pendant deux ans à des déluges de questions posées par les plus grands spécialistes du cancer. Aucune erreur ne lui sera pardonnée.

A une échelle beaucoup plus modeste, des chercheurs en biophotonique du centre Davis (Université de Californie) viennent de mettre au point une lentille qui, accouplée à un iPhone, fait office de microscope connecté au web. Une petite application implémentée dans le téléphone nomade permet de déceler certaines anomalies dans une goutte de sang. L’image envoyée à un laboratoire sera exploitable pour diagnostiquer une maladie connue. Le dispositif ne coûte pas cher. Il devrait donc se répandre dans les pays les plus pauvres.


Read more at http://www.atlantico.fr/rdv/watson-i...oYB6bBg1jsD.99
En fait, il y a 2 notions d'IA : AI, et AGI (ou Hard AI). Grosso modo, Watson correspond a la 1ere notion d'IA, capable de manipuler des symboles, et d'extrapoler des correlations entre les symboles a partir des regles qu'on lui donne. La 2eme est capable de comprendre les symboles, et peut donc creer ses propres regles.
L'experience de pensée de la 'Chambre chinoise' peut t'interesser sur ce sujet : https://fr.wikipedia.org/wiki/Chambre_chinoise
Citation :
Pour moi l'expertise dans l'apprentissage automatique elle se trouve dans la sélection des entrées et des sorties.
Je ne pense pas avoir jamais dit le contraire mais c'est l'essentiel du raisonnement (si tu n'as pas les bons indicateurs tu peux te gratter pour classifier quoique ce soit, or c'est toi qui réfléchi pour essayer de trouver les règles permettant de différencier les différentes classe).

Citation :
Par contre l'émulation du raisonnement est un peu présente dans la façon de relier les variables entre elles. C'est une des définitions de l'intelligence, à savoir repérer des liens entre des choses qui ne semblent pas en avoir, tirer des règles générales à partir de cas particuliers, voir des similitudes dans différentes situations, etc.
Oui alors très clairement la machine est incapable de faire ça d'elle même dans l'état actuel de la technologie.

Citation :
Et rien n'empêche de ré-entraîner le réseau régulièrement,
Tu as pas le choix de toutes façon puisque à chaque fois qu'il y a de nouveaux cas qui sortent du range de valeurs que tu as utilisé pour entrainer ton réseau, il faut reentrainer. Par contre là où le feedback marche bien dans certains cas (typiquement un procédé de production où tu auras d'autres capteurs en aval de la chaine pour dire si la pièce est conforme ou non) ça ne marche pas dans d'autres (typiquement la classification de formes, l'ordinateur est absolument incapable de deviner de lui même qu'il a derp sur une classification, d'où google et sa récolte de capcha).

Dernière modification par Irvy ; 08/12/2014 à 15h06.
@Soir:
Attention quand même, la on est dans le sensationnalisme et dans la volonté de vendre l'objet!
Watson est impressionnant... Ses scripts surtout sont impressionnants... Pour preuve ils se gargarisent qu'il peut faire mille milliards d'opération à la seconde... Wahou!!! Mais en fait, si on ramène cela à l'humain, c'est juste peanuts...
Pour rappel, un cerveau humain c'est mille milliards ... de connexion synaptiques... Je te laisse imaginer quand tu multiplies ce chiffres par les fréquences des connections et que tu multiplies le tout par les cascades de neurotransmetteur, Watson est tout juste une mouche...
Pour preuve de son incroyable retard sur l'humain, il y a une fonction pour jouer à jeopardy, et on a du tout reprogrammer pour en faire un outil de diagnostique... La ou un médecin peut jouer sans problème à jeopardy, sans aucune reprogrammation.
Prend Watson équipe le d'une camera et de bras robotique,place le devant un plan Lego et des pièces, et..... un gamin de 5 ans qui n'a jamais vu de lego comprendra ce que cette super machine ne comprendra pas.
Watson n'est que la suite de Deep Blue, un ordinateur programmé par des humains, pour une tâche spécifique, incapable de quoique ce soit qui ne soit pas scripté à l'avance.

Je le répète, pour moi IA ne veut pas dire "capable de restituer un script". Le jour ou Watson sortira quelques chose d'autre que ce pour quoi il a été prévu, on pourra parler d'intelligence... Jusque la je ne vois qu'un gros big data restituant exactement et à la ligne de code près ce que l'on attend de lui. Et une énorme dépense marketing pour faire croire que l'objet est intelligent, ou tout du moins possède une IA... Pour moi ce n'est qu'une calculatrice élaborée...
Citation :
Publié par Dawme
Ca n'est pas totalement faux, mais la différence fondamentale est justement que l'homme est de lui même arrivé à ce stade par l'évolution, il n'a pas eu besoin d'une présence supérieure pour lui fournir ces "scripts", il se les ait créés lui même.
C'est parce que l'humain a une conscience qu'il arrive a se doter de ses propres scripts contrairement a l'animal qu'il ne fait que répéter que ce qu'il a d'inné en lui. Donnez une conscience à la machine et elle va faire le même chemin que l'humain et le dépasser vu qu'elle n'est pas limité comme lui.

Une fois dépassé l'humain , une I.A consciente considérerait l'humain,dans le meilleur des cas de la même façon que nous voyons les animaux par rapport à nous, sinon je sais pas...
Citation :
Publié par debione
@Soir:
Attention quand même, la on est dans le sensationnalisme et dans la volonté de vendre l'objet!
Watson est impressionnant... Ses scripts surtout sont impressionnants... Pour preuve ils se gargarisent qu'il peut faire mille milliards d'opération à la seconde... Wahou!!! Mais en fait, si on ramène cela à l'humain, c'est juste peanuts...
Pour rappel, un cerveau humain c'est mille milliards ... de connexion synaptiques... Je te laisse imaginer quand tu multiplies ce chiffres par les fréquences des connections et que tu multiplies le tout par les cascades de neurotransmetteur, Watson est tout juste une mouche...
Pour preuve de son incroyable retard sur l'humain, il y a une fonction pour jouer à jeopardy, et on a du tout reprogrammer pour en faire un outil de diagnostique... La ou un médecin peut jouer sans problème à jeopardy, sans aucune reprogrammation.
Prend Watson équipe le d'une camera et de bras robotique,place le devant un plan Lego et des pièces, et..... un gamin de 5 ans qui n'a jamais vu de lego comprendra ce que cette super machine ne comprendra pas.
Watson n'est que la suite de Deep Blue, un ordinateur programmé par des humains, pour une tâche spécifique, incapable de quoique ce soit qui ne soit pas scripté à l'avance.

Je le répète, pour moi IA ne veut pas dire "capable de restituer un script". Le jour ou Watson sortira quelques chose d'autre que ce pour quoi il a été prévu, on pourra parler d'intelligence... Jusque la je ne vois qu'un gros big data restituant exactement et à la ligne de code près ce que l'on attend de lui. Et une énorme dépense marketing pour faire croire que l'objet est intelligent, ou tout du moins possède une IA... Pour moi ce n'est qu'une calculatrice élaborée...
Ben ça tombe bien j'ai quelque chose pour toi :

debione, excuse-moi mais ton exemple ne veut rien dire. On parle d'IA actuelle, là. Quand une IA est programmée pour jouer à Jeopardy, on ne s’étonne pas qu'elle ne sache pas poser des diagnostics (d'ailleurs je doute que la plupart des joueurs de Jeopardy s'en tirent mieux). Et l'inverse est vrai. De même, comparer une IA a un enfant de 5 ans n'a pas de sens. L'enfant de 5 ans est adapté - avec ses propres limitations - à un environnement d’enfants de 5 ans. Qu'une IA que l'on spécialise dans un domaine n'ait pas l’adaptation requise pour un enfant de 5 ans, je ne vois pas en quoi cela démontrerait que ce n'est pas une IA...

Et revenons un instant sur l'utilisation du mot "script". Au sens informatique, la façon dont fonctionne Watson n'a rien à voir avec des scripts. Mais j'ai l'impression que tu donnes un sens très large à ce mot, signifiant "programme". Et bien oui, d'une certaine manière, toutes les IA sont des programmes, que ce programme soit une procédure, quelque chose de nettement plus complexe comme pour Watson, ou bien un réseau de neurones. Et alors ? C'est un peu pour cela qu'on les appelle des IA. La définition d'une IA, de nos jour, n'est pas "entité artificielle intelligente mais non programmée". J'ai l'impression que c'est ta définition à toi. Je peux me tromper. C'est quoi, ta définition ?

Selon Wikipedia
Citation :
Intelligence artificielle forte
Définition
Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d'une réelle conscience de soi, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements » 10.

Intelligence artificielle faible
La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue.

Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps "Je comprends.", mais son auteur rappelle il s'agit d'une simple mystification : le programme ne comprend en réalité rien.

Les tenants de l'IA forte admettent que s'il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ».

Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA forte qui contestent cette interprétation
Peut-être la confusion entre nous vient-elle du fait qu'l n'existe pour l'instant que des IA de définition faible. Moi, cela me va, et je pense que même comme cela elles peuvent être dangereuses.

Les IA de définition forte sont de la SF, je me demande si c'est réellement possible d'en construire, et c'est le sens de ma question sur une IA dotée de la conscience d'exister.
Citation :
Publié par Soir
Peut-être la confusion entre nous vient-elle du fait qu'l n'existe pour l'instant que des IA de définition faible. Moi, cela me va, et je pense que même comme cela elles peuvent être dangereuses.
En pratique ces IA, comme le dit Irvy, ont des seuils de sécurité en amont et en aval.
De cette façon on est à peu près sûr qu'elle n'est utilisée que si les valeurs d'entrée correspondent à la base d'apprentissage, et si les valeurs de sortie ne sont pas aberrantes.
Après pour la notion de dangereux, comme je le dis plus haut les algo de trading haute fréquence peuvent déjà être dangereux. Pas directement, mais les résultats de leurs calculs peuvent avoir des impacts non négligeables sur le monde réel.
C'est dans ce sens-là que je parle de danger, Kermo. Une IA n'a pas besoin d'avoir conscience d'exister, pour prendre des décisions. Et c'est le champ d'application de ses décisions qui peut la rendre dangereuse. Ton exemple de ces traders artificiels est un bon exemple. Et si les recherches actuelles sur des robots autonomes ayant la possibilité d'ouvrir le feu par eux-même se concrétisent, cela en sera un autre exemple.

http://www.bbc.com/news/magazine-21576376
@Soir:

Oui, nous ne sommes pas d'accord sur les mots, du coup on ne parle pas des mêmes choses. Je pense que même le mot intelligence posera problème 8puisqu'il pose même problème dans la communauté scientifique).
Si on reprend le cas de Watson, pour moi, un signe d'intelligence, serait qu'après avoir été programmé pour Jéopardy puis pour poser des diagnostiques, il crée de lui même, sans aucune intervention extérieur (nouveau script), un questionnaire pertinent pour tester les capacité des diagnosticiens ( ou autre chose).

L'exemple le plus caricatural de l'intelligence est pour moi le système "eurêka". Quand tout à coup on trouve un truc (bien documenté en neurosciences), qu'on arrive à assembler deux concepts pour en former un troisième (au niveau des neurones cela se traduit par la création d'un nouveau circuit souvent associés à l'apparition de nouvelles connections).

Je n'ai pas de doute sur le fait que si l'humain ne se fout pas en l'air, il produira une IA doté d'une conscience un jour. Mais je fais une grosse différence entre une "machine" qui joue sur mes perceptions pour me faire croire qu'elle est intelligente, et voir un véritable trait d'intelligence.

Mais si je vais au fond des choses, je dois bien admettre que tout à coup, internet pourrait bien avoir une conscience, et que moi avec mon petit ordi, je sois l'un des milliards de synapses...
J'aime bien voir l'intelligence comme la capacité d'un organisme a pouvoir s'adapter a un nouvel environnement/situation mais même la cette définition trouve très vite sa limite car si on prend les virus, ils arrivent a s’adaptés a leur nouvel environnement grâce a leur très grande capacité de reproduction mais ils ne sont sûrement pas intelligent.
Citation :
Publié par Malka
En fait, il y a 2 notions d'IA : AI, et AGI (ou Hard AI). Grosso modo, Watson correspond a la 1ere notion d'IA, capable de manipuler des symboles, et d'extrapoler des correlations entre les symboles a partir des regles qu'on lui donne. La 2eme est capable de comprendre les symboles, et peut donc creer ses propres regles.
L'experience de pensée de la 'Chambre chinoise' peut t'interesser sur ce sujet : https://fr.wikipedia.org/wiki/Chambre_chinoise
L'Hard AI semble correspondra à la définition forte de l'AI. Et rester de la SF pour le moment. Réalisable ou pas ? C'est une des questions . L’expérience dans le lien est intéressante, ce n'est qu'un argument parmi d'autres, mais c'est un argument à prendre en considération. Il entre pile dans le sujet, sur la question de la conscience, en tout cas !

Debione, je comprends ton point de vue mais il me semble un peu trop extrême. J'ai l'impression que non seulement tu demandes que l'IA correspondent à la définition forte, mais tu exiges d'elle des choses que qu'un humain aurait du mal à faire.

L'Ai actuelle est de définition faible, n'empêche qu'un jour elle sauvera peut-être la vie de lecteurs de JOL, en posant de bon diagnostics que des humains auraient du mal à faire.

Et les robots/IA sont au B.A.BA, mais on les trouve de plus en plus à occuper des emplois avant occupés par les humains :

Chez Amazon

Campus de Microsoft, à la place des vigiles :
Rien de bien impressionnant chez Amazon en terme d'IA dans cette vidéo. Les premiers se déplacent selon des ordres/commandes, ils ont juste un bon algorithme pour trouver leur chemin et s'éviter les uns les autres mais c'est pas très impressionnant je trouve. Pour le reste, c'est des automates, il n'y a rien d'"intelligent" là-dedans. Ce sont de beaux automates et ils ont dû demander pas mal de travail à leurs ingénieurs, mais des bras robotisés c'est pas nouveau et tu en trouves des millions dans le monde, et même de plus grands que ça.

Pour Microsoft là c'est déjà mieux, parce que la machine intègre plus de fonctions et a une capacité d'analyse (plaque bonne/mauvaise, position corporelle bonne/mauvaise, etc). Là il y a déjà plus d'intelligence. Cela dit, l'IA n'a pas une grande liberté ici, elle n'apprend rien je pense. Elle a plusieurs fonctions pour "capter" ce qui se passe, puis des critères d'analyse, et elle transmets les données captées et analysées. En soit, ça reste une machine qui fait exactement ce qu'on lui demande de faire et qui n'a pas la possibilité de faire autre chose.


Donc oui en robotique, en automation, il y a des systèmes vraiment impressionnants, mais je trouve pas vraiment ça lié à ta question sur l'IA. Je pense que pour réfléchir à tout ça il faut se concentrer sur la notion d'apprentissage autonome d'un programme, c'est là la clé des questions liées aux IA. Par contre, le reste nous donne une assez bonne idée de ce qui pourrait être les organes et le corps d'un robot avec IA, il y a de quoi faire : capteur GPS, caméra thermique, infrarouge et habituelle, système de vision avancé (reconnaissance des symboles donc lecture des textes), etc etc, et pour les membres : roues pour se déplacer, bras robotisé, etc.

Bref, ici on traite de l'"esprit" des IA je pense, pas de leur corps, faut bien dissocier ça quand tu te renseignes à ce sujet.
Au passage Amazon organise en mai prochain une compétition pour remplacer le seul humain encore visible sur la vidéo (1:17).

Citation :
En soit, ça reste une machine qui fait exactement ce qu'on lui demande de faire et qui n'a pas la possibilité de faire autre chose.
Si tu demandes à une machine de faire des choses de plus en plus complexes et de moins en moins répétitives, à un moment on parlera quand même d'IA je pense. Enfin sauf en robotique où on a un terme associé à chaque type de tâche, histoire de savoir de quoi on est en train de parler : adapter sa trajectoire, sa perception, son séquençage de tâches...

Par exemple avec mon équipe on est inscrit au Amazon Picking Challenge et les tâches sont du genre "prendre le livre de Toto dans la case B", avec aucune info sur comment sont disposés les objets de la case B (le livre est peut-être sous une boîte de cookies, posé à plat, visible sur la tranche...).
Citation :
Publié par kermo
Par exemple avec mon équipe on est inscrit au Amazon Picking Challenge et les tâches sont du genre "prendre le livre de Toto dans la case B", avec aucune info sur comment sont disposés les objets de la case B (le livre est peut-être sous une boîte de cookies, posé à plat, visible sur la tranche...).
Concrètement, la partie "choix de l'objet à récupérer", c'est de la vision ? Recherche de forme correspondante, décodage de code barre, recherche par couleur, truc comme ça ? Certainement avec une caméra mobile (sur un bras qui se promène ? ) ? Ou en recherchant un signal émis par une puce quelques centimètres autour de l'objet ? Un peu de tout ça ?

Si oui, je considère pas ça comme de l'IA mais comme un algorithme complexe de recherche avec différents capteurs mis en commun (vision, ondes radio diverses).
Citation :
Publié par Sergul
Si oui, je considère pas ça comme de l'IA mais comme un algorithme complexe de recherche avec différents capteurs mis en commun (vision, ondes radio diverses).
EN quoi cela ne correspond pas à la définition de l'IA faible précédemment citée ? La robotique n'est qu'un des champs dans lesquels on peut appliquer l'IA et pas le champ le plus impressionnant (pour le moment). Mais cela reste un champ d'application.
Citation :
Publié par Soir
EN quoi cela ne correspond pas à la définition de l'IA faible précédemment citée ? La robotique n'est qu'un des champs dans lesquels on peut appliquer l'IA et pas le champ le plus impressionnant (pour le moment). Mais cela reste un champ d'application.
Pour moi l'IA c'est un tout. Dès le moment où on compare à l'Homme, alors l'IA doit avoir au moins la plupart des fonctions du cerveau humain. C'est donc plus vaste ici que la définition habituelle de l'IA. Un robot qui reconnaît des objets précis, c'est classe c'est sûr mais c'est tout ce qu'il fait, il pourra pas apprendre les règles d'un jeu en voyant 10 parties par exemple. Il pourra pas apprendre par incrément un langage en mêlant textes et données statistiques.

C'est la mise en commun des différentes "IA" classiques qu'on en arrive à une IA dont on parle dans ce genre de débat. Il manque juste une chose : tout système informatique peut être résumé en très grossier à des entrées et des sorties (d'une manière générale, pas juste à bas niveau). Ici les entrées c'est les capteurs, puis dans le robot ça cogite, analyse, etc. Mais les sorties ? Les actions en gros, c'est quoi ? Le champ d'action d'un robot est défini par son créateur/programmeur. Dans beaucoup de cas, ça consiste en la commande de moteurs (bras robotisé) ou dans l'expression (écrite, orale) comme pour les robots qui parlent, les bots web typiquement.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés