Repenser la société, fin du travail et évolution de l'humanité

Répondre
Partager Rechercher
Citation :
Publié par Doudou Piwi
Ce qui est formidable, c'est que vous me taxer de technoptimiste béat quand je dis juste qu'il est possible que tout n'aille pas si mal dans le futur car on n'a pas forcément tout anticipé et que les malthusianistes avaient déjà fait cette erreur. Je parle d'éventualité, la où vous êtes tous totalement certains que la catastrophe est inévitable, mais c'est limite moi l'extrémiste, chercher l'erreur
C'etait le but de ma metaphore d'hier, montrer que sur un "possible", face a des certitude (c'est la merde), on nous propose d'acceler la catastrophe comme "peut etre" solution. Avec en plus l'argument de pouvoir refuter, sur la base d'un "peut etre", les solutions proposées (je passe sur le "miroir magique" que tu m'as sorti hier).
Citation :
Publié par Ron Jilles de Raie
...
@debione tu ne manques par de cohérence, mais voilà ton constat, c'est loin d'être le cas de tous. Et je te trouve très rigoureux pour quelqu'un d'aussi, c'est comme ça que je te vois, pessimiste. Pour donner l'exemple à tes enfants ?
Non, une vieille souffrance d'enfant ou je m'étais promis de ne pas finir comme eux... (s'entend les adultes)

Oui, je suis pessimiste sur l'humain, et encore ici sur JOL je suis soft... Je l'ai un peu trop vu dans le blanc des yeux étant enfant. Mais si je suis assez rigoureux, c'est parce que une des choses que je n'aimerais pas en mourant, c'est d'avoir trop de regret. J'essaye toujours de faire le maximum en ce sens (euh, non je pourrais faire encore bien plus), ne pas agir comme si je ne savais pas (ce que j'ai reproché enfant et reproche encore à mes contemporains...). J'aurai au moins essayé d'aller dans le sens de mes idées profondes.
Hi
Je ne savais pas trop où mettre cette information. Je pense que ce sujet sera le plus adapté.

Quatre universités américaine ce sont associé à Googlr pour faire une expérience de deep learning médicale. Le résultat est intéressant, et troublant :

Citation :
’algorithme auto-apprenant a ensuite traité ces données et a créé quatre catégories de patients :
  • Ceux qui vont mourir lors de l’hospitalisation ;
  • Ceux dont l’hospitalisation sera prolongée au-delà de ce qui est prévu lors de l’admission ;
  • Ceux qui sortiront à date prévue mais seront réadmis de façon imprévue lors des 30 prochains jours ;
  • Ceux qui sortiront de cet episode sans autre complication.
Pour chaque catégorie, les chercheurs ont comparé le résultat prédictif de l’ordinateur à ce qui s’est réellement passé.
Résultat : une fiabilité supérieure à 90%.


Citation :
Devant ce résultat sidérant, les chercheurs ont poussé l’expérience plus loin : ils ont revu le dossier médical en ayant la prédiction en tête, dans le but de comprendre ce qui a permis à l’ordinateur de prévoir le résultat. Ils … n’y sont pas parvenus.
“With extraordinary accuracy, these algorithms were able to predict and diagnose diseases, from cardiovascular illnesses to cancer, and predict related things such as the likelihood of death, the length of hospital stay, and the chance of hospital readmission. Within 24 hours of a patient’s hospitalization, for example, the algorithms were able to predict with over 90% accuracy the patient’s odds of dying. These predictions, however, were based on patterns in the data that the researchers could not fully explain.”
L’ordinateur prédit l’évolution médicale, dont la mort. Il se fonde sur les données médicales de la personne pour effectuer cette prédiction. Problème : il est le plus souvent impossible au médecin de déterminer la raison pour laquelle l’ordinateur prédit cela, tout en sachant qu’il a raison dans 90% des cas …


Source : https://www.droit-technologie.org/ac...-allez-mourir/
C'est cool. Je sens que ce genre d'innovations montre bien quel sera notre marge de manoeuvre quand il faudra négocier avec des AI...

Bon, avant ça, on aura sans doute un autre problème plus urgent : les riches.
https://medium.com/s/futurehuman/sur...t-9ef6cddd0cc1

En résumé, nos amis milliardaires savent qu'ils sont en train de faire péter leur planète et dépensent une énergie folle pour sauver l'humanité.

Nan, je rigole : ils cherchent à trouver le moyen de laisser dans la merde 99,9% de l'humanité tout en échappant eux-mêmes aux conséquences déplaisantes des événements qu'ils vont provoquer. Relisez "le successeur de Pierre".
Citation :
Publié par Ghainor/Rodrek
Je ne savais pas trop où mettre cette information. Je pense que ce sujet sera le plus adapté.

Quatre universités américaine ce sont associé à Googlr pour faire une expérience de deep learning médicale. Le résultat est intéressant, et troublant :









Source : https://www.droit-technologie.org/ac...-allez-mourir/
Donc les mecs sont capable de construire un ordi qui predit la mort, mais sont pas capable de tracer la logique de leur engeance? C'est moi ou ils sont nuls en fait?

Du coup je suis circonspect dedans cette info, comprendre ce qu'il se passe dans un programme (et/ou se donner les moyens d'avoir l'info a prosteriori), ca reste la base de la programmation quand meme non?

L'ordi qui a battu le champion au jeu de go, on a su analyser ses choix, pourquoi pas ici? Trop de sensationnalisme a mon gout "la machine est tellement forte qu'on comprend meme pas comment elle fait"... mouais, generalement on dit que c'est le mec qui a le clavier entre les mains le probleme.
Citation :
Publié par -Interfector-
ca reste la base de la programmation quand meme non?
Avec l'IA forte non, et c'est bien pour cela que les trois lois de la robotique d'Asimov n'auront plus de sens quand ont arrivera au stade de la singularité (si ont a le temps de l'atteindre et qu'il est atteignable).
Citation :
Publié par Aloïsius
C'est cool. Je sens que ce genre d'innovations montre bien quel sera notre marge de manoeuvre quand il faudra négocier avec des AI...

Bon, avant ça, on aura sans doute un autre problème plus urgent : les riches.
https://medium.com/s/futurehuman/sur...t-9ef6cddd0cc1

En résumé, nos amis milliardaires savent qu'ils sont en train de faire péter leur planète et dépensent une énergie folle pour sauver l'humanité.

Nan, je rigole : ils cherchent à trouver le moyen de laisser dans la merde 99,9% de l'humanité tout en échappant eux-mêmes aux conséquences déplaisantes des événements qu'ils vont provoquer. Relisez "le successeur de Pierre".
En fait, au delà de la critique facile, ça soulève quand même des aspects fascinants, sur la nature humaine et son évolution.

Citation :
The more committed we are to this view of the world, the more we come to see human beings as the problem and technology as the solution. The very essence of what it means to be human is treated less as a feature than bug. No matter their embedded biases, technologies are declared neutral. Any bad behaviors they induce in us are just a reflection of our own corrupted core. It’s as if some innate human savagery is to blame for our troubles.
Mais du coup, qui décide ce qui est humain? Donner un coup de poing quand on est insulté? Insulter? Voler?

Finalement, ces riches, obéissent à une logique implacable. Quand/si "Event" il y aura, ça va être le carnage. Comment s'assurer que les humains se comportent en humains (à définir) et non en animaux? Impossible, du coup autant se protéger des autres humain via robot ou collier qui ote le libre arbitre.

Est ce qu'on considère l'humain comme étant ce qu'il était il y a 100.000 ans? il y a 200 ans? Ou on considère qu'il est en évolution perpétuelle? Et si oui, vers quel but? L’auteur le dit avec ironie, mais je souscrit à l'idée que le but de l'humanité est de s’affranchir de sa condition et de se transcender, "d'ascend". Les Dieux grecs n'étaient peut être pas que les reflets de nos défauts, mais aussi le but inconscient vers lequel oeuvre l'humanité
Citation :
Publié par -Interfector-
Du coup je suis circonspect dedans cette info, comprendre ce qu'il se passe dans un programme (et/ou se donner les moyens d'avoir l'info a prosteriori), ca reste la base de la programmation quand meme non?
Non. Et c'est pas la première fois: il y a deux IA qui communiquent par un système de cryptographie qu'on est infoutu de comprendre par exemple. Quand tu mets en place un réseau de neurones, tu fabriques une boîte noire. Les solutions que la machine va trouver, elle ne te les donne pas, et leur analyse n'a rien de simple.

L'intérêt, c'est justement que l'IA va trouver des trucs qu'un être humain ne trouverait pas, en essayant toutes les solutions possibles. Le soucis, c'est que si justement on ne les aurait pas trouvé c'est bien parce que ce sont des choses qui ont tendance à dépasser nos capacités intellectuelles.
Citation :
Publié par -Interfector-
Donc les mecs sont capable de construire un ordi qui predit la mort, mais sont pas capable de tracer la logique de leur engeance? C'est moi ou ils sont nuls en fait?

Du coup je suis circonspect dedans cette info, comprendre ce qu'il se passe dans un programme (et/ou se donner les moyens d'avoir l'info a prosteriori), ca reste la base de la programmation quand meme non?
Il y a un truc capital que tu oublie dans ton raisonnement, l'IA prédit le résultat parce qu'il a pu croiser les données du patient avec celles de 216k autres (correspondant à 46 milliards d'éléments qui sont analysés). Pour un humain normal c'est déjà impossible de compulser autant de données mais si en plus l'IA a été étalonné correctement, elle est théoriquement (pratiquement dans le cas présent apparemment), il est possible que l'algo derrière est capable de faire des liaisons certaines informations que les programmeurs et les médecins n'ont pas anticipés (imagine si c'est un truc à la con comme le taux de cholestérol, le fait que la personne ai eu un rhume précédemment où que le patient s'est cassé le bras en 1980 au Texas à côté d'un point d'eau).

C'est la limite humaine concernant des algorithmes très complexe, il est possible de ne pas savoir comment le résultat a été obtenu s'il y a trop de données et trop de variables en jeu.

Citation :
Publié par -Interfector-
L'ordi qui a battu le champion au jeu de go, on a su analyser ses choix, pourquoi pas ici?
Parce que concernant le Go (où de presque n'importe quel jeu avec des règles et des situations limitées), le nombre de situations et les actions possibles se limitent de plus en plus en fonction de l'avancement de la partie sans parler du fait que c'est un environnement entièrement contrôlé (dans le sens où il n'est possible de faire des mouvements interdis).
Citation :
Publié par Anthodev
...


Parce que concernant le Go (où de presque n'importe quel jeu avec des règles et des situations limitées), le nombre de situations et les actions possibles se limitent de plus en plus en fonction de l'avancement de la partie sans parler du fait que c'est un environnement entièrement contrôlé (dans le sens où il n'est possible de faire des mouvements interdis).
Alors je ne connais pas le go, mais dans les échecs ce n'est pas le cas... pour le premier coup aux échecs, c'est 18 coups possible maximum, si tu parts pion roi de deux( classique) tu dégages le fou et la reine, tu obtiens bien plus de possibilités, la même si tu sorts tes chevaux. Il me semble d'ailleurs que le principal problème des softs se situaient justement sur les fin de partie, ou quand tu as des fous, la reine, les tours de sorties, c'est bien plus de possibilité, et sans exclure certaine possibilité par software, la force brute ne suffisait plus ( a l'époque s'entend)
Bha qu'on soit pas capable nous de le determiner, change rien au fait que tu dois pouvoir programmer ton ia pour lui faire dire, en plus du resultats, les raisons de son choix, meme si ca demande 1million de raison a donner.

Si la machine dit 2, elle doit pouvoir dire si elle a fait 1+1, 1.5+0.5, ou 0.1+0.23+0.43+.. ou n'importe quoi. Et le pourquoi de ce choix. Ya bien un moment ou l'ia fait un choix? C'est pas parce qu'on n'aurai pas ete capable de le faire qu'on peut pas lui demander d'exprimer ses choix (et les raisons).

Les 200k patients et X milliards de données, c'est surtout des choix a eliminer, on n'est pas capable d'analyser quelques millions de données? De faire des logs/stats?
Je sais bien que la puissance de calcul liée au data permet aux machines d'obtenir leur resultat de dingue, mais ne pas etre capable de lui demander de tracer son raisonnement ca me semble terriblement con.
Je developpe plus depuis 2 ans, mais quand je le faisais, je sais pas, j'avais des logs, meme pour des trucs pas prevu. Au pire une fois l'imprevu detecté, tu precises. Mais qu'on puisse pas demander a une machine qui fait des choix, d'exprimer (log) ses choix, ca me parait inconcevable, et non c'est pas "logique".

Et non, 2 IA ont pas communiqué par un systeme de crypto qu'on est infoutu de comprendre, c'est juste un probleme de base de crypto avec 2 personnes qui se parlent en se comprenant sans qu'une 3ieme puisse comprendre. C'est le principe de la crypto, si t'as pas la clé, t'es foutu. Le systeme en lui meme est connu et compris.
https://www.wikiwand.com/fr/Alice_et_Bob
(tips: le nom des IA est le meme que celui du probleme de crypto).
Citation :
Publié par -Interfector-
Donc les mecs sont capable de construire un ordi qui predit la mort, mais sont pas capable de tracer la logique de leur engeance? C'est moi ou ils sont nuls en fait?

Du coup je suis circonspect dedans cette info, comprendre ce qu'il se passe dans un programme (et/ou se donner les moyens d'avoir l'info a prosteriori), ca reste la base de la programmation quand meme non?

L'ordi qui a battu le champion au jeu de go, on a su analyser ses choix, pourquoi pas ici? Trop de sensationnalisme a mon gout "la machine est tellement forte qu'on comprend meme pas comment elle fait"... mouais, generalement on dit que c'est le mec qui a le clavier entre les mains le probleme.
La limite c'est plus notre capacité a digérer l'information pour en tirer une analyse.

L'ordinateur va t'expliquer son raisonnement mais un être humain n'a pas la puissance de calculs nécessaire pour arriver de lui même au même conclusions que l'ordinateur même si il connaît la solution final.
Citation :
Publié par debione
Alors je ne connais pas le go, mais dans les échecs ce n'est pas le cas... pour le premier coup aux échecs, c'est 18 coups possible maximum, si tu parts pion roi de deux( classique) tu dégages le fou et la reine, tu obtiens bien plus de possibilités, la même si tu sorts tes chevaux. Il me semble d'ailleurs que le principal problème des softs se situaient justement sur les fin de partie, ou quand tu as des fous, la reine, les tours de sorties, c'est bien plus de possibilité, et sans exclure certaine possibilité par software, la force brute ne suffisait plus ( a l'époque s'entend)
Le go c'est un jeu de placement. Au premier coup tu as autant de possibilité que de cases (d'intersections en fait), puis ça diminue.
C'était dur à appréhender pour l'IA justement car les possibilités sont énormes au début (132 possibilités pour le premier coup, 132-1 pour le deuxième etc...), et que la victoire dépend beaucoup de "l'intuition" (enfin d'avoir placé un pion au bon endroit 40 coups avant).
En gros il n'était pas possible de développer une (fausse) IA comme celles qui rendaient les ordinateurs efficaces aux échecs dès les années 80 (IA qui testaient tous les coups possibles à x coups à l'avance), il a fallu émuler le jeu humain pour commencer à faire des IA de go potables (après par contre c'est allé plus vite que prévu avec le deep learning).
Citation :
Publié par Killjoy
La limite c'est plus notre capacité a digérer l'information pour en tirer une analyse.

L'ordinateur va t'expliquer son raisonnement mais un être humain n'a pas la puissance de calculs nécessaire pour arriver de lui même au même conclusions que l'ordinateur même si il connaît la solution final.
Oui, mais Interfector a raison en disant qu'a posteriori, il devrait etre possible pour n'importe quel analyste de comprendre un resultat a priori surprenant en etudiant les logs de la machine. C'est d'ailleurs l'un des principaux interets des analyses statistiques telles que celles de machines comme Deep Mind, : decouvrir de nouvelles correlations, et donc souvent des causalites, qui nous permettent de mieux comprendre tel ou tel sujet (qu'il s'agisse du jeu de go, de la prevention medicale, ou autre).

Avoir une "boite noire" n'aurait qu'un interet limite.
En l'occurrence l'article dit juste que les médecins n'ont pas réussi à comprendre la conclusion en ne regardant QUE le dossier médical du patient. Je pense qu'ils savent très bien comment l'IA a déterminé cela, ou du moins ceux qui ont accès aux logs. On ne me fera pas croire que les mecs qui développent des IA le font en roue libre sans analyse de leurs propres résultats lol.
Citation :
Publié par Killjoy
D'un autre côté si la boîte noir à raison dans 90% des cas faudra bien se résoudre à lui faire confiance et faire le deuil de notre hubris.
Ce n'est pas une question d'hubris mais de sécurité, si on commence à faire confiance à l'algo sans restriction, le jour où il buggera on sera bien baisé parce qu'on aura aucun moyen de le savoir, et les conséquences pourraient être dévastatrices (pour un humain et/ou la société).
Citation :
Publié par Killjoy
D'un autre côté si la boîte noir à raison dans 90% des cas faudra bien se résoudre à lui faire confiance et faire le deuil de notre hubris.
Tu n'es pas à l'abri d'une corrélation un peu débile, non valable d'un point de vue médicale car pas de liens de causes à effet.
Et en comprenant la logique de l'IA, on pourrait faire de la prévention, qui coûterait moins cher pour un meilleur résultat.
Citation :
Publié par Diot
...
Et en comprenant la logique de l'IA, on pourrait faire de la prévention, qui coûterait moins cher pour un meilleur résultat.
Et coûter moins cher revient à dire moins de bénéfices pour certains... Pas sûr que tout le monde soit ok avec cette évidence... Suffit de voir comment est traité dans certain pays l'histoire du lait en poudre vs lait maternel, pour comprendre que l'on n'est absolument plus dans une logique du" meilleur" pour l'humain...
Citation :
Publié par Anthodev
Ce n'est pas une question d'hubris mais de sécurité, si on commence à faire confiance à l'algo sans restriction, le jour où il buggera on sera bien baisé parce qu'on aura aucun moyen de le savoir, et les conséquences pourraient être dévastatrices (pour un humain et/ou la société).
Tu demande pas à une voiture autonome d'être infaillible tu lui demande juste d'être meilleurs conducteur que l'homme.

Si un ordinateur est un meilleurs diagnosticien que Dr House et toute sa bande tu va pas lui demander d'être infaillible avant toute utilisation.

Il faut se faire a l'idée que aucun être humain ne sera jamais capable d'appréhender un mécanique de prédiction qui échappe de toute façon totalement à ses capacités intellectuelles limités.
Citation :
Publié par Killjoy
Tu demande pas à une voiture autonome d'être infaillible tu lui demande juste d'être meilleurs conducteur que l'homme.

Si un ordinateur est un meilleurs diagnosticien que Dr House et toute sa bande tu va pas lui demander d'être infaillible avant toute utilisation.

Il faut se faire a l'idée que aucun être humain ne sera jamais capable d'appréhender un mécanique de prédiction qui échappe de toute façon totalement à ses capacités intellectuelles limités.
T'as rien compris au propos mais bon...
Il parle a aucun moment d'attendre que la machine soit infaillible. Juste d'etre en mesure de comprendre ce qu'il se passe. Tips : ca permet le jour ou ton IA fait vraiment de la merde :
- de comprendre et modifier la chose, sinon une fois l'ia mise en place, le systeme evoluera plus jamais, puisqu'on est pas mesure de comprendre ce qu'il se passe, ce qui peut etre amelioré, changé etc
- de reprendre la main le jour ou on veut/doit s'en passer, ne pase se poser de question quand quelqu'un fait un truc, c'est un peu l'inverse de se que fait l'humain depuis qu'il apprend, evolue et fait. Le jour ou ton ia est plus la, personne n'a le moyen de la remplacer, meme pas un peu, puisqu'on a donné toute la confiance (aveugle) en perdant toute la connaissance et surtout, toute possibilité de faire evoluer cette connaissance.

Yen a qui parle d'IA sans JAMAIS prendre la mesure des consequences que ca peut avoir sur le long termes, l'homme dans son ensemble, a aucun moment ils inscrivent ca dans un contexte general, toujours particulier et tres etriqué, limitant ainsi toutes les consequences que ca peut avoir. C'est dramatique comme expression de ce qu'ils veulent etre une solution pour notre futur.
Et la on parle pas de petite consequence, juste de donner les clefs de l'evolution de notre connaissance a des machine sans jamais avoir un droit de regard, "parce qu'on comprend pas".

En fait vous voulez plus etres humain... un jour faudra accepter ce qu'on est hein, il faut se faire a l'idée qu'on est pas une autre espece qui n'existe pas.
Citation :
Publié par Killjoy
Tu demande pas à une voiture autonome d'être infaillible tu lui demande juste d'être meilleurs conducteur que l'homme.
Tu as misquote ?

Mon intervention n'était pas pour dire que l'IA doit être infaillible, mais quelle ne doit pas être une black box tout de même et qu'on soit en moyen de connaitre son raisonnement ainsi que d'avoir la possibilité de se rendre compte quand elle se plante (que ce soit à cause d'un bug logiciel ou de données de mauvaises qualités) afin d'agir en conséquence.
Citation :
Publié par Aloïsius
L'intérêt, c'est justement que l'IA va trouver des trucs qu'un être humain ne trouverait pas, en essayant toutes les solutions possibles. Le soucis, c'est que si justement on ne les aurait pas trouvé c'est bien parce que ce sont des choses qui ont tendance à dépasser nos capacités intellectuelles.
L'intérêt du deep learning, c'est justement que l'IA n'essaie plus toutes les solutions possibles : elle "apprends" ce qui marche et ce qui ne marche pas, et n'explore que les solutions qui marchent. C'est ce qui lui permet de résoudre le Go, alors qu'il est physiquement impossible de tester toutes les solutions possibles, celles-ci étant trop nombreuses.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés