Ouais enfin, euh, soyons honnetes, les premières réactions et attaques depuis le début sont "de toute facon ca n'arrivera jamais, ia bien trop de paramètres différents, c'est improbable"... Alors arriver à réunir tous les ingrédients pour commettre un meurtre, ca vous parait pas improbable ? ^^
D'autant que comme disait Gratiano plus haut, l'algo ne sera surement pas si basique, on sera plus sur des calculs probabilistes. Il suffit de faire changer un paramètre pour, potentiellement, faire prendre une autre décision au véhicule. Franchement, on sera plus sur le "Caramba, encore raté" que sur le crime parfait hein
Et les chances de mourir suite à une erreur de conduite, elles, par contre, elles sont bien là.
Le fait de programmer sciemment la mort d'un humain qui se trouve la ou il doit se trouver, c'est pas possible. Que l'humain qui se trouve la ou il ne doit pas se trouver puisse mourir me parait déjà plus acceptable, il a prit un risque ... bah ça paye pas toujours. Et dans ce cas bah la famille au milieu de la route en pleine campagne bah elle prend un risque.
C'est pas ce qu'il se passera. Ce qu'il se passera, c'est que les développeurs d'IA mettront en place des éléments, pas si simplistes mais qui pourront aboutir / être utilisées dans ce genre de situation. Et que pour mettre en place ces éléments, ils auront besoin d'un consensus sur lequel s'appuyer, parce que le choix ne doit pas leur appartenir.
Et la meilleure (?) manière d'ouvrir le sujet sur les réflexions autour de ce consensus, c'est de présenter des situations compréhensibles avec un choix à faire. Qui ne laissent pas la porte ouverte à une troisième alternative, parce que sinon, on va toujours imaginer une alternative moins pire, histoire de pas avoir un choix moral (difficile) à faire. Cependant, c'est vrai, dans les faits, ce sera jamais si simple que deux alternatives sans troisième voie. Mais, pour autant, le développeur d'IA aura besoin de ces "règles morales".
Et encore une fois, le fait "d'être à sa place", d'avoir pris un risque, etc, peut être un élément à prendre en compte dans le process de décision. Je concois qu'on dise "la voiture doit plutot tuer la famille au milieu de la route et épargner le passager seul", c'est pas forcément ce que je répondrais, mais je concois.
Par contre, pour que l'exercice soit intéressant, faut pas s'identifier ni à l'un ni à l'autre, ou s'identifier à tous, hein. En gros, si tu fais ce choix, pour etre logique, faut aussi répondre "je préfère que le véhicule autonome me tue moi et ma famille parce qu'on a traversé hors des clous plutot que la mamie de 90 ans qui traverse sur le passage". Ca prend une autre dimension =D