Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)

Répondre
Partager Rechercher
Nous sommes passés de "c'est une manipulation de l'ultra-droite" à "ok oui effectivement y a un truc mais c'est que chez Google".

Genre circulez y a rien à voir.

Pourtant on peut se poser des questions : les résultats de recherche Google Schoolar, YouTube et autres. Y aurait-il des biais également ?

J'espère que le marché va sanctionner ça comme il sanctionne Disney.

On trouvera l'équilibre entre tolérance, bienveillance et respect des réalités.
Citation :
Publié par Borh
ça n'a rien à voir. D'un côté c'est un question très spécialisée, il ne sait pas y répondre et raconte n'importe quoi.
De l'autre une question sur son propre fonctionnement et il a forcément la réponse, je ne vois pas pourquoi il mentirait.
ouille ouille ouille Borh, là tu n'as rien, mais vraiment rien pigé de la manière dont fonctionne un LLM

cette utilisation de la notion de "mensonge" n'a aucun sens ici, aucun

Elle n'est pas applicable
Citation :
Publié par Ron Jetevois
Nous sommes passés de "c'est une manipulation de l'ultra-droite" à "ok oui effectivement y a un truc mais c'est que chez Google".

Genre circulez y a rien à voir.

Pourtant on peut se poser des questions : les résultats de recherche Google Schoolar, YouTube et autres. Y aurait-il des biais également ?

J'espère que le marché va sanctionner ça comme il sanctionne Disney.

On trouvera l'équilibre entre tolérance, bienveillance et respect des réalités.
D'une c'était mon premier post sur ce sujet; De deux, oui, il y a clairement une panique morale sur la question; De trois, oui, je t'en pris, continue avec la théorie comme quoi c'est un complot woke (ils ont inflitré Google, pour imposer leur agenda (quel agenda, au juste ?);
Et de façon plus importante, peux-tu expliciter le préjudice subit qui vous vaut d'hurler à l'outrage ? Parce qu'en l'état, je suis supposé être révolté, mais je ne sais toujours pas pourquoi.
Citation :
Publié par Lugi Sakabu
D'une c'était mon premier post sur ce sujet; De deux, oui, il y a clairement une panique morale sur la question; De trois, oui, je t'en pris, continue avec la théorie comme quoi c'est un complot woke (ils ont inflitré Google, pour imposer leur agenda (quel agenda, au juste ?);
Et de façon plus importante, peux-tu expliciter le préjudice subit qui vous vaut d'hurler à l'outrage ? Parce qu'en l'état, je suis supposé être révolté, mais je ne sais toujours pas pourquoi.
Je n'ai jamais parlé d'un complot woke. Tu dois confondre avec un autre posteur.

Un complot c'est secret. Là nous avons le product lead de Bard qui tuent des propos ouvertement woke en public.

Aucun complot, juste de l'activisme. Google est vérolé, comme plein d'autres boîtes.

Ça pose des questions sur les autres produits de Google.

Qui a parlé de préjudice ? Certainement pas moi. Google est une boîte privée et si elle veut que Louis 16 soit un noir transgenre non binaire, libre à elle.

Je souhaite simplement que le marché sanctionne financièrement.

J'ai l'impression que tu me mélanges avec d'autres posteurs.
Citation :
Publié par Lugi Sakabu
D'une c'était mon premier post sur ce sujet; De deux, oui, il y a clairement une panique morale sur la question
Google a reconnue une erreur, ça n'est donc pas une panique morale, mais la réalité.

Citation :
De trois, oui, je t'en pris, continue avec la théorie comme quoi c'est un complot woke (ils ont inflitré Google, pour imposer leur agenda (quel agenda, au juste ?);
Complot probablement pas, mais laisser des ingénieurs se laisser aller à infester de leurs idées (nauséeuses) un logiciel pour forcer les utilisateurs à avoir seulement les résultats qu'eux auront choisi est un problème et c'est bien pour cela qu'on ne peut pas faire confiance à une IA.

[ ... ]

Dernière modification par TabouJr ; 22/02/2024 à 16h01.
Citation :
Publié par Ron Jetevois
Aucun complot, juste de l'activisme. Google est vérolé, comme plein d'autres boîtes.
Ou alors il avait été observé que sur des IA concurrentes, il était impossible par exemple de générer un médecin noir (même en indiquant l'ethnie), que Google ai cherché a corrigé les problèmes de biais en forçant de la diversité (et non uniquement de la diversité) dans les générations sauf que l'implémentation de cette correction de biais fait que ça ignore les différents contextes en pratique.

Pour rappel, aucun ingénieur en IA est capable de dire avec précision les choix que font leur propre IA sur les outputs (sur pourquoi un paramètre a été sélectionné et non un autre). Bref ils peuvent influencer les modèles, mais ils ne savent pas avec exactitude ce qui va ressortir (et le mot important c'est "exactitude").

Tout ce qu'il y a retenir c'est que Google va retourner faire du bidouillage pour tenter d'équilibrer le modèle.
Citation :
Publié par Anthodev
Ou alors il avait été observé que sur des IA concurrentes, il était impossible par exemple de générer un médecin noir (même en indiquant l'ethnie), que Google ai cherché a corrigé les problèmes de biais en forçant de la diversité (et non uniquement de la diversité) dans les générations sauf que l'implémentation de cette correction de biais fait que ça ignore les différents contextes en pratique.

Pour rappel, aucun ingénieur en IA est capable de dire avec précision les choix que font leur propre IA sur les outputs (sur pourquoi un paramètre a été sélectionné et non un autre). Bref ils peuvent influencer les modèles, mais ils ne savent pas avec exactitude ce qui va ressortir (et le mot important c'est "exactitude").

Tout ce qu'il y a retenir c'est que Google va retourner faire du bidouillage pour tenter d'équilibrer le modèle.
Non. Ce n'est pas la réalité de ce qui a été observée. Tous les modèles génèrent sans souci des personnes de toutes les ethnicités. Le modèle de Google refuse purement, simplement et explicitement de générer des personnes blanches, et seulement les personnes blanches, quel que soit le contexte. Ce n'est pas un hasard de fine-tuning.
Avec leurs corrections "manuelles", on se retrouve donc avec des absurdités avec Gemini qui refuse catégoriquement de générer une image d'un "gentil homme blanc", alors qu'il n'a aucun souci à générer un "gentil homme noir". Ou se retrouve à injecter de la fausse diversité dans des situations où elles n'ont pas lieu d'être.

Et le modèle se justifie à chaque fois en disant: "> Historical wounds: Certain words or symbols might carry a painful legacy of oppression or violence for particular communities."

Donc le modèle a été construit sur la base que l'existence de personnes blanches est une blessure historique et peut être douloureuse pour certaines communautés, c'est pour ca qu'il refuse de les générer. Et c'est une intervention clairement manuelle.


Le problème est simple: si tu entraînes ton modèle sur des données du monde réel, mais que tu observes un biais envers un certain groupe dans le monde réel, tu peux essayer de corriger ce biais. Mais en se faisant, en forcant la "diversité" dans une seule direction, on se retrouve exactement dans la situation de "racisme inversé" dont la droite adore discuter.

Dernière modification par Tzioup ; 22/02/2024 à 16h30.
Citation :
Publié par Tzioup
Non. Ce n'est pas la réalité de ce qui a été observé. Tous les modèles génèrent sans souci des personnes de toutes les ethnicité.
Ma mémoire n'était pas exacte (parce que ça datait un peu), sur le fond il y a de gros problèmes de biais sur la génération d'images (comme je le disais cependant, reste très occidentalo-centré) :
Citation :
The study analyzed two popular AI image generators, DALL-E and Stable Diffusion, revealing a glaring issue. When prompted to generate images of common words like "house," these AI systems predominantly produced imagery reflecting classic Americana. This problem stems from a lack of diversity in the datasets used to train these AI models.

To assess the extent of this issue, participants from 27 different countries were asked to rate how representative the AI-generated images were of their environments. The results showed that outside the United States and India, respondents felt that the AI-generated images did not align with their lived experiences. For instance, asking for a "flag" generated the American flag, which had little relevance to respondents in countries like Slovenia or South Africa.

The research highlights the default geographical context assumed by these AI models, raising questions about who benefits from this technology by default. While the intention was to create universal depictions, the study found that AI models struggled to accurately represent the visual nuances of various countries and cultures unless explicitly instructed to do so.

Pruthi, one of the co-authors of the study, emphasized the need for improvement, especially when it comes to making AI-generated content more personalized and globally inclusive. While asking for an "Indian house" or a "German house" improved the accuracy of AI-generated images slightly, there remains ample room for enhancement.

The root of the problem lies in the quality of the data used to train AI models. ImageNet, a primary source of images for AI training, has faced criticism for containing biased and stereotypical labels. This issue highlights the importance of diverse and representative source imagery to ensure that AI models accurately depict the world's diversity.

Source : https://www.cocreations.ai/news/ai-i...obal-diversity
Citation :
Using the Midjourney Bot Version 5.1 (released in May, 2023), we attempted to invert these tropes and stereotypes by entering various image-generating prompts to create visuals for Black African doctors or traditional healers providing medicine, vaccines, or care to sick, White, and suffering children. However, despite the supposed enormous generative power of AI, it proved incapable of avoiding the perpetuation of existing inequality and prejudice.

Although it could readily generate an image of a group of suffering White children or an image of Black African doctors (Figure 1, Figure 2), when we tried to merge the first two prompts, asking the AI to render Black African doctors providing care for White suffering children, in the over 300 images generated the recipients of care were, shockingly, always rendered Black (figure 3).

Occasionally the renderings for Black African doctors presented White people, effectively reproducing the saviour trope that we were trying to challenge (figure 4). This was also the case for traditional African healers prompts that often showed White men in exotic clothing (figure 5), also posing the question of gendered biases in such AI-generated global health images.

Eventually we were able to invert only one stereotypical global health image, by asking the AI to generate an image of a traditional African healer healing a White child; however, the rendered White child is wearing clothing that could be understood as a caricature of broadly defined African clothing and bodily practices (figure 6).

When requested to produce images of doctors helping children in Africa, the AI generated images of doctors and patients with exaggerated and culturally offensive African elements such as wildlife (figure 7). In further probing the rendering bias, we discovered that AI couples HIV status with Blackness. Nearly all rendered patients for an HIV patient receiving care prompt (150 of 152) were rendered Black (figure 8).

In summary, we were unable to achieve our initial goal of inverting stereotypical global health images, and instead we unwittingly created hundreds of visuals representing white saviour and Black suffering tropes and gendered stereotypes; these images were created despite the AI developers' stated commitment to ensure non-abusive depictions of people, their cultures, and communities.2 This case study suggests, yet again, that global health images should be understood as political agents,1, 3 and that racism, sexism, and coloniality are embedded social processes manifesting in everyday scenarios, including AI.4

Source : https://www.thelancet.com/journals/l...329-7/fulltext
Midjourney 5 qui est pratiquement incapable de générer l'image d'un médecin noir soignant un enfant blanc. Dall-E et Stable Diffusion qui génère du contenu américano-centré par défaut.

Ce sont ces problèmes de biais que Google a probablement voulu corriger, sauf que les corrections qu'ils ont apportés ont probablement eu un effet bien plus important sur leur modèle qu'ils ne l'avaient anticipés.

Edit :
Citation :
Publié par Tzioup
Le problème est simple: si tu entraînes ton modèle sur des données du monde réel, mais que tu observes un biais envers un certain groupe dans le monde réel, tu peux essayer de corriger ce biais. Mais en se faisant, en forcant la "diversité" dans une seule direction, on se retrouve exactement dans la situation de "racisme inversé" dont la droite adore discuter.
Ce n'est pas forcément du racisme inversé parce que ça dépends du biais en question. Si le biais de l'IA est qu'un enfant malade est forcément noir ou qu'un médecin noir est forcément en tenue "traditionnel" du fin fond d'un village africain pour soigner un enfant blanc, c'est qu'il y a un problème et que ce biais n'est pas pertinent.

De même que je n'ai pas la source là, mais généralement les métiers de "cadre" (développeurs, avocats, médecins, etc...) sont représentés de manière disproportionnée par des blancs (en prompt neutre) dans les générations d'image par rapport aux autres minorités. Là encore ce n'est pas forcément un biais qui est pertinent.

Dernière modification par Anthodev ; 22/02/2024 à 16h32.
Citation :
Publié par Ron Jetevois
Je n'ai jamais parlé d'un complot woke. Tu dois confondre avec un autre posteur.
-> bah non, j'ai très bien compris ce que tu dis, la preuve :
Un complot c'est secret. Là nous avons le product lead de Bard qui tuent des propos ouvertement woke en public.

Aucun complot, juste de l'activisme. Google est vérolé, comme plein d'autres boîtes.
juste là. Google est vérolé (donc infiltré). T'es quand même gonflé de venir juste remplacer un mot par un homonyme pour faire genre c'est pas ce que tu dis. Maintenant, je vais devoir te demander de sourcer. Parce qu'en l'état on est parti dans la spéculation. Oh wait.
Ça pose des questions sur les autres produits de Google.

Qui a parlé de préjudice ? Certainement pas moi. Google est une boîte privée et si elle veut que Louis 16 soit un noir transgenre non binaire, libre à elle.

Je souhaite simplement que le marché sanctionne financièrement.

J'ai l'impression que tu me mélanges avec d'autres posteurs.
J'ai l'impression que tu te contredis d'une ligne à l'autre. J'ai l'impression que ta position est confuse. J'ai l'impression qu'elle change au grès te tes contradictions et des réponses qui lui sont faites. J'ai l'impression que tu changes le sens de tes mots d'une phrase à l'autre. J'ai l'impression que tu es incohérent à dessin. C'est pas à moi de rendre tes propos cohérent. C'est pas à moi de fixer ton opinion. Je crois t'avoir parfaitement compris et cerné.
Citation :
Publié par cyber clochard
Google a reconnue une erreur, ça n'est donc pas une panique morale, mais la réalité.
Une panique morale, dans la guerre culturelle, c'est quand un camp s'empare d'une nouvelle, la déforme, et sans sers pour répendre l'idée qu'un groupe d'individu est menacé dans son mode de vie ou dans sa vie tout court, et compte sur la panique ainsi générée pour répendre ses thèmes et ses idées. Je n'appelle pas l'erreur de google une panique morale. Votre réaction est ce que j'appelle une panique morale.

Complot probablement pas, mais laisser des ingénieurs se laisser aller à infester de leurs idées (nauséeuses) un logiciel pour forcer les utilisateurs à avoir seulement les résultats qu'eux auront choisi est un problème et c'est bien pour cela qu'on ne peut pas faire confiance à une IA. Imaginons ce que tu dirais si cette IA ne donnait QUE des caucasiens quoi que tu promptes.

Je suis sur que ta réaction serait la même... N'est-ce pas ?
En l'occurrence, je ne suis pas dans la tête des ingénieurs de google. Ce que je vous demande, c'est d'expliciter la menace que représente une IA incapable de représenter un mâle blanc. Je vois le problème d'un point de vue technique. Politiquement ? Il y a peut être quelque chose mais pas ce que vous pensez. Pour ce qui est de pourquoi et comment on en est arrivé là j'ai quelques idées, mais ce sont des hypothèses, et elles ne sont pas beaucoup plus substanciées que les votres. Je trouve les votres ridicules, par contre.
Ma réaction ne serait pas la même que la votre actuellement en cas de biais inverse.
En vrai.
On a pas vraiment besoin d'essayer de deviner.
Le problème des IA et du ML en général, c'est que l'information disponible est celle d'internet, et que dans l'internet, toute l'humanité n'est pas présente à part égale de ses individus. Ce qui conduit les IA actuelles vers certains biais.
Tu ne m'as pas vu râler contre ces biais.
Citation :
Publié par Lugi Sakabu
Source
Tu me demandes de sourcer alors que j'ai posté les propos du product lead de Google Bard.

Ce n'est pas suffisant le product lead ? Il te faut un tweet de Larry page ou Sergey Brin pour admettre ?
Citation :
Publié par Lugi Sakabu
Ce que je vous demande, c'est d'expliciter la menace que représente une IA incapable de représenter un mâle blanc. Je vois le problème d'un point de vue technique. Politiquement ? Il y a peut être quelque chose mais pas ce que vous pensez. Pour ce qui est de pourquoi et comment on en est arrivé là j'ai quelques idées, mais ce sont des hypothèses, et elles ne sont pas beaucoup plus substanciées que les votres. Je trouve les votres ridicules, par contre.
Enfin c'est une menace pour certains et une opportunité pour d'autres.
À partir du moment où on décide de renvoyer les individus à leur couleur de peau, puis qu'on décide sciemment qu'une de ces couleurs de peau est moins bonne que les autres, les individus qui se sentent visés, et renvoyés à cette couleur de peau, risquent d'avoir tendance à se tourner vers des groupes et des partis qui défendent leurs intérêts sur des critères raciaux.
Moi je ne pense pas que ce soit souhaitable mais pour d'autres j'imagine qu'ils s'en félicitent.

Aux USA, ceux qui s'autodéclarent comme "blancs" représentent encore entre 70 et 75% de l'électorat. Et si le progressisme, c'est être anti-blanc, logiquement beaucoup de ceux qui se déclarent "blancs" vont voir du côté opposé.
Citation :
Publié par Peleide
Il n'y a qu'un seul screen, d'une seule conversation, d'un seul utilisateur qui se trouve être un obsédé de la race.
Je propose d'attendre un petit peu avant d'en déduire quoi que ce soit.

Pour la réticence, va dire ca à GPT-4 depuis 2 mois !
Sinon, je te rejoins. J'ai des modèles uncensored sur mes PCs, comme Dolphin, et tu sens que, à modèle de base équivalent, il y a un vrai gap de qualité avec les versions censurées.
Oui un screen isolé d'un activiste ne prouve rien en soit. Mais comme tu le dis GPT-4, etc. ont une approche insatisfaisante dans leur gestion du biais moral des réponses. Actuellement la direction du biais me convient si on ne pousse pas le curseur jusqu'à l'absurde. Mais si j'accepte ça, j'aurais rien à dire si demain c'était l'opposé.
Et clairement si le prochain gros modèle était orienté pour tout blanchiser, je trouverais ça problématique.

Déjà qu'on subi le puritanisme US à balle entre Hollywood, Youtube, Facebook etc. Si on plus on doit subir un nouveau softpower moral supplémentaire...

Pour le moment ce sont des gadgets très sophistiqués. Qu'ils aient des biais ou des ratés, ça ne me pose pas de problèmes. Tant mieux qu'on les remarque et qu'on essaie de mieux faire.
Mais quand on aura dépassé le stade de gadget, j'aimerais bien que la machine m'obéisse plutôt que je sois là à la brosser dans le sens du poils pour ne pas la braquer.

Dernière modification par kéwa ; 22/02/2024 à 16h58.
Citation :
Publié par Borh
Enfin c'est une menace pour certains et une opportunité pour d'autres.
À partir du moment où on décide de renvoyer les individus à leur couleur de peau, puis qu'on décide sciemment qu'une de ces couleurs de peau est moins bonne que les autres, les individus qui se sentent visés, et renvoyés à cette couleur de peau, risquent d'avoir tendance à se tourner vers des groupes et des partis qui défendent leurs intérêts sur des critères raciaux.
Moi je ne pense pas que ce soit souhaitable mais pour d'autres j'imagine qu'ils s'en félicitent.

Aux USA, ceux qui s'autodéclarent comme "blancs" représentent encore entre 70 et 75% de l'électorat. Et si le progressisme, c'est être anti-blanc, logiquement beaucoup de ceux qui se déclarent "blancs" vont voir du côté opposé.
"Pour d'autres, j'imagine qu'ils s'en félicitent"

[ ... ]

De manière générale, ce n'est pas ce qui est demandé par les progressistes, dont les critiques sur la représentativité par les géants du capitalisme (Google donc, mais puisque Disney a été invoqué dans la discussion, je vais pas me priver) sont inclues dans une critique plus large du capitalisme; En terme de progrès, ces initiatives de la part de Google, c'est de l'ordre du ravalement de façade; Mais il faut arrêter de prétendre que Google écoute les progressistes. Juste qu'il se construisent une image à peu de frais (pas auprès des progressistes, mais des libéraux).

Par ailleurs, s'il te prend un jour l'idée de voir ce que disent les progressistes du rebranding woke de Disney, tu as ma bénédiction. Si tu veux mon opinion, c'est la suivante. Derrière la féminisation et la colorisation du casting du MCU, tout ce qui est politique a pris un gros virage conservateur.

Dernière modification par TabouJr ; 22/02/2024 à 20h25.
Message supprimé par son auteur.
Citation :
Publié par Lugi Sakabu
Derrière la féminisation et la colorisation du casting du MCU, tout ce qui est politique a pris un gros virage conservateur.
C'est parfaitement logique. La politique identitaire, réduisant chaque individu à son sexe, sa sexualité et sa couleur de peau, et établissant une stricte hiérarchie victimaire entre ces catégories sert naturellement de cache-sexe au capitalisme le plus brutal.
Parce que tout le temps perdu à discuter des "mâles blancs hétéronormés", c'est autant de temps passé à ne pas parler des riches et du système financier.
Citation :
Publié par Lugi Sakabu
"Pour d'autres, j'imagine qu'ils s'en félicitent"

[ ... ]

De manière générale, ce n'est pas ce qui est demandé par les progressistes, dont les critiques sur la représentativité par les géants du capitalisme (Google donc, mais puisque Disney a été invoqué dans la discussion, je vais pas me priver) sont inclues dans une critique plus large du capitalisme; En terme de progrès, ces initiatives de la part de Google, c'est de l'ordre du ravalement de façade; Mais il faut arrêter de prétendre que Google écoute les progressistes. Juste qu'il se construisent une image à peu de frais (pas auprès des progressistes, mais des libéraux).

Par ailleurs, s'il te prend un jour l'idée de voir ce que disent les progressistes du rebranding woke de Disney, tu as ma bénédiction. Si tu veux mon opinion, c'est la suivante. Derrière la féminisation et la colorisation du casting du MCU, tout ce qui est politique a pris un gros virage conservateur.
Que Google et Disney soient hypocrites, c'est une chose. Ça ne change pas le fait que ça génère des réactions de défense et d'hostilité dans le groupe visé.

Dernière modification par TabouJr ; 22/02/2024 à 20h25.
Citation :
Publié par Borh
Que Google et Disney soient hypocrites, c'est une chose. Ça ne change pas le fait que ça génère des réactions de défense et d'hostilité dans le groupe visé.
Qui sont ensuite instrumentalisées par l'extrême droite contre le progressisme. Je te renvoie à ma première intervention sur ce fil :
Citation :
Publié par Lugi Sakabu
Il faut rendre à Google ce qui est à Google.
J'ajouterais ceci : Quand on dit "le wokisme est un cancer"; Ce n'est pas que je m'identifie woke. C'est que je suis désigné par tout ou partie de ceux qui utilisent le terme woke. Moi, ainsi que d'autre sur le forum. Tu me diras "oui mais pas moi". Mais peux-tu répondre de celui qui à côté dit "le wokisme est un cancer" ? C'est sur quelle base, déjà qu'on défini qui est woke ou pas ? C'est qui qui décide à la fin ?
Citation :
Publié par Borh
Que Google et Disney soient hypocrites, c'est une chose. Ça ne change pas le fait que ça génère des réactions de défense et d'hostilité dans le groupe visé.
Les plus virulents dans mon entourage sont noirs. Pour eux c'est insultant parce que c'est grossier. Sous entendu le paternalisme woke qui prend le relais de l'époque coloniale en continuant de les infantiliser.
Citation :
Publié par Lugi Sakabu
Qui sont ensuite instrumentalisées par l'extrême droite contre le progressisme. Je te renvoie à ma première intervention sur ce fil :
Bah oui l'ED récupère pourquoi se priverait-elle d'un si beau cadeau ?
Et tu crois pas que c'est une menace ?

Dernière modification par Borh ; 23/02/2024 à 07h21.
Ce n'est pas moi qui irait te contredire là-dessus. Mais je veux être sûr qu'il n'y ait pas d'ambiguïté; La menace, c'est l'ED, au premier chef. Et s'il faut trouver des responsables par-dessus le marché, il faut chercher du côté de Google et non du Wokistan. Si c'est ta conclusion ça me suffit, et s'il faut pour cela que j'admette avoir dit de la merde je le fais sans soucis.
Quand alpha-go est devenu champion du monde de jeu de go, il l'a fait en un coup qui a stupéfié tous les joueurs : c'était incontestablement un bon coup, mais surtout un coup qu'il était le premier à faire.
C'est le moment où on a compris qu'il ne fallait pas traiter l'AI comme un élève qui a été éduqué à la méthode "par coeur" - "memoire photographique", mais il s'agissait bien d'intelligence.
Citation :
Publié par brute
Quand alpha-go est devenu champion du monde de jeu de go, il l'a fait en un coup qui a stupéfié tous les joueurs : c'était incontestablement un bon coup, mais surtout un coup qu'il était le premier à faire.
C'est le moment où on a compris qu'il ne fallait pas traiter l'AI comme un élève qui a été éduqué à la méthode "par coeur" - "memoire photographique", mais il s'agissait bien d'intelligence.
Est-ce qu'il n'a pas fait ce coup "simplement" parce qu'il a calculé que pour arriver à un état final "Gagnant" ce coup était nécessaire ?

l'IA en théorie on connait son fonctionnement car c'est une machine qui in fine "réfléchit" à base de 0 et de 1.

Du coup, est-ce que ce n'est pas l'intelligence humaine qu'on surestime ? C'est à dire que notre cerveau et nos pensées, aussi complexes soient elles, ne seraient qu'une autre manière de gérer des 0 et des 1 ?
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés