[Wiki][POGNAX] Egalité Homme-Femme ? Le Sexisme dans notre société

Répondre
Partager Rechercher
Citation :
Publié par Diesnieves
Il semblerait que la machine-learning, ait quelques progrès à faire: Amazon a tenté une IA qui aiderait à faire le tri des CV et celle-ci semble s'être montrée sexiste.
Ca me fait penser, en dehors du côté discriminatoire, qu'il faut arrêter de se montrer béat devant la technologie pour d'une part la maîtriser et surtout se demander quelle est la finalité de ces progrès technologiques. Et une réponse raisonnable ne peut pas être l'outil : la finalité de l'outil serait l'outil lui-même ou son utilisation optimale. Même question évidemment à poser, concernant l'économie dans la société.
Je sais plus où j'avais vu ça mais il montrait aussi le biais par exemple des images associés à des mots, et ce qui ressortait c'est que ces "IA" associé certains mot comme criminel bien entendu à des photos de noirs en prison....

Le souci c'est qu'on appel IA des trucs qui en réalité sont de A à Z programmé par des humains, donc si l'humain derrière "l'IA" met ses propres préjugés ou du moins ne prend pas soins d'éduquer son IA comme il faut, ça donne ce genre de chose. Donc là pour le coup je suis pas étonné que le sexisme ressorte...

Au final ce genre de "programme" ça fait ressortir les biais de la société. Et au passage ça montre que si un jour émerge une vrai IA, et bien ça risque d'être jolie à voir si dès le départ elle a ce genre de préjugé....
Citation :
Publié par Thesith
Je sais plus où j'avais vu ça mais il montrait aussi le biais par exemple des images associés à des mots, et ce qui ressortait c'est que ces "IA" associé certains mot comme criminel bien entendu à des photos de noirs en prison....

Le souci c'est qu'on appel IA des trucs qui en réalité sont de A à Z programmé par des humains, donc si l'humain derrière "l'IA" met ses propres préjugés ou du moins ne prend pas soins d'éduquer son IA comme il faut, ça donne ce genre de chose. Donc là pour le coup je suis pas étonné que le sexisme ressorte...

Au final ce genre de "programme" ça fait ressortir les biais de la société. Et au passage ça montre que si un jour émerge une vrai IA, et bien ça risque d'être jolie à voir si dès le départ elle a ce genre de préjugé....
Ce n'est pas les humains qui ont programmé les préjugés de cette IA (ou d'autres, comme un concours de miss avec IA pour juge, qui s'est montré "raciste")... C'est la base de donnée en entrée qui était biaisé.

Si dans tous les recrutements qu'ils ont pris comme base d'apprentissage, il y avait des biais négatifs sur les femmes (ou positifs sur les hommes), l'IA ne fait que les apprendre et les restituer.
C'était pareil pour l'IA qui jugeait des miss... La base de donnée contenait largement plus de blanche donc les meilleurs notent allaient aux blanches...

L'IA de type deap learning, ce n'est qu'une "grosse formule de math" a ressortir ce que tu lui a fourni en apprentissage. Tu lui mets de la merde en entré, ca fera de la merde...
Citation :
Publié par Gardien
Ce n'est pas les humains qui ont programmé les préjugés de cette IA (ou d'autres, comme un concours de miss avec IA pour juge, qui s'est montré "raciste")... C'est la base de donnée en entrée qui était biaisé.

Si dans tous les recrutements qu'ils ont pris comme base d'apprentissage, il y avait des biais négatifs sur les femmes (ou positifs sur les hommes), l'IA ne fait que les apprendre et les restituer.
C'était pareil pour l'IA qui jugeait des miss... La base de donnée contenait largement plus de blanche donc les meilleurs notent allaient aux blanches...

L'IA de type deap learning, ce n'est qu'une "grosse formule de math" a ressortir ce que tu lui a fourni en apprentissage. Tu lui mets de la merde en entré, ca fera de la merde...
Oui, après ça montre aussi que "l'IA" est encore loin d'avoir le moindre recul sur les données qu'on lui donne. Après c'est normal elle sait faire que ce qu'on lui appris.
Mais dans les 2 cas que ça soit les données apportés ou la manière dont on la code, si on prend pas garde ça donnera ce genre de résultat.
Citation :
Publié par Thesith
Oui, après ça montre aussi que "l'IA" est encore loin d'avoir le moindre recul sur les données qu'on lui donne. Après c'est normal elle sait faire que ce qu'on lui appris.
Mais dans les 2 cas que ça soit les données apportés ou la manière dont on la code, si on prend pas garde ça donnera ce genre de résultat.
Actuellement, les "IA" les plus a la mode n'ont rien d'intelligent (hormis coté humain qui l'a mis au point bien entendu ). Ce ne sont que des super formules à abstraction de données. Elles n'apprennent rien après la phase d'apprentissage et il n'y a aucun mécanisme permettant une remise en question de ces données par l'IA elle même...

Il y a des IA plus "intelligente" dans le sens, ou elles apprennent au cours de leur activation.... Mais c'est loin d'etre aussi efficace à l'heure actuel...
Cette IA ne fait qu'utiliser la base de données. Elle ne fait pas dans l'humanitaire, et donc si dans la base de donnée les candidates femmes sont moins bons, l'IA ne va pas les sélectionner.
La question est donc, si la base de donnée est représentative. Et peut être qu'elle l'est.

Citation :
In 2015, Amazon noticed a problem. The AI appeared to be sexist. The reason, according to the report, was that the machine had learned by looking at resumes over the past decade. During that time the vast majority of resumes came from men, and apparently the AI took that to mean men were dominant and it should stay that way.
Ce qui n'expliquerai toujours pas pourquoi est-ce qu'une sous classe rare de personnes serait "forcément" mal jugé. Qu'il n'y ait pas assez de femmes pour juger ce critère c'est possible.
En tout cas, non l'IA n'a pas décidé que ça "devait rester comme ça". Laissez les IA tranquille avec vos accusations de sexisme.

Citation :
Amazon soon realized this, but according to some sources the company was afraid the AI would come up with other ways of being discriminatory.
En même temps, c'est normal une IA n'étant pas éduqué à traiter les gens de la même façon, mais étant là pour faire l'inverse, la discrimination c'est un peu le principe justement.

Citation :
Oui, après ça montre aussi que "l'IA" est encore loin d'avoir le moindre recul sur les données qu'on lui donne
Une IA a le recul suffisant pour faire ce qu'on lui demande. Par contre, ce n'est pas dit que ce soit "juste". D'où l'intérêt de remplacer le recrutement par des simples lancés de dés équitables qui sont non discriminatoires.

Citation :
Publié par Elric
...
Tellement choquant et en même temps tellement habituel. L'égalité de traitement quel horreur.

Dernière modification par Xotraz ; 11/10/2018 à 14h17.
Citation :
Publié par Thesith
Le souci c'est qu'on appel IA des trucs qui en réalité sont de A à Z programmé par des humains, donc si l'humain derrière "l'IA" met ses propres préjugés ou du moins ne prend pas soins d'éduquer son IA comme il faut, ça donne ce genre de chose. Donc là pour le coup je suis pas étonné que le sexisme ressorte...
Une IA c'est pas un enfant. Le principe c'est que l'IA accède à des bases de données et établisse des corrélations.
Si dans les banque de données contenant des images 90% des détenus ont la peau noire, l'IA va associer détenu et peau noire. C'est pas la faute de l'IA (sa corrélation est correcte en fonction des éléments à sa disposition), c'est pas la faute de l'équipe derrière l'IA, c'est juste la société qui fout une majorité de noirs en prison.
Faut arrêter d'imaginer les IA comme des personnalités conscientes, on en est pas là.
Citation :
Publié par Elric
Une IA c'est pas un enfant. Le principe c'est que l'IA accède à des bases de données et établisse des corrélations.
Si dans les banque de données contenant des images 90% des détenus ont la peau noire, l'IA va associer détenu et peau noire. C'est pas la faute de l'IA (sa corrélation est correcte en fonction des éléments à sa disposition), c'est pas la faute de l'équipe derrière l'IA, c'est juste la société qui fout une majorité de noirs en prison.
Faut arrêter d'imaginer les IA comme des personnalités conscientes, on en est pas là.
je dis pas le contraire. Mais la responsabilité est bien humain. Et ceux qui codent cette IA. Parce que ce problème de corrélation détenu = population noire. Il est connu, et donc par conséquent le code de l'IA devrait intégrer ce problème et éviter le biais créer par la société.
C'est ça que je dis. Et le fait que justement tout ça a de l'importance, parce que on joue aux apprentis sorciers enfin certains puisque à terme l'idée c'est bien d'avoir une IA plus développé et ressemblant vraiment à de l'intelligence. Mais si on part déjà maintenant sur de mauvaise base alors ça nous promet le pire.
Parce qu'au fond si une IA intelligente, au départ ça sera comme un enfant, faudra bien lui apprendre les choses, comment se faire ces propres raisonnements etc...
Exactement comme on éduque un enfant et on voit bien que quand on l'éduque mal et bien on obtient un adulte qui sera raciste, sexiste etc....
Citation :
Publié par Thesith
je dis pas le contraire. Mais la responsabilité est bien humain. Et ceux qui codent cette IA. Parce que ce problème de corrélation détenu = population noire. Il est connu, et donc par conséquent le code de l'IA devrait intégrer ce problème et éviter le biais créer par la société.
Donc le problème sera toujours là mais tout ira bien parce qu'on aura une IA qui ne fait pas d'amalgame ?
Non seulement tu proposes de soigner un symptôme en ignorant la cause de celui-ci mais la solution que tu proposes à les conséquences que tu dénonçais un peu plus haut : c'est bien parce que l'IA a des biais arbitraires qu'elle effectue une discrimination. S'il s'agissait de classer les individus selon des critères bien définis un tableur pourrait faire le travail.
Citation :
Publié par Elric
Donc le problème sera toujours là mais tout ira bien parce qu'on aura une IA qui ne fait pas d'amalgame ?
Non seulement tu proposes de soigner un symptôme en ignorant la cause de celui-ci mais la solution que tu proposes à les conséquences que tu dénonçais un peu plus haut : c'est bien parce que l'IA a des biais arbitraires qu'elle effectue une discrimination. S'il s'agissait de classer les individus selon des critères bien définis un tableur pourrait faire le travail.
on arrivera pas à se comprendre, et je sens que ça finir en dialogue de sourd cette affaire. Mais juste tu interprètes mes propos ou c'est moi qui m'explique mal. Enfin qu'importe.
Un article sur le sujet qui essaye de montré pourquoi pour une IA avoir une bonne valeur prédictive est ce qui est recherché et ce qu'est un biais pour une IA.
https://jacobitemag.com/2017/08/29/a...hink-it-means/

Cette image bien la façon dont le journaliste typique juge la pauvre IA qui ne considère pas la réalité imaginaire du journaliste :
Capture5.png
Citation :
Publié par Xotraz
Cette IA ne fait qu'utiliser la base de données. Elle ne fait pas dans l'humanitaire, et donc si dans la base de donnée les candidates femmes sont moins bons, l'IA ne va pas les sélectionner.
La question est donc, si la base de donnée est représentative. Et peut être qu'elle l'est.
C'est très différent de ça. Ce n'est pas lié à la qualité intrinsèque de chaque candidat, mais à la manière dont les candidats sont traités dans la base de données d'apprentissage : pour faire du deep learning dans ce cas-ci et pour simplifier, on aura filé à un modèle d'apprentissage une masse de CV qui ont été traités par des recruteurs humains avec le résultat final (engagé ou non engagé) et le modèle va faire son boulot pour extraire des CV des propriétés communes qui caractérisent chacune des deux catégories (sachant que c'est une boite noire, et que le deep learning fait des transformations de données extrêmement complexes).

Le résultat, c'est que s'il existe un biais dans la base de données d'apprentissage, il se retrouvera dans les résultats du modèle de deep learning. Par exemple si comme cité plus haut on voit que les femmes ayant dans leurs activités une activité notée "pour femmes" sont plus souvent rejetées, c'est sans doute qu'il existe un biais/préjugé à ce sujet dans l'esprit des recruteurs.
https://www.lemonde.fr/societe/artic...?xtor=RSS-3208

Je suis curieux de voir ou est-ce que ça va mener. Personnellement j'avoue que j'ai tendance à soutenir le plaignant, si l'on met de côté le fait que de toutes façons nous ne sommes pas censés nous faire justice nous même, je considère que la conduite grossière qu'il a eue à une occasion unique ne justifie pas l’opprobre publique et de voir sa carrière brisée.
Message supprimé par son auteur.
Citation :
Publié par Zangdar MortPartout
J'ai jamais vraiment compris pourquoi les agresseurs étaient autant protégés mais il semble que ça soit le cas a peu près partout, dans les administrations, les écoles, les entreprises, et même par les familles.
Ils en ont rien à foutre des victimes ? Culture du Victim-Blaming toussa.
Pour tentante que soit l'explication qui voudrait que les gens soient des méchants qui font des trucs de méchants parce qu'ils sont méchants on t'a donné une explication bien plus crédible au dessus.
Les gens qui gardent le silence ne le font pas parce qu'ils estiment que les victimes l'ont bien cherché mais parce qu'ils éprouvent une parfaite indifférence pour autrui.
Citation :
Publié par Zangdar MortPartout
Personnellement j'avoue que j'ai tendance à soutenir le plaignant, si l'on met de côté le fait que de toutes façons nous ne sommes pas censés nous faire justice nous même, je considère que la conduite grossière qu'il a eue à une occasion unique ne justifie pas l’opprobre publique et de voir sa carrière brisée.
Il a pris pour tous les autres. Il est le début de la mèche qui s'est enflammée parce que le ras-le-bol était à son summum. Si ce mec avait ce comportement ce soir là, c'était probablement pas sa première fois et il reste indéfendable. Grand bien lui fasse si il veut voir marquer "blanchi" sur les recherches Google. Il restera pour toutes les femmes qui ont eu à subir son comportement un porc. Parce que il ne s'en rend peut-être pas compte mais c'est ce genre de comportement qui revient le plus souvent, ce genre de paroles qui peuvent choquer la fille et ce pour des mois voir des années.

Dernière modification par Sangwiss ; 15/10/2018 à 13h27.
Citation :
Publié par Sangwiss
Il a prit pour tous les autres. Il est le début de la mèche qui s'est enflammée parce que le ras-le-bol était à son summum. Si ce mec avait ce comportement ce soir là, c'était probablement pas sa première fois et il reste indéfendable. Grand bien lui fasse si il veut voir marquer "blanchi" sur les recherches Google. Il restera pour toutes les femmes qui ont eu à subir son comportement un porc. Parce que il ne s'en rend peut-être pas compte mais c'est ce genre de comportement qui revient le plus souvent, ce genre de paroles qui peuvent choquer la fille et ce pour des mois voir des années.
Tu peux pas sérieusement cautionner ça. C'est une situation profondément inique dès lors que l'on compare fait reproché et conséquences. De plus, comme signalé, ce n'était certainement pas à cette journaliste de décider qu'elle pouvait se faire "justice" et ruiner la vie de ce gars. J'espère qu'elle mangera cher, c'est tout ce qu'elle mérite.
Citation :
Publié par Zangdar MortPartout
J'ai jamais vraiment compris pourquoi les agresseurs étaient autant protégés mais il semble que ça soit le cas a peu près partout, dans les administrations, les écoles, les entreprises, et même par les familles.
Dans une affaire récemment jugée, l'un des problèmes survenus, c'est que les personnes qui auraient du remonter l'information pour qu'il y aie enquête et intervention de la justice ont préféré juger elles-même que le prévenu avait juste une trop grande proximité avec ses victimes, rien de plus grave.

https://www.20minutes.fr/justice/233...-ans-reclusion
Résumé de l'affaire

https://www.20minutes.fr/justice/233...saisir-justice
Là ou on voit que rien n'a été fait correctement (pas d'interrogation des enfants, pas de remontée au procureur, et personnes qui décident, sans compétence, que l'accusé n'est pas dangereux). Sans compter la réintégration sans attendre la confirmation officielle.

Ce qui est intéressant, c'est que les personnes impliquées pointent eux-même une partie des raisons, l'habituelle inversion : c'était l'accusé qui était vu comme la victime. Pas les victimes elles-même, à qui on a d'ailleurs pas donné l'occasion de parler.
C'est pas les personnes impliquées mais une personne et dans des circonstances particulières.
Je vais pas faire une Belloubet et dire qu'il y a "peut être" eu une défaillance parce qu'à l'évidence ça a merdé dans les grandes largeurs mais prétendre connaître les causes à partir de cet article désolé mais non : on est dans le pathos et pas dans l'analyse.
Ce n'est pas qu'une personne, tu as également l'ancien directeur de la structure qui explique qu'ils ont regretté de l'avoir suspendu... Et qui a pris l'initiative de réintégrer l'animateur avant de recevoir le rapport de la DDCS.

Le fait qu'ils en parlent tout deux comme d'une atmosphère globale ("c’était lui qui était considéré comme victime" "on a même regretté de l'avoir suspendu") peut bien entendu être une façon de diluer la responsabilité, ou indique que c'était possiblement un état d'esprit partagé.

Non, ça n'explique pas l'entièreté de l'affaire, oui, il y a d'autres facteurs, comme très souvent. Mais celui-là joue un rôle.
Enormément de directeurs passent la journée en réunion (comprendre à la machine à café) à la DDCS, à la mairie, ou à la DDquelque chose tant que ça leur permet de ne pas trop s'épuiser.
Les gens y discutent et l'information circule : il est très possible que la décision de réintégrer l'animateur ait déjà été prise au moment où il a été réintégré même si le coup de tampon final aura pris cinq semaines de plus.
Quant aux propos du directeur il serait bon de ne pas les déformer : "Quand la DDCS nous a dit qu’il n’y avait pas de problème, on l’a réintégré dans une autre école. On a même regretté de l’avoir suspendu…" Il a regretté de l'avoir suspendu quand pour lui son innocence était établi, pas au moment où il l'a fait ni quand il a avoué les faits.

Mais encore une fois ça a merdé et dans les grandes largeurs :
- Il aurait du être suspendu dès le premier signalement parce que c'est la sécurité des enfants qui doit primer
- L'affaire aurait du être remonté à la justice afin que l'enquête soit menée par des professionnels (incluant des pédopsychiatres à même d'interroger les enfants dans de bonnes conditions).
- Il n'aurait jamais du être réintégrée avant publication du rapport de la DDCS (ne serait-ce que dans son propre intérêt).

Par contre le problème n'est pas l'état d'esprit, juste un tel niveau d'incompétence qui serait risible si ça n'était pas aussi grave.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés