Bientot un Internet propre merci Big Brother ! (#6)

Répondre
Partager Rechercher
Toujours plus loin toujours plus haut !
https://www.theguardian.com/technolo...ethnic-killing

Après avoir aidé à la victoire du Brexit et de Trump en 2016, après avoir assisté la purification ethnique contre les Rohingyas en 2017, après avoir favorisé la peste antivax en 2020, Facebook contribue désormais aux massacres ethniques en Ethiopie.

Parce qu'une firme qui fait des milliards de bénéfice ne peut pas se permettre de rémunérer des modérateurs supplémentaires ou d'éliminer les contenus générant le plus d'engagement. Si vous voyez une pub pour des machettes en lisant une page expliquant pourquoi et comment massacrer Joe-de-la-tribu-d'en-face, ce sera juste un malencontreux hasard.
Citation :
Publié par Aloïsius
Parce qu'une firme qui fait des milliards de bénéfice ne peut pas se permettre de rémunérer des modérateurs supplémentaires ou d'éliminer les contenus générant le plus d'engagement.
Il faut les comprendre aussi... Ils payent énormément de taxes en Europe en étant basé à Dublin.

Je vais faire mon boomer, mais je suis bien content d'être sur aucun réseau social (hormis Linkedin because Cash is King), mais c'est hallucinant la latitude que l'on laisse à ses faiseurs de misère.
Ah tiens, la France qui pousse pour partager les données biométriques des personnes fichées à toutes les polices européennes :

Citation :
The French Presidency of the Council is seeking EU-wide comparisons of every DNA profile held by police forces against all those held by other national police forces, as well as EU policing agency Europol, as part of plans to upgrade the ‘Prüm’ network of police databases. It also hopes to automate the police exchange of facial images by eliminating requirements for human review.

Source : https://edri.org/our-work/eu-policin...facial-images/
Petit à petit on s'approche de la Chine, le tout sponsorisé par la France. D'ailleurs de quel droit le gouvernement aurait le droit de partager nos données biométriques (parce qu'on parle de ça quand il est question d'ADN et de photos permettant de monter un profil de reconnaissance facial) à des autorités extra-nationales de façon automatique et surtout à de tels volumes puisque ça concernerait à la fois les victimes, les suspects et les personnes condamnées ?
Vous pensiez que Macron avait été élu président de la République française ?
Pas du tout ! Il s'agit en réalité d'un complot destiné à truquer les chiffres de l'élection pour en voler les résultats.

C'est du moins la rumeur du moment sur les différents sites liés à la complosphère, sur lesquels on retrouve en premier lieu les figures du mouvement antivax (FranceSoir, Florian Philippot, Nicolas Dupont-Aignan...) soutenues une fois de plus par l'extrême-droite étrangère (élus trumpistes, QAnon...).

A tel point que plusieurs milliers des membres de ces groupes sont allés assister au dépouillement de l'élection afin de prendre les homme-lézards pédophiles satanistes la main dans le sac. Et revenant pas mal perturbés : les résultats donnaient bel et bien Macron vainqueur. Incompréhensible, puisque leurs groupes Facebook et Télégram ne comptent pas un seul macroniste, et qu'ils sont donc persuadés que tout le monde le hais.
Citation :
Publié par Nof Samedisþjófr
A tel point que plusieurs milliers des membres de ces groupes sont allés assister au dépouillement de l'élection afin de prendre les homme-lézards pédophiles satanistes la main dans le sac. Et revenant pas mal perturbés : les résultats donnaient bel et bien Macron vainqueur. Incompréhensible, puisque leurs groupes Facebook et Télégram ne comptent pas un seul macroniste, et qu'ils sont donc persuadés que tout le monde le hais.
S'il fallait un autre argument contre le vote électronique et en faveur du dépouillement par les citoyens : tout le monde peut aller le vérifier par soi-même.
Ca ne tient pas debout: on ne peut pas avoir des lézards ET les sacs, les premiers étant la matière première des seconds.
Sinon à propos du vote électronique, mon bdv fonctionne comme cela et y'a pas le choix c'est imposé. :/
Citation :
Publié par Nof Samedisþjófr
A tel point que plusieurs milliers des membres de ces groupes sont allés assister au dépouillement de l'élection afin de prendre les homme-lézards pédophiles satanistes la main dans le sac. Et revenant pas mal perturbés : les résultats donnaient bel et bien Macron vainqueur. Incompréhensible, puisque leurs groupes Facebook et Télégram ne comptent pas un seul macroniste, et qu'ils sont donc persuadés que tout le monde le hais.
Tu n'as pas compris que c'était un complot des bureaux de vote pour avoir du monde au dépouillement.
Success !
Encore une fois, comme prévu, en France et en Europe ça s'active pour réduire le cadre de la vie privée et de la mise en place d'une surveillance automatisée (et algorithmique) sur la voie publique.

Sous couvert de la pédopornographie, la Commission Européenne souhaite la mise en place de système permettant de scanner les contenus sur toutes les plateformes, y compris les messageries sécurisée en end-to-end (Signal, WhatsApp, Olvid, Telegram (en Secret Chat), Wire, etc...) :
Citation :
The European Commission unveiled a new plan to combat child sexual abuse material Wednesday, and it's already drawing a backlash from privacy experts who say it would create a new and invasive surveillance regime in Europe.

The proposal would require tech companies in Europe to scan their platforms and products for CSAM and report their findings to law enforcement. Lots of tech companies already do some form of this, of course, using hashed versions of known CSAM to automatically block new uploads matching that content. But the European plan would take that work a step farther, allowing EU countries to ask the courts to require tech companies to seek out and report new instances of CSAM. The plan also proposes using AI to detect patterns of language associated with grooming.

[...]

But critics argue these requirements would risk breaking end-to-end encryption and would force companies to peer into the personal communications of all users. "This document is the most terrifying thing I’ve ever seen," Matthew Green, an associate professor at Johns Hopkins' Information Security Institute, tweeted after a draft of the proposal leaked. "Once you open up 'machines reading your text messages' for any purpose, there are no limits."

"Today is the day that the European Union declares war upon end-to-end #encryption, and demands access to every persons private messages on any platform in the name of protecting children," tweeted Alec Muffett, a leading security expert and former Facebook software engineer. [...]

Source : https://www.protocol.com/bulletins/eu-child-safety-plan
On sait déjà ce que ça va donner par la suite (extension au contenu terroriste, puis extension à ce que souhaite les divers gouvernements, entre la haine en ligne ou les contenus sous copyrights par exemple).


Du côté de la France c'est le festival pour mettre en place des systèmes de vidéosurveillance avec reconnaissance faciale automatisée (par IA). Déjà un rapport sénatoriale vient de sortir pour "l'expérimentation" pour une durée de 3 ans de ce type de système :
Citation :
Comme nous l’avions évoqué en 2019, les forces de police et de gendarmerie sont autorisées depuis 2012 à utiliser la reconnaissance faciale pour identifier les personnes fichées dans le TAJ (traitement des antécédents judiciaires). Le TAJ regroupe 18,9 millions de fiches de personnes mises en cause par les forces de l’ordre et contient près de 8 millions de photos.

Les enquêteurs peuvent déjà comparer une photo d’une enquête avec celles présentes dans le fichier. L’outil est paramétré pour donner un maximum de 200 réponses avec un taux de correspondance minimum de 40 %. « C’est l’enquêteur qui procède in fine à l’identification de la personne. » En 2021, il a été utilisé 498 871 fois par la police nationale et environ 117 000 fois par la gendarmerie nationale. Soit une forte augmentation par rapport à 2019 où il y avait eu 375 747 demandes.

[...]

Les sénateurs reviennent également sur les risques de cette technologie. D’abord, « à la différence d’autres données biométriques telles que les empreintes digitales ou l’iris, le visage d’un individu peut être recueilli à distance et potentiellement à son insu ». De plus, la diffusion progressive de la reconnaissance faciale engendre un risque d’accoutumance. D’autant qu’il peut y avoir une porosité entre différents usages, un même algorithme pouvant être utilisé à différentes fins. Le rapport cite l’exemple russe : « des systèmes de reconnaissance faciale sont désormais largement implantés dans les stations de métro de Moscou afin de pouvoir procéder à des paiements sans contact, mais aussi d’identifier des personnes recherchées ».

Le rapport revient également sur les erreurs de la reconnaissance faciale et les biais. Il s’appuie sur les séries de tests d’algorithmes d’identification et d’authentification publiés par le National Institute of Standards and Technology (NIST), agence américaine rattachée au département du commerce.

Source : https://www.nextinpact.com/article/6...ssance-faciale
Pour l'instant ils disent qu'il y a des lignes rouges, mais il faut voir combien de temps ça va tenir (même source) :
Citation :
S’ils sont favorables au développement d’expérimentation, les sénateurs proposent d’abord de tracer des lignes rouges. Le modèle chinois étant le repoussoir ultime, l’utilisation de la reconnaissance faciale serait strictement interdite à des fins de notation sociale (privée comme publique). Elle ne pourrait servir à catégoriser les individus en fonction de l’origine ethnique, de leur sexe, de leur orientation politique ou sexuelle. La reconnaissance faciale ne pourrait pas non plus être utilisée pour déduire les émotions des personnes.

La reconnaissance en temps réel sera possible dans l’espace public dans des cas limités. Les rapporteurs veulent aussi fermement interdire son usage dans les manifestations et aux abords des lieux de culte. Par ailleurs, elle devra rester un simple outil d’aide à la décision avec un contrôle humain systématique.

Une fois les lignes rouges tracées, les rapporteurs reprennent l’idée d’une loi d’expérimentation. Cette idée d’une phase expérimentale fait d’ailleurs consensus au sein des instances étatiques. Elle se ferait sous l’égide d’un comité scientifique et éthique unique et indépendant. Il faudra aussi renforcer la CNIL.
Surtout qu'ils ouvrent déjà la brèche (même source) :
Citation :
D’autres expérimentations sont proposées : donner un cadre légal à l’exploitation a posteriori d’images pour les enquêtes judiciaires, permettre aux services de renseignement de traiter les images à l’aide de systèmes de reconnaissance biométrique. Mais également de permettre d’utiliser la « reconnaissance biométrique sur la voie publique en temps réel sur la base d’une menace préalablement identifiée, à des fins de sécurisation des grands évènements et de sites sensibles face à une menace terroriste, pour faire face à une menace imminente pour la sécurité nationale, et à des fins d’enquête judiciaire relatives à des infractions graves menaçant ou portant atteinte à l’intégrité physique des personnes ».
Surtout que les "expérimentations" sur la vidéosurveillance algorithmique se multiplient en France ces derniers mois dans les villes. Surtout que ça cherche déjà à étendre ce type de vidéosurveillance alors qu'il n'y a toujours pas eu d'audit sur l'efficacité de la vidéosurveillance standard, mais ça cherche déjà à aller à l'étape d'après.
Citation :
Publié par Airmed / Ildefonse
C'est un peu comme l'histoire du ruissèlement. En dehors de la Chine, il n'y a pas un pays ou ville qui a déjà un système de vidéosurveillance important et qui permettrait d'avoir un retour sur une prétendue efficacités ?
Le RU est encore plus fliqué que la Chine, en terme de caméras de mémoire.
C'est surtout que cette discussion a déjà été lancée un nombre de fois incalculable. Et là, ça repart en boucle. On n'est pas loin de la paranoïa de certains et le fonctionnement des pouvoirs publics et des services d'ordre.

On ressort les poncifs et on sonne l'alarme sans rien comprendre à l'objectif de ce genre de surveillance et du fonctionnement de l'identification (où le chiffon rouge d'IA).

Certains feront mieux que moi sur bien des points.
Citation :
Publié par Gratiano
On ressort les poncifs et on sonne l'alarme sans rien comprendre à l'objectif de ce genre de surveillance et du fonctionnement de l'identification (où le chiffon rouge d'IA).
Il est clairement question de la reconnaissance faciale automatique via IA (pour, dans un premier temps, des cadres très stricts d'utilisation), reste qu'ils mettent le ver dans le fruit.
Citation :
Publié par Gratiano
C'est surtout que cette discussion a déjà été lancée un nombre de fois incalculable. Et là, ça repart en boucle. On n'est pas loin de la paranoïa de certains et le fonctionnement des pouvoirs publics et des services d'ordre.

On ressort les poncifs et on sonne l'alarme sans rien comprendre à l'objectif de ce genre de surveillance et du fonctionnement de l'identification (où le chiffon rouge d'IA).

Certains feront mieux que moi sur bien des points.
Le problème de ce genre d'outils c'est qu'une fois le matériel en place il est très facile de changer ou de détourner ces fameux objectifs.
Sans forcément en informer le public, ou un détournement (piratage, marketing...).

Le bout rouge qui frétille n'est peut être qu'un chiffon pour toi aujourd'hui mais le risque n'est pas nul et le débat n'en demeure pas moins nécessaire tant enlever et se passer de ce genre de service sera difficile une fois en place.

Dernière modification par Tutule ; 12/05/2022 à 18h17.
Citation :
Publié par Anthodev
Il est clairement question de la reconnaissance faciale automatique via IA (pour, dans un premier temps, des cadres très stricts d'utilisation), reste qu'ils mettent le ver dans le fruit.
Cf. les discussions de @Pile ou @Kerjou (je ne sais plus) sur ce point. La reconnaissance faciale automatique doit faire face des bases de données qui sont isolées. L'IA (en fait du machine learning) doit avoir une puissance importante. Et à part dans la tête de certains, il n'y a pas d'interconnexions sur les services de police par exemple. L'IA est une aide plutôt de se taper des heures de vidéos afin que l'IA identifie des personnes et ce dans des cadres stricts auxquels il n'y a aucune violation des libertés.

On a déjà eu ce genre de discussions...

@Tutule : Cf. aussi les discussions que j'ai cité.
Attention ne pas confondre, l'IA est une aide. Elle identifie quelqu'un mais c'est tout. L'IA ne te dit pas que ce mec est un terroriste ou un criminel. L'IA te dira, je le connais mais il est tout à fait possible que tu ne saches ni son nom ni son prénom. A la rigueur, l'IA pourra te dire que c'est une bagarre et un type pissant dans la rue (cf. Londres où L'IA alerte le surveillant devant ses écrans).
L'IA sur une autoroute peut détecter toute conduite dangereuse ou tout accident.
Le reste consiste à ne pas partir en délire paranoïaque.
Tiens d'ailleurs en délire paranoïaque au niveau surveillance, je conseille la série "Person of Interest" et le jeu "Watch_Dogs" avec le CityOS

Dernière modification par Gratiano ; 12/05/2022 à 18h34.
Citation :
Publié par Gratiano
Cf. les discussions de @Pile ou @Kerjou (je ne sais plus) sur ce point. La reconnaissance faciale automatique doit faire face des bases de données qui sont isolées. L'IA (en fait du machine learning) doit avoir une puissance importante. Et à part dans la tête de certains, il n'y a pas d'interconnexions sur les services de police par exemple. L'IA est une aide plutôt de se taper des heures de vidéos afin que l'IA identifie des personnes et ce dans des cadres stricts auxquels il n'y a aucune violation des libertés.
Comme tu le vois avec les articles de ces derniers jours, la situation est en train de changer, ça cherche à aller plus loin.
Message supprimé par son auteur.
Citation :
Publié par Kerjou
Après j’assume d’être pour l’utilisation de la technologie, les délinquants utilisent bien les messagerie cryptées à loisir, les États ne doivent pas être les dindons de la farce.
Je suis parfaitement d'accord avec toi sur ce point.
Citation :
Publié par Kerjou
Après j’assume d’être pour l’utilisation de la technologie, les délinquants utilisent bien les messagerie cryptées à loisir, les États ne doivent pas être les dindons de la farce.
Citation :
Publié par Gratiano
Je suis parfaitement d'accord avec toi sur ce point.
Sauf que casser les chiffrements end-to-end ça ne va pas impacter les criminels, ça va impacter tout le monde et ça va mettre en danger pas mal de danger également (les résistants dans les régimes autoritaires/dictatoriaux, la confidentialité des correspondances pour les avocats et les médecins, des membres ONG opérant sur des territoires hostiles, les correspondances privées au sein d'une entreprise, d'autres personnes qui peuvent avoir de bonnes raisons de vouloir avoir leur communication privée,...) car si une backdoor est mise en place, n'importe qui pourra l'utiliser.

Ça peut partir d'un bon sentiment à la base, mais les effets de bord seront bien plus nocifs au niveau global.
Citation :
Publié par Kerjou
En attendant l’accès à certaines données de connexion a été restreint (à un quantum minimal) alors qu’avant c'était open bar.

Mais vaut mieux parler de ce que qui pourrait arriver hypothétiquement car sur Jol « On sait déjà ce que ça va donner par la suite »

Après j’assume d’être pour l’utilisation de la technologie, les délinquants utilisent bien les messagerie cryptées à loisir, les États ne doivent pas être les dindons de la farce.
In fine ce sont tous les citoyens les dindons réels de l'escalade.

Dans l'absolu il vaudrait mieux légiférer pour priver les criminels d'un accès ou d'un usage malveillant. Mais oui on en revient à Clémenceau et ses brigades du Tigre quelque part la force de l'ordre doit s'équiper non seulement à hauteur mais même de manière disproportionnée pour être dissuasive (ce qui est de moins en moins le cas).

Mais ça donne les "robocop" dont les USA sont la caricature (mot que j'ai saisi en passant à côté d'une patrouille lors des GJ les gars étaient blasés lorsqu'ils s'équipaient - à 2).
Et en parlant de Robocop un jour ou l'autre ça donnera les ED-209 qui seront jugés préférables à des pertes humaines - et engraisseront bien les firmes productrices. Bon je divague un peu mais on en est pas si loin.
Sauf que toi et @Anthodev, vous passez d'une chose importante: tout activité illégale finira ces utilisateurs en victimes. Et il est là le problème.
Vous ne pensez pas au fait que ces contrôles de départ se sont transformé en parade ( chiffrage des messageries et données). La parade s'est transformé en activité louche pour certains.
C'est comme l'escalade des armes aux USA. On achète des fusils d'assaut contre des flingues.
Le truc est que personne n'utilisant des activités légales n'a à utiliser ce chose à part donner l'illusion de cacher mais cacher quoi en fait ?
Citation :
Publié par Gratiano
Le truc est que personne n'utilisant des activités légales n'a à utiliser ce chose
Bien sûr que si.
1. Les journalistes d'investigation, qu'ils soient au prise avec des grandes entreprises, des mafieux ou des Etats, et qui plus généralement veulent protéger leurs sources.
2. Les industriels (au sens large) qui veulent protéger leurs secrets des indiscrétions de la concurrence.
3. Les politiques, les militants en tout genre, susceptible de s'attirer toutes sortes de malveillances.
4. Les lambdas qui peuvent parfaitement être la cible d'escrocs divers si ces derniers peuvent pirater leurs conversations.
Citation :
Publié par Gratiano
Le truc est que personne n'utilisant des activités légales n'a à utiliser ce chose à part donner l'illusion de cacher mais cacher quoi en fait ?
N'importe quoi. La confidentialité des données est souhaitable et nécessaire dans de nombreuses activités légales : santé, haute technologie, échanges avocat client, etc...
Et c'est sans compter le risque qui est denonce régulièrement et qui ne peut pas être balayé d'un revers de main, parce que des exemples réels sont la, qu'une activité soit déclarée illégale à un moment pour des raisons politiques (opposant politique, manifestant, etc).
Citation :
Publié par Anthodev
Encore une fois, comme prévu, en France et en Europe ça s'active pour réduire le cadre de la vie privée et de la mise en place d'une surveillance automatisée (et algorithmique) sur la voie publique.

Sous couvert de la pédopornographie, la Commission Européenne souhaite la mise en place de système permettant de scanner les contenus sur toutes les plateformes, y compris les messageries sécurisée en end-to-end (Signal, WhatsApp, Olvid, Telegram (en Secret Chat), Wire, etc...) :

On sait déjà ce que ça va donner par la suite (extension au contenu terroriste, puis extension à ce que souhaite les divers gouvernements, entre la haine en ligne ou les contenus sous copyrights par exemple).
Prenons l'exemple Facebook, qui a mit en place son chiffrement de messagerie en se drapant derrière la protection des pauvres activistes opprimés par les dictatures. Dans la réalité, ils ont chiffré pour ne plus avoir de responsabilités si leur outil venait à être utilisé a des fins illégales sans qu'ils le détectent. Pratique, car cela leur permet au passage de virer une armée de modérateurs et d'augmenter ainsi leurs profits. Pire, ils appliquent quand même déjà des filtres de détection avant chiffrement pour lister des mots clés qui déclencheront ensuite des publicités ciblées.

Soyons clair, le ver est déjà dans le fruit. Vos smartphones diffusent déjà tout un tas d'informations a une myriade de boîtes privées qui les stockent en Big data et vous connaissent ainsi mieux que votre mère. Les gouvernements mal intentionnés ont déjà la possibilité d'accéder à ces données pour martyriser cette poignée de pauvres dissidents que vous brandissez a la moindre occasion.
Clearview, rayzone et des centaines d'autres boites vendent leurs services dans une opacité totale et fournissent un flicage clé en main en dehors de tout cadre légal.

Donc votre combat pour sauver li fong qui a dit du mal de la Chine sur un service de messagerie pseudo crypté, je suis au regret de vous annoncer qu'il est déjà perdu. Par contre il serait grand temps qu'on utilise ces technos afin d'enrayer certains fléaux comme la pédophilie, dans un contexte légal et encadré, et j'ai un peu de mal à comprendre comment on peut être contre l'idée de scanner les fichiers présents dans le cloud pour y détecter des viols d'enfants et agir en conséquence. Parcequ'on pourrait aussi discuter du droit aux victimes a se reconstruire et ça passe par stopper la diffusion répétée des vidéos de leur viol a 5 ans.
Citation :
Publié par Malkav
Pire, ils appliquent quand même déjà des filtres de détection avant chiffrement pour lister des mots clés qui déclencheront ensuite des publicités ciblées.
ce serait fort, tu as une source là-dessus ?
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés