La pornographie banalisée à l'école par les enfants

Répondre
Partager Rechercher
Citation :
Publié par Keyen
Je ne parlais pas du tout de tes chiffres au doigt mouillé, juste du fait que tu puisse poser une question, mais que la réponse, ne te convenant pas, était basé sur une question "beaucoup trop imprécise ou vague" alors qu'elle est exactement la même que la tienne. A un moment donné, faut savoir ce qu'on veut.
Je t'ai répondu au dessus, une etude basée sur le déclaratif, ca n'a pas plus de valeur qu'une opinion basée sur l'observation de ton entourage. L'observation se fait a plus grande echelle mais le recueil de donnée est tout aussi arbitraire.

Citation :
Jean-Marc Lech, co-PDG d'IPSOS déclarait récemment aux Echos « Je ne crois plus aux analyses fondées sur le déclaratif ...
Moi qui pensait que le plus important c'était d'être satisfait de sa situation.

Évidemment que certains qui ont répondu à cette étude et s'estiment satisfaits ont une vie sexuelle qui paraitrait minable pour d'autres mais la question est pas de savoir la fréquence des rapports de tous mais savoir si ils en sont contents.

C'est exactement comme si on demandait aux gens si ils s'estimaient assez riches et que ca hurlait au fait que certains s'estiment riches alors qu'ils n'ont pas de rolex à 50 ans : c'est pas la question posée et tout le monde n'a pas les mêmes envies/besoins (et heureusement).
Citation :
Si je met tes messages bout à bout en une suite logique je peux en déduire que tu offres un jouet à ta femme parce que tu ne la satisfait pas. Je doute cependant que ça soit ce que tu ai voulu véhiculer, il faudrait donc probablement revoir certaines de tes conceptions quand à la consommation de pornographie en couple.
Bien heureux l'homme qui pense vraiment faire jouir à chaque fois sa partenaire.

tumblr_n8pi9tnyal1rrtza4o10_250.gif

Perso je suis pas naïf à ce point.
Citation :
Publié par Keydan
Bien heureux l'homme qui pense vraiment faire jouir à chaque fois sa partenaire.

Perso je suis pas naïf à ce point.
C'est ce que dise les mauvaise langues pour se rassurer. C'est tout à fait possible...
Connaissez-vous les deepfakes ?
Il s'agit de films pornographiques réalisés par deep learning.
On file à une machine un film X et tout un tas d'images de la personne qu'on voudrait voir dans ce film X (par exemple, noms au hasard, Emma Watson, Brad Pitt, Angelina Jolie, Nicolas Cage, etc....), et le PC va créer un film en remplaçant la tête des acteurs avec la tête des personnes qu'on voulait voir.

Certains commencent déjà à s'en offusquer et à vouloir interdire la pratique.

Je trouve au contraire que c'est une excellente nouvelle et qu'on devrait favoriser cette méthode.
Voilà pourquoi :
- Si les acteurs pornos sont masqués par les visages de célébrités, ils n'auront plus de problème de réinsertion dans la vie normale une fois leur jeunesse passée
http://www.lemonde.fr/societe/articl...2503_3224.html
- Sérieusement, quelle personne normalement constituée peut penser qu'une star qui gagne des dizaines ou centaines de millions aurait besoin de tourner un film X pour compléter ses revenus ? C'est idiot ! Il est évident que ce sont des faux !
- Voire même mieux, si une célébrité décide de réaliser un fantasme et de tourner un film X, tout le monde pensera qu'il s'agit d'un fake, ce qui préservera la réputation de la personne
- Si on peut mettre plusieurs visages sur le même film, alors on peut créer plus de valeur avec moins de travail, et donc mieux payer les protagonistes

Les principaux gagnants sont les acteurs pornos, les consommateurs, et pour moi les célébrités ne perdent rien au change
On pourrait même leur verser des droits à l'image, et voir émerger le métier de modèle pour films X, qui vend son image mais sans participer au tournage.
Citation :
Publié par Eden Paradise
C
Les principaux gagnants sont les acteurs pornos, les consommateurs, et pour moi les célébrités ne perdent rien au change
On pourrait même leur verser des droits à l'image, et voir émerger le métier de modèle pour films X, qui vend son image mais sans participer au tournage.
La notion de droit à l'image, ça te dit quelque chose ? Si une personne n'a pas envie que son visage soit utilisé pour un film pornographique, elle en a le droit.

Plus globalement Deepfake pose des problèmes pour ce qui concerne le revenge porn qui est utilisé pour humilier une personne. Avec Deepfake, tu pourras même le faire sans disposer de vrais éléments sur cette personne.

Si ton objectif est de protéger les acteurs de X, il doit être possible d'utiliser ces IA pour créer des visages qui n'existent pas. Ce serait bien plus intéressant que de mettre le visage d'Emma Watson ou Gal Gadot qui n'ont pas envie d'être associé à du contenu pornographique.

Citation :
Publié par Eden Paradise
- Sérieusement, quelle personne normalement constituée peut penser qu'une star qui gagne des dizaines ou centaines de millions aurait besoin de tourner un film X pour compléter ses revenus ? C'est idiot ! Il est évident que ce sont des faux !
Vu comment les fake news sont aussi facilement partagées, ta question a déjà sa réponse.

Bref, autant la technologie est prometteuse, autant l'utilisation de visages de personnes non consentantes est évidemment à proscrire.

Dernière modification par Aedean ; 09/02/2018 à 19h22.
Citation :
Publié par Aedean
La notion de droit à l'image, ça te dit quelque chose ? Si une personne n'a pas envie que son visage soit utilisé pour un film pornographique, elle en a le droit.

Plus globalement Deepfake pose des problèmes pour ce qui concerne le revenge porn qui est utilisé pour humilier une personne. Avec Deepfake, tu pourras même le faire sans disposer de vrais éléments sur cette personne.

Si ton objectif est de protéger les acteurs de X, il doit être possible d'utiliser ces IA pour créer des visages qui n'existent pas. Ce serait bien plus intéressant que de mettre le visage d'Emma Watson ou Gal Gadot qui n'ont pas envie d'être associé à du contenu pornographique.



Vu comment les fake news sont aussi facilement partagées, ta question a déjà sa réponse.

Bref, autant la technologie est prometteuse, autant l'utilisation de visages de personnes non consentantes est évidemment à proscrire.
Justement, dans le concept de revenge porn, si le deepfake est couramment utilisé et que tout le monde sait que la majorité des films X sont des faux, alors personne ne croira qu'il voit vraiment l'ex de truc ou bidule.

De même, le droit à l'image ne s'applique à mon avis pas :
Citation :
Le droit à l'image est un droit exclusif que vous avez sur votre image et l'utilisation qui en est faite. Les images peuvent être des photos ou vidéos sur lesquelles vous apparaissez et êtes reconnaissable, quel que soit le contexte : vacances, événement familial, manifestation culturelle ou religieuse, etc.
"Sur lesquelles vous apparaissez"
Si sur des images on met le visage de telle personne, telle personne n'apparait pas pour autant dans le film ! Puisque la personne en question n'a jamais été filmée dans ces conditions. Certes, on va en réalité devoir attendre quelques années avant que le législateur ne clarifie ce point qui est pour l'instant sujet à débat.

Le souci du droit à l'image c'est que tu n'as pas forcément envie que tout un chacun puisse savoir que tel jour à telle heure tu étais à une partie de pêche à la ligne : la pêche à la ligne est une passion que tu veux garder pour toi dans ta vie privée.
Pour un film X, c'est le même argument : c'est peut-être ton image mais si tout le monde sait que tu n'as pas réellement fait ça : y a-t-il vraiment un préjudice ?
Ceci est valable uniquement dans l'hypothèse ou le deepfake devient une technique très démocratisée
(De plus, on pourrait également se demander pourquoi le fait de voir quelqu'un pratiquer une activité naturelle serait humiliant pour celle-ci, c'est aussi une vraie question de société, mais c'est un autre sujet)

Et si on obligeait à signaler clairement que c'est du fake ? Ca changerait quelque chose ?
Edit : en fait oui, j'ai trouvé une source pour une situation relativement proche et qui va en ce sens :
"Un photomontage représentant un corps de femme surmonté du visage d'une célèbre artiste ne porte pas atteinte à son droit à l'image dès lors que le public perçoit à l’évidence le montage et que son utilisation s’inscrit dans le cadre d’un magazine satirique"
http://www.flpavocats.com/wp-content...%A0-limage.pdf


Sinon, l'idée de mettre des visages faux est une bonne idée aussi.


De toutes façons, il faut bien vous dire qu'à partir du moment où la pratique est techniquement faisable et qu'elle rencontre un public, c'est un peu comme le piratage : on ne pourra rien faire contre.
Le piratage est interdit mais curieusement, chaque lendemain d'épisode de série diffusé aux US, la totalité des joliens ont un accès légal (bien sûr) à celui-ci et en débattent sur le cercle. Qui y croit ? Personne.

- Rien n'empêche de mettre à disposition des films X, et un logiciel pour remplacer les visages (tout comme rien n'empêche de télécharger un logiciel de peer to peer)
- Suite à ça, les utilisateurs pourront mettre n'importe quel visage à leur libre choix parmi toutes les personnes dont ils ont des photos.

A partir du moment où on constate que la pratique se développe, il n'y aura pas de retour en arrière possible, quiconque voudra voir telle ou telle célébrité ou membre de son entourage dont il dispose de photos, pourra le faire. Autant essayer de profiter de cet état de fait pour ramener du positif : la réduction des inconvénients subis par les acteurs porno.

Dernière modification par Eden Paradise ; 09/02/2018 à 19h44.
Message supprimé par son auteur.
Citation :
Publié par Keyen
Mais n'importe quoi, tu nages en plein délire, là. Tu crois qu'on a utilisé quoi, pour mettre la tête de machin dans le film? Une de ses images. Une de ses VRAIS images. Qui sont soumis à des droits. Y'a rien à clarifier, c'est à 100% illégal. C'est pas une question de "pourcentage de la photo vrai et pourcentage de la photo fausse", hein. La question, ca fait longtemps qu'on se l'ai posé, on a pas attendu deepfake ou toi pour s'interroger sur si les montages étaient légaux ou non.
Tenter la prohibition, on a vu ce que ça a donné pour l'alcool aux états-unis.
On voit ce que ça donne pour le piratage.
Ce n'est pas toujours une solution d'avenir.

Ou alors il faut interdire google images.
Citation :
Publié par Eden Paradise
De même, le droit à l'image ne s'applique à mon avis pas :
Faux et même carrément à côté de la plaque pour le coup. En France, la seul exception de droit sur le sujet est lorsqu'il s'agit d'un événement publique, qu'il y a plus de 8 personnes sur la photographie et/ou qu'elles ne sont pas le sujet principal de la photographie - sans compter que ce n'est valide que si tu représentes un organisme de presse....


Dans tous les autre cas il faut l'autorisation écrite de la personne. Même ton chien je n'ai pas le droit de commercialiser son image sans ton accord....
Message supprimé par son auteur.
Citation :
Publié par Keyen
"C'est pas possible d'appliquer l'interdiction, donc c'est légal".

Intéressant.


Accessoirement, la DMCA fait quand même un nettoyage de ouf sur certains sites (mega, pour citer que lui). C'est pas 100%, mais ca reste efficace.
Donc c'est mieux de le légaliser et de l'encadrer. Nuance.
Rappelle toi comment la France a raté, dans les grandes largeurs, le virage de la licence globale.
Citation :
Publié par Zangdar MortPartout
Donc c'est mieux de le légaliser et de l'encadrer. Nuance.
Rappelle toi comment la France a raté, dans les grandes largeurs, le virage de la licence globale.
Exactement
Vu qu'a priori il ne sera probablement pas possible d'éviter les effets jugés néfastes, alors autant tenter d'en tirer des bénéfices pour contrebalancer.
De plus, si on légalise on permet plusieurs choses :
- Avoir plus facilement la mention "FAKE" sur un plus grand nombres de vidéos
- Un cadre avec une éventuelle rémunération des modèles (prêts à vendre leurs images mais pas leur corps)
- On reconnait que les vidéos sont fake et qu'en conséquence il faut cesser de considérer qu'une vidéo est représentative de la réalité
Message supprimé par son auteur.
Citation :
Publié par Keyen
Et comme on peut pas empêcher la pedopornographie sur le net, vaut mieux légaliser tout ça et l'encadrer.


Non, désolé, ca marche pas comme ça. Si des mecs ont envie de foutre des membres de leur entourage sur leur film X (du coup, votre demande de légalisation, ca inclut les enfants? Vrai question), ca les regarde, mais on est pas obligé de légaliser ca pour leur faire plaisir.
Argument fallacieux de la pente glissante.

(Mais nul doute que si la techno existe, des malades en feront des usages maladifs..)
Citation :
Publié par Keyen
Et comme on peut pas empêcher la pedopornographie sur le net, vaut mieux légaliser tout ça et l'encadrer.
C'est comme les meurtres. Impossible d'appliquer l'interdiction, donc autant les légaliser. Et puis si on peut en tirer des bénéfices pour contrebalancer les effets néfastes.

Citation :
Publié par Eden Paradise
Argument fallacieux de la pente glissante.
Si l'argument, c'est dire que puisqu'on ne peut pas appliquer l'interdiction, autant le légaliser, alors pourquoi ne pas l'appliquer au meurtre ou à la pédopornographie ?

La pédopornographie, on a beau l'interdire, elle existe toujours et avec internet, c'est difficile de lutter contre. Est-ce que çà justifie qu'on la légalise ?

Ce n'est pas un argument de la pente glissante qui implique que A va entraîner B puis C sans qu'il n'y ait de lien évident entre A et C. C'est juste appliquer ton argument à d'autres domaines.

L'image d'une personne lui appartient. La mettre en scène dans des contenus qu'elle n'a pas approuvé est problématique. C'est probablement difficile de lutter contre, mais ce n'est pas un argument pour légaliser la pratique. Il y a des milliers d'actes délictueux ou criminels contre lesquels il est difficile d'agir. On ne les légalise pas pour autant.

Personnellement, je n'ai pas envie que mon image soit associé à du contenu pornographique pour lequel je n'aurais pas donné mon autorisation. Pas plus que j'ai envie d'avoir mon image associé à un clip de soutien à une campagne appelant au retour de la peine de mort ou qu'une ex s'amuse à publier des fausses vidéos ou photos de moi nu ou des des positions sexuelles.

Après, si vous ça vous dérange pas, tant mieux. Vous êtes libre de le faire.

Dernière modification par Aedean ; 09/02/2018 à 21h21.
Message supprimé par son auteur.
Citation :
Publié par Aedean
C'est comme les meurtres. Impossible d'appliquer l'interdiction, donc autant les légaliser. Et puis si on peut en tirer des bénéfices pour contrebalancer les effets néfastes.



Si l'argument, c'est dire que puisqu'on ne peut pas appliquer l'interdiction, autant le légaliser, alors pourquoi ne pas l'appliquer au meurtre ou à la pédopornographie ?
C'est comme les arguments fallacieux sur les forums en ligne, on ne peut pas les interdire donc autant composer avec.

Explique moi quel bénéfice compenserait le meurtre libre des personnes ?
Non mais franchement, tu te moques du monde.

On ne peut pas appliquer cet argument à tout et n'importe quoi.
Il faut prendre en compte la réalité de ce qu'on compare.
Par exemple pour l'alcool :
Si tu interdis tu as de la consommation illégale de produits dangereux pour la santé, de la criminalité, etc..
Si tu autorises tu as des produits de qualité contrôlée et des taxes pour contrebalancer les effets néfastes.
Citation :
Publié par Keyen
Ca n'a rien à voir avec la pente glissante. Je te dis pas "si vous légalisez ca, on va vous demander ca derrière". Je te dis "si vous légalisez ca, les effets de bord sont énormes".

Et t'as pas répondu à ma question, très sérieuse. Si tu considère qu'il faut supprimer la question du droit à l'image dans ce cas précis, est-ce que tu l'applique à tout le monde, ou seulement aux adultes? Si tu l'interdis pour les enfants, tu compte appliquer cette interdiction comment?
Je pense effectivement qu'il est mieux que les pédophiles (qui existent) utilisent des images de synthèse, plutôt qu'ils alimentent des réseaux qui enlèvent des enfants réels et les violent. Qui dirait le contraire ?
Evidemment je souhaiterais que les pédophiles arrêtent d'être attirés par les enfants, mais je n'ai pas de solution technique à proposer pour aller en ce sens.

Au passage, quand tu dis "si on légalise, ça aura des effets de bord" : il faut que tu précises. Je pense que tu as tort.
Par exemple si on reste sur le cas des enfants :
- Si on légalise, on peut encadrer la pratique. Seuls les professionnels feront des vidéomontages. Car la plupart des consommateurs n'iront pas se faire chier avec des logiciels spécialisés et des bases de données d'images. Lesdits professionnels ne feront pas de vidéomontages d'enfants.

- Si on interdit la pratique, des réseaux underground se développeront et mèneront un plus grand nombre à être à même de se débrouiller pour produire ses propres vidéomontages.
Dès lors, le nombre de créateurs potentiels sera bien plus grand, et tous seront cachés dans l'illégalité, ce qui augmentera fortement le risque que certains d'entre eux produisent des images qu'on aimerait pas qu'ils produisent.

Dernière modification par Eden Paradise ; 09/02/2018 à 21h25.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés