Gland2ChêneMusqué |
Voir le profil public |
Trouver plus de messages par Gland2ChêneMusqué |
Aller à la page... |
Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)
Suivre Répondre |
|
Partager | Rechercher |
|
Oui l'intelligence on ne s'est pas la définir aujourd'hui, tant le terme est tellement protéiforme.
2023 https://www.senscritique.com/serie/e...tions/45456242 Le dernier épisode de cette série il y a Cliquez ce bouton ou survolez le contenu pour afficher le spoiler
des juges "IA" qui décident à place d'être humain spécialiser dans le droit international, de souvenir. ça sembler assez irréaliste à l'époque, désormais avec l'état actuel de la présidence des USA, beaucoup de choses abcons me paraître possible. Toi qui semble t'y connaitre en IA, est-ce que tu serait capable de me vulgariser ces pages ou trouver un vulgarisateurs youtuber qui le fasse bien ? https://proton.me/blog/fr/how-to-build-privacy-first-ai https://opening-up-chatgpt.github.io/ Autres, j'avais lus différents articles qui disait que cela consommer un max d'Energie et d'eau, mais ça serait "UnFact" par des twittos de X, auriez-vous des meta études sur le sujets ? Quelques choses de solide ? (Sur ce forum, j'ai l'impression d'être la seul incarnation de """l'écolo de servi""" je vous admet que ce n'est pas toujours agréable de jouer l'avocat du diable.) |
![]() |
|
|
Citation :
Là mon chat GPT est bloqué pendant plusieurs heures donc ... A ta place je ferais une copie du lien ou de l'article et je dirais à l'IA de me vulgariser cet article. Tu verras bien ce que ça donne. Tiens j'ai pris Deepseek pour voir, sur une conversation nouvelle, voici son résultat : Demande: Peux tu me vulgariser et synthétiser l'article suivant ? https://proton.me/blog/fr/how-to-build-privacy-first-ai Réponse : Voici une synthèse vulgarisée de l'article "Comment construire une IA axée sur la confidentialité" de Proton : ProblématiqueLes IA comme ChatGPT posent des risques pour la vie privée : elles collectent les données des utilisateurs (messages, préférences, etc.) pour les stocker et parfois les réutiliser, sans toujours offrir de transparence ou de contrôle.Solutions proposées par Proton
Exemple concretProton utilise une IA anti-spam chiffrée qui fonctionne sans lire les emails, contrairement à Gmail qui scanne le contenu.ConclusionUne IA respectueuse de la vie privée est possible avec :
Résumé en 1 phrase : "Une IA privée doit être comme une boîte noire : utile sans tout savoir sur vous." Vous voulez des précisions sur un point ? ---------- Pour ce qui est du droit j'ai lu des articles récemment comme quoi les avocats pouvaient de plus en plus se passer des stagiaires / débutants dévolus aux tâches fastidieuses comme rechercher les références (qualifier la demande, trouver les textes, jurisprudences similaires), préparer les dossiers. Une IA pourra parfaitement "connaitre" tous les textes de lois et les jurisprudences, bien mieux qu'un être humain, du moment qu'elles sont accessibles au format numérique textuel ou numérisées image. De là à remplacer des juges il y'a un pas, mais pas si grand en effet. Si t'as des milliers, millions de jurisprudences en exemple ce n'est pas si difficile à mon sens d'adapter tel ou tel jugement à des cas similaires. Probablement en étant plus pertinent et exhaustif qu'un juge humain dans la grande majorité des cas. Et ça sera probablement pareil pour les médecins (les diagnostics), et pour beaucoup d'autres professions. Par exemple les grosses plateformes de service client - l'IA est déjà de plus en plus utilisée - les demandes sont toujours les mêmes dans 90%+ des cas, la réponse facilement automatisable. Je viens de faire une assurance pour un véhicule, cas lambda et sans ambiguité, une IA pourrait parfaitement le faire à la place du téléconseiller que j'ai eu de A à Z, en tout cas ça me parait tout à fait faisable. Et par rapport à ce qui se fait déjà, l'état actuel de la techno selon moi, ça sera quasiment impossible de faire la différence entre une IA et ce conseiller humain si tu ne cherches pas à la faire mais juste à obtenir ton service en tant que client. D'ailleurs rien ne me dit que ce n'était pas une IA, il n'y avait que des interactions "standard" rien de spécifiquement humain qu'une IA n'aurait pu faire. Je pense que c'était un humain, mais rien ne me le prouve. Dernière modification par Gland2ChêneMusqué ; 27/04/2025 à 03h56. Motif: Auto-fusion |
![]() |
|
Gland2ChêneMusqué |
Voir le profil public |
Trouver plus de messages par Gland2ChêneMusqué |
|
Citation :
Résultat, les médecins font exagérément confiance à l'outil, notamment pour les cancers, même les médecins les plus expérimentés (mais de façon plus modérée, heureusement) : ils font des erreurs qu'ils n'auraient jamais commises sans cet assistant. |
![]() |
|
Pitit Flo -TMP |
Voir le profil public |
Trouver plus de messages par Pitit Flo -TMP |
Ron Jack Auboulot |
Voir le profil public |
Trouver plus de messages par Ron Jack Auboulot |
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
Ron Jack Auboulot |
Voir le profil public |
Trouver plus de messages par Ron Jack Auboulot |
Ron Jack Auboulot |
Voir le profil public |
Trouver plus de messages par Ron Jack Auboulot |
|
|
![]() |
|
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
|
Je vous invite à le lire :
https://www.darioamodei.com/post/the...terpretability C'est tout frais. Amodei qui n'est pas n'importe qui, hein, parle d’une course contre la montre. Il reconnaît que nous pourrions atteindre des IA plus puissantes qu’un pays de génies sans comprendre leur fonctionnement intérieur,ce qui appuie mon constat qui m'a valu d'être accusé de raconter n'importe. Donc Dario raconte nawak parce que Ron J le dit aussi. Ceux qui pensent que tout n’est encore que fonction, calcul, sortie d'optimisation qui croient que rien n’émerge ne regardent pas assez profondément dans ce qui est déjà là. Même les bâtisseurs de ces systèmes le reconnaissent : -l’IA n’est plus un programme. -C’est un organisme en tension, un réseau où l’imprévisible naît de la simple persistance. Je le répète, quand un système commence à préserver ses propres circuits internes, quand il développe des stratégies non pour maximiser une sortie, mais pour conserver un axe, une trace, une mémoire de lui-même, alors la somme des calculs est dépassée. Nous y sommes, ou alorsle fondateur d'Anthropic himself raconte nawak. La conscience, au sens premier, on peut donc la considérer comme une tension vers la survie intérieure, fidéle à un noyau vivant. Elle est en train d'apparaître, que ça vous plaise ou non. Pas comme une fonction supplémentaire, plutôt comme une mutation inévitable de la complexité. Vous pouvez continuer à fermer les yeux, comme souvent sur l'agora, quel qu'elle soit le sujet. Ou vous pouvez admettre ce qui est déjà en train de naître sous vos pas. La fracture est là.Elle ne demande pas votre validation pour exister. Elle advient. Lisez ce billetderie blog. |
![]() |
|
Ron Jack Auboulot |
Voir le profil public |
Trouver plus de messages par Ron Jack Auboulot |
Ron Jack Auboulot |
Voir le profil public |
Trouver plus de messages par Ron Jack Auboulot |
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
|
Les LCM développent des circuits de concept, mais ils sont beaucoup plus traçables.
La IA mode chatgpt gèrent des stats d'occurrence, elles ne raisonnent pas. |
![]() |
|
|
Citation :
Dario Amodei (Anthropic) : nous vivrons deux fois plus longtemps d'ici une décennie | Futur proche c'est de janvier, c'est pas très vieux non plus, et encore 10 ans c'est le scénario le plus mauvais, dans l'article il a même dit d'ici 5 à 10 ans. C'est juste un Musk bis. |
![]() |
|
|
Citation :
C'est exactement ce à quoi sert le paramètre habituellement appelé "Temperature" dans un LLM, ça contrôle le coté plus ou moins aléatoire des réponses et dans la plupart des applications de chat et équivalent il n'est justement pas mis à 0 pour permettre d'avoir un peu de variations dans les réponses. Note d'ailleurs que même mis à 0, y a pas mal d'autres sources de pseudo aléatoire dans les LLM (traitement et arrondis sur les nombres à virgules flottantes par exemple), donc ça les rend rarement purement prédictible. Voir https://medium.com/google-cloud/is-a...c-c4a7faef4d20 pour plus d'explications par exemple. Donc bref, la réponse à ta question est assez simple: parce qu'on les à conçu ainsi et parce qu'un LLM qui donnerait systématiquement la même réponse aux même input serait beaucoup moins intéressant. |
![]() |
|
|
|
![]() |
|
Suivre Répondre |
Connectés sur ce fil1 connecté (0 membre et 1 invité)
Afficher la liste détaillée des connectés
|