Duc / Duchesse
|
|
![]() |
|
Aller à la page... |
Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)
Suivre Répondre |
|
Partager | Rechercher |
|
[ ... ]
Dernière modification par TabouJr ; 03/06/2025 à 11h54. |
![]() |
|
Duc / Duchesse
|
[ ... ]
Dernière modification par TabouJr ; 03/06/2025 à 11h54. |
![]() |
|
|
Allez sur le labo pour expliquer comment fonctionnent les balises script, ici ce n'est pas le bon forum.
|
![]() |
|
|
[ ... ]
Dernière modification par TabouJr ; 03/06/2025 à 11h59. |
![]() |
|
|
Temps mort.
Réouverture. Tenez vous en aux aspects politique, économique et social du sujet. Dernière modification par TabouJr ; 03/06/2025 à 13h10. |
![]() |
|
|
Citation :
Citation :
Et en dehors des prompts qui demandent d'écrire de la doc, la plupart des prompts "codes" sont comme ceux là: très précis. Et honnêtement pour certains de ces prompts, je pense que ça prend plus de temps à écrire le prompt précis qu'à faire le refacto directement, surtout si tu es avec un IDE et/ou un langage qui a déjà du bon tooling pour ça (genre Intellij et Java, j’avoue que ça fait longtemps que j'ai pas utilisé Webstorm avec Typescript donc pour ce cas précis je ne sais pas). Bref pour moi ça reste un outil, et comme tout outil, c'est utile dans certains cas et inutiles dans d'autres. Le truc chiant c'est quand dans le upper management t'as que des profils à la Ron, qui connaissent que le marteau, pour qui tout les problèmes sont des clous et qui veulent utiliser un marteau pour tout. Les coding assistant à base de LLM ça a du sens dans certains cas, ça booste la productivité parfois, mais ça dépend de pleins de variables... |
![]() |
|
|
Citation :
La bonne nouvelle, c'est que les mecaniques qui permettent de se premunir de ce risque sont aussi celles que nous devrions faire pour réduire les inégalités. Citation :
Le developpeur en question a contribué au sujet: Citation :
|
![]() |
|
|
On a un hackweek cette semaine et on a décidé d'utiliser Claude pour effectuer la conversion d'un langage vers un autre.
Je vous reviens, ça va être drôle. |
![]() |
|
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
|
L'auto-completion est une mauvaise integration IMO. Je vois plutot ca comme un dialogue avec le modele, qui finit par proposer des changements que tu peux accepter / refuser.
|
![]() |
|
|
C'est co-pilot chat ça.
|
![]() |
|
Caniveau Royal |
Voir le profil public |
Trouver plus de messages par Caniveau Royal |
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
|
Sommaire :
Citation :
La question c'est combien de temps la différence de qualité va se faire ressentir dans la réponse générée entre ce prompt technique et ma façon de parler à l'IA : Citation :
De ce que j'observe de l'IA, avec mon prompt sans contexte (on peut lire le reasoning par exemple sur Gemini) l'IA va faire des suppositions, architecture, techno, etc. Elle va me pondre uen réponse généraliste, e, gros il faut stocker la liste quelque part, merci lol, ça dépend du système utilisé, ah je m'en serais pas douté ! En gros je n'aurai pas une solution opti, ou pire elle ne pas voir le vrai problème et anciticiper les bugs. Elle se mettra à mon niveau. Par contre, si je l'ai bien briefée dans les instructions personnalisées, comme pour mes projets pros sérieux, le résultat sera déjà bien meilleur. Pas celui d'un dev, mais on parle d'augmenter la qualité tout de même. J'ai des projets où j'ai raffiné les instructions et c'est vraiment le jour et la nuit en terme de qualité de réponse. Par exemple pour ce prompt, je lui ai fourni les deux versions, la technique du dev et la mienne de néophyte et je lui ai demandé comment aller chercher le plus proche possible de la qualité du premier avec le prompt du deuxième. voici les instructions personnalisées suggérées : Citation :
Prompt du dev et réponse : Citation :
Citation :
Citation :
Ce que je trouve fabuleux, c'est que ces instructions personnalisées ont été écrite par l'IA elle même pour améliorer ses réponses. C'est ce qui se produit quand on cherche à comprendre l'IA, quand on s'intéresse vraiment, qu'on est curieux du sujet. Les inférences, les tokens, la mémoire etc. Quand j'ai bossé sur mon RNN à fine tuner, j'ai découvert qu'un LLM standard "recahrge sa mémoire à chaque prompt" et que si les LLM dominent le marché, il existe d'autres philosophies. La question c'est où va-t-on chacun aller avec ces outils. J'ai tendance à penser qu'à force de les utiliser dans tous les sens, entant des trucs nouveaux 12h/jour depuis des années maintenant, je en serai jamais un dev, par contre intuitivement je vais réussir à pondre des trucs qui m'auraient à jamais été inaccessibles autrement.ou alors avec des moyens considérables pour payer des devs afin de mener des expérimentations chelous. Je suis pas dev, mais je serai dev je me méfierais sévèrement de l'avis que je m'étais fait de l'IA en testant vite fait 3.5. |
![]() |
|
Airmed / Ildefonse |
Voir le profil public |
Trouver plus de messages par Airmed / Ildefonse |
|
Je pense que vous sous-estimez la vitesse a laquelle ca peut évoluer.
Pour l'image, l'etat de l'art y a a peine 4 ans, c'est ca: https://openai.com/index/dall-e/ Et deja, c'etait ahurissant a l'epoque. |
![]() |
|
Suivre Répondre |
Connectés sur ce fil1 connecté (0 membre et 1 invité)
Afficher la liste détaillée des connectés
|