Les impacts de la technologie sur nos sociétés (IA, Robotique, géo-ingénieurie, etc...)

Répondre
Partager Rechercher
Citation :
Publié par znog
j'ai cherché un peu sans bien comprendre : la nouveauté de ce LLM c'est quoi ?
  • ce n'est pas le coût d'entrainement, mais le cout de fonctionnement ?
  • L'investissement de départ ?
  • l'explicitation du raisonnement ?
Un modèle qui réfléchit et qui est open-source.
Quand je reviens de vacances je le test en local parce que ma veille arrête pas de sonner dessus
@znog
Le coût par rapport à des résultats en calcul equivalents à Chatgpt (cf l'article du Monde Informatique au dessus).


Sinon, je suis d'accord, 10 millions c'est ridicule (et donc en attendre un chatgpt est ridicule aussi), pour le reste:

@Jenmir
Alors non seulement tu n'as aucune idée des ordres de grandeur financiers dans le monde de l'IA, ni de ce qu'est l'IA actuellement en france...

Ni manifestement aucune notion du système par lesquels sont obtenus ces financements, ni des décisionnaires pour l'obtention des prêts et subventions (spoiler: macron ne décide pas).

Mais encore mieux, tu n'as aucune notion de ce qu'est le cadre légal d'un détournement de fonds publics. Si tel était le cas, source le et prouve le. Sinon, c'est du bullshit mode X et de la diffamation.

Personne ne "défend" ce projet en l'état de sa v1, tout le monde a bien rigolé: exactement comme tout le monde a rigolé de l'ancien chatbot de microsoft retiré quelques jours après sa sortie, des absurdités woke de Gemini ou de Chatgpt qui ne savait pas compter à ses débuts.

Bref, ton argumentaire ne repose sur rien d'autre qu'une énième panique morale anti macron (alors qu'il n'a pas la décision sur ces financements).

Si tu veux critiquer, critique l'incapacité du système bancaire/financier européen à mettre à disposition les ressources financières auprès de ces entreprises.

Dernière modification par prootch ; 27/01/2025 à 10h05.
Citation :
Publié par prootch
@znog
Le coût par rapport à des résultats en calcul equivalents à Chatgpt (cf l'article du Monde Informatique au dessus).


Sinon, je suis d'accord, 10 millions c'est ridicule (et donc en attendre un chatgpt est ridicule aussi), pour le reste:

@Jenmir
Alors non seulement tu n'as aucune idée des ordres de grandeur financiers dans le monde de l'IA, ni de ce qu'est l'IA actuellement en france...

Ni manifestement aucune notion du système par lesquels sont obtenus ces financements, ni des décisionnaires pour l'obtention des prêts et subventions (spoiler: macron ne décide pas).

Mais encore mieux, tu n'as aucune notion de ce qu'est le cadre légal d'un détournement de fonds publics. Si tel était le cas, source le et prouve le. Sinon, c'est du bullshit mode X et de la diffamation.

Personne ne "défend" ce projet en l'état de sa v1, tout le monde a bien rigolé: exactement comme tout le monde a rigolé de l'ancien chatbot de microsoft retiré quelques jours après sa sortie, des absurdités woke de Gemini ou de Chatgpt qui ne savait pas compter à ses débuts.

Bref, ton argumentaire ne repose sur rien d'autre qu'une énième panique morale.
Bref me dire que c’est une panique morale pour finalement confirmer que le projet a bien fait rigolé tout le monde comme l’avançait Vincent Flibustier que tu accusait d’être sympathisant d’e.d ou divers spécialiste de l’IA.
Et pas juste le JDD comme tu l’avance qui finalement n’a rédigé l’article qu’après la polémique finalement.

Un argumentaire qui ne repose sur soit disant rien pour arriver finalement à dire que le projet est ridicule et que mettre 10 millons d’€ sur ça l’est tout autant.
Tant de pirouette pour confirmer.

Si ce n’est pas du détournement de fond public alors s’en est presque encore plus inquiétant que de voir que notre argent public arrive si facilement sur des projets morts nés comme celui-ci et prouve bien que nos décideurs sont totalement dépassés.
Citation :
Publié par znog
j'ai cherché un peu sans bien comprendre : la nouveauté de ce LLM c'est quoi ?
  • ce n'est pas le coût d'entrainement, mais le cout de fonctionnement ?
  • L'investissement de départ ?
  • l'explicitation du raisonnement ?
De ce j'ai lu, aucune révolution (ça reprend l'architecture de llama 2), mais une série de tweaks qui ont un effet majeur mises ensemble
- des calculs sur 8 décimales au lieu de 32 et visiblement ça reste tout aussi précis en pratique mais bouffe 4 fois moins de ressources
- elle traite les requêtes par association de mots et non mot à mot (j'y connais rien mais visiblement ça s'appelle un système "multi token"), visiblement ça nécessite 2 fois moins de ressource et c'est 90% aussi précis
- c'est pas un unique modèle mais plein de modèles spécialisés selon le domaine de la requête, ce qui permet de passer de 1.8x1012 paramètres actifs à 37x109 paramètres actifs

https://x.com/morganb/status/1883686168824561838
Citation :
Publié par Jenmir
Bref me dire ...
Encore une fois, n'importe quoi:

- Je n'ai pas dit que flibustier était ED, mais qu'il avait relayé le sieg-heil-pas-nazi de musk, en dépit des soutiens ED nazillons. Ca le qualifie certainement comme une source X de "qualité"

- Je n'ai pas dit que le projet est ridicule : comme tout projet de startup on constera sa réalité à terme. J'ai dit que le financement était d'une ampleur ridicule pour une V1 en comparaison des autres projets existants. Argument qui t'a totalement échappé jusqu'à ce que je l'expose.

- Ce n'est pas un détournement de fonds publics, contrairement à ce que tu affirmais. Ce qui est de la pure fake new anti-macron relayée sur X.

Autrement dit, tu ne connais pas le sujet, ce qui n'est pas grave en soit.
Mais évite de sourcer des arguments de panique anti-macron made in X.
(et je ne peux pas saquer macron).
Citation :
Publié par prootch
Encore une fois, n'importe quoi:

- Je n'ai pas dit que flibustier était ED, mais qu'il avait relayé le sieg-heil-pas-nazi de musk, en dépit des soutiens ED nazillons. Ca le qualifie certainement comme une source X de "qualité"

- Je n'ai pas dit que le projet est ridicule : comme tout projet de startup on constera sa réalité à terme. J'ai dit que le financement était d'une ampleur ridicule pour une V1 en comparaison des autres projets existants. Argument qui t'a totalement échappé jusqu'à ce que je l'expose.

- Ce n'est pas un détournement de fonds publics, contrairement à ce que tu affirmais. Ce qui est de la pure fake new anti-macron relayée sur X.

Autrement dit, tu ne connais pas le sujet, ce qui n'est pas grave en soit.
Mais évite de sourcer des arguments de panique anti-macron made in X.
(et je ne peux pas saquer macron).
Sauf que je n’ai jamais parler d’ordre de grandeur, c’est toi qui a mit ça en avant.
Moi je te dis encore fois simplement que mettre 10 millions d’€ sur ce projet et de mettre le CNRS dessus c’est de l’argent public gaspillé et ce n’est pas de la panique morale.
Le gérant de l’entreprise « Linagora » est un proche d’E.M, ce qui peut posé légitimement question.

Surtout que c’est censé être destiné à l’éducation nationale.
Et tu me parle de sources des arguments de panique alors que l’article du point que tu cite met en avant les problématiques cité par les tweet relayés justement.
Donc mis à part contre dire ton interlocuteur juste pour avoir la satisfaction de contre dire, je ne vois pas vers où tu veux aller.

Donc effectivement ça tourne en ronds et ça pollue le topic je m’arrêterais là .
Simple:

- Ton soit disant détournement de fonds publics relevait d'un anti macronisme mode fake et tu as eu beaucoup de mal à l'admettre.

- La notion d'ordre de grandeur a démontré que tu ne connais pas ce secteur en général, puisque tu restais bloqué sur ce soit disant détournement à 10 millions.

- Tu as découvert enfin que le cnrs lance des recherches sur le sujet et il donc est cohérent que l'état investisse en matière d'IA sans économiquement pouvoir/vouloir concurrencer les mastodontes financiers: l'objectif n'est pas le même.

Donc, éviter de polluer le thread, c'est surtout d'éviter:
- De publier des fakes politiques (anti macron), puis d'insister à les répéter sans argu... est ce la première fois ?
- De prétendre en boucle présenter la situation de l'IA en france sur base d'un fake.
- De reposter la source d'un influenceur qui a relayé le fake "sieg-heil-pas-nazi" sur X, source habituelle des paniques morales ED.

On va donc être d'accords pour ne pas être d'accords, effectivement.
Citation :
Publié par znog
j'ai cherché un peu sans bien comprendre : la nouveauté de ce LLM c'est quoi ?
  • ce n'est pas le coût d'entrainement, mais le cout de fonctionnement ?
  • L'investissement de départ ?
  • l'explicitation du raisonnement ?
Je n'en sais pas grand chose mais apparemment les actions de NVidia sont en train de crash entraînant les autres marchés avec.
Citation :
Publié par ShlacK
Je n'en sais pas grand chose mais apparemment les actions de NVidia sont en train de crash entraînant les autres marchés avec.
Concernant DeepSeek, c'est en train de faire paniquer toute la Silicon Valley parce que :
  • Cela a demandé apparemment "très peu" d'argent pour arriver à ce niveau (moins de 6 millions de dollars pour l'entrainement, contre des dizaines de millions pour la concurrence)
  • Ça demande des serveurs beaucoup moins performant que pour OpenAI/Claude
  • Ses scores dans les différents benchmarks IA sont équivalent ou supérieur à ChatGPT-4o et o1 sur quasiment tous les tests
  • Le coût API est largement moins élevé que la concurrence
  • Et j'ajouterais personnellement que le modèle est opensource, ce qui signifie qu'il n'est pas impossible de voir bientôt des variantes qui feront mieux (sur des tâches spécifiques), et cela grâce à la communauté
Donc évidemment tout le business qui se reposait sur des serveurs énormes avec des GPU derniers cris est en train de se prendre une grosse baffe parce que DeepSeek démontre qu'il est possible de faire aussi bien que les meilleurs modèles du marché pour beaucoup moins cher, et donc qu'il y a une grosse remise en question qui est en train de s'opérer.
Citation :
Publié par Anthodev
Concernant DeepSeek, c'est en train de faire paniquer toute la Silicon Valley parce que :
  • Cela a demandé apparemment "très peu" d'argent pour arriver à ce niveau (moins de 6 millions de dollars pour l'entrainement, contre des dizaines de millions pour la concurrence)
  • Ça demande des serveurs beaucoup moins performant que pour OpenAI/Claude
  • Ses scores dans les différents benchmarks IA sont équivalent ou supérieur à ChatGPT-4o et o1 sur quasiment tous les tests
  • Le coût API est largement moins élevé que la concurrence
  • Et j'ajouterais personnellement que le modèle est opensource, ce qui signifie qu'il n'est pas impossible de voir bientôt des variantes qui feront mieux (sur des tâches spécifiques), et cela grâce à la communauté
Donc évidemment tout le business qui se reposait sur des serveurs énormes avec des GPU derniers cris est en train de se prendre une grosse baffe parce que DeepSeek démontre qu'il est possible de faire aussi bien que les meilleurs modèles du marché pour beaucoup moins cher, et donc qu'il y a une grosse remise en question qui est en train de s'opérer.
Attention il faut prendre une saine distance vis à vis des annonces d'une entreprise, sachant que la Chine a annoncé il y a quelques jours investir massivement dans l IA.

Surtout qu apparemment ils utilisent des puces NVIDIA, alors bon, ça sent l overreact à plein nez.

Dernière modification par Irvy ; 27/01/2025 à 12h50.
Citation :
Publié par Irvy
Attention il faut prendre une saine distance vis à vis des annonces d'une entreprise, sachant que la Chine a annoncé il y a quelques jours investir massivement dans l IA.
Pour le coup c'est compliqué de bidonner les infos, le modèle est opensource (n'importe qui peut le faire tourner localement ou l'hoster soi-même) et l'API (via le site de DeepSeek) est déjà dispo avec les prix. Peut-être que le prix interroge à priori rien ne semble démontrer que ce soit un mytho.

En plus c'est rapide de savoir quand une boite bidonne ou non en terme d'IA, il suffit de voir Lucie, en quelques heures ça a été complètement décrédibilisé. Là ça fait déjà quelques jours que DeepSeek est dispo, si c'était du gros mytho, je ne pense pas que la Silicon Valley aurait eu cette réaction.

Edit : Ils utilisent des puces Nvidia, mais des H800, qui coûte largement moins chers (et sont plus anciens) que les H100 qu'utilisent les nouveaux modèles.
Edit 2 : et j'ajouterais que l'utilisation des puces Nvidia ne va pas durer pour DeepSeek, étant donné qu'il y a un ban sur les puces Nvidia à destination de la Chine depuis 2023 (je suppose qu'ils ont choppés les puces juste avant le ban).
Citation :
Publié par Anthodev
Pour le coup c'est compliqué de bidonner les infos, le modèle est opensource (n'importe qui peut le faire tourner localement ou l'hoster soi-même) et l'API (via le site de DeepSeek) est déjà dispo avec les prix. Peut-être que le prix interroge à priori rien ne semble démontrer que ce soit un mytho.

En plus c'est rapide de savoir quand une boite bidonne ou non en terme d'IA, il suffit de voir Lucie, en quelques heures ça a été complètement décrédibilisé. Là ça fait déjà quelques jours que DeepSeek est dispo, si c'était du gros mytho, je ne pense pas que la Silicon Valley aurait eu cette réaction.

Edit : Ils utilisent des puces Nvidia, mais des H800, qui coûte largement moins chers (et sont plus anciens) que les H100 qu'utilisent les nouveaux modèles.
Sauf que des experts disent que le modèle a peut être été surentrainé et on ne sait pas s'il y a eu du rip off des modèles existants.

Aussi il faut bien distinguer les entreprises du secteur des investisseurs qui peuvent être trigger par le moindre effet d annonce.
Citation :
Publié par prootch
Simple:

- Ton soit disant détournement de fonds publics relevait d'un anti macronisme mode fake et tu as eu beaucoup de mal à l'admettre.

- La notion d'ordre de grandeur a démontré que tu ne connais pas ce secteur en général, puisque tu restais bloqué sur ce soit disant détournement à 10 millions.

- Tu as découvert enfin que le cnrs lance des recherches sur le sujet et il donc est cohérent que l'état investisse en matière d'IA sans économiquement pouvoir/vouloir concurrencer les mastodontes financiers: l'objectif n'est pas le même.

Donc, éviter de polluer le thread, c'est surtout d'éviter:
- De publier des fakes politiques (anti macron), puis d'insister à les répéter sans argu... est ce la première fois ?
- De prétendre en boucle présenter la situation de l'IA en france sur base d'un fake.
- De reposter la source d'un influenceur qui a relayé le fake "sieg-heil-pas-nazi" sur X, source habituelle des paniques morales ED.

On va donc être d'accords pour ne pas être d'accords, effectivement.
Oh ben tiens, des articles ressortent sur la boite Linagora qui gère l’IA Lucie, elle est aussi liée à Qwant et son fail sur QwantMail à cause de soucis de failles de sécurité.

Hyper rassurant.

159801-1737982141-8385.png

La fine équipe.
Un fail utilisant de l’argent public, l’histoire se répète donc inlassablement.

Et toi qui me parle que 10 millions c’est rien pour une IA.
Vincent Flibustier encore lui, montre qu’avec 1,74$ il est capable d’avoir ceci :


On pourrait presque dire que c’est déjà mieux que ce que Linagora semblait proposer . (Ok j’arrête de troll)

Dernière modification par Jenmir ; 27/01/2025 à 14h01.
le blocage des technologies les plus évoluées d'ASML et de Nvidia pousse la Chine à faire preuve de créativité et d'innovation, maintenant on attend le couplet sur la sécurité nationale.

après avec des ratios cours/bénéfice entre 27 et 33 pour les big techs US c'est sûre qu'il n'y a pas besoin d'ajouter beaucoup d'ombre au tableau pour que les investisseurs réagissent.

Citation :
Le dernier modèle d’IA de la start-up chinoise d’intelligence artificielle DeepSeek a déclenché une déroute de 1 000 milliards de dollars des actions technologiques américaines et européennes, alors que les investisseurs remettaient en question les valorisations gonflées de certaines des plus grandes entreprises américaines.
ça va piquer à l'ouverture de Wall Street, et puis sans doute que d'ici une semaine on y pensera même plus, le bitcoin qui a subi des dommages collatéraux est déjà en train de regrimper.

Dernière modification par Jet ; 27/01/2025 à 14h11.
Citation :
Publié par Irvy
Attention il faut prendre une saine distance vis à vis des annonces d'une entreprise, sachant que la Chine a annoncé il y a quelques jours investir massivement dans l IA.
Surtout qu apparemment ils utilisent des puces NVIDIA, alors bon, ça sent l overreact à plein nez.
Pour le coup j'ai pas mal joué avec DeepSeek-R1 ce week end (qui est le modèle dont vous parlez, Deepseek avait déjà d'autres modèles mais qui n'avaient pas autant fait parler d'eux) et je dois bien admettre que j'ai été assez bluffé. J'ai pas fais trop de code directement avec lui encore, par contre j'ai fais pas mal d'exploration et de design technique, et force est de reconnaître qu'en terme de qualité de logique et de raisonnement, il a enterré O1 et Claude (je teste sur l'appli "Chat" d'openrouter.ai qui permet d'avoir la même discussion avec plusieurs modèles en parallèle). Au point qu'à mi chemin, j'ai désactivé les autres modèles pour ne plus que "discuter" avec R1.
Le seul reproche que je lui fais pour l'instant c'est sa lenteur, il met clairement plus de temps à répondre que Claude ou GPT4o .


Citation :
ça va piquer à l'ouverture de Wall Street, et puis sans doute que d'ici une semaine on y pensera même plus, le bitcoin qui a subi des dommages collatéraux est déjà en train de regrimper.
En même temps c'est pas surprenant, la majorité de ces grosses boites techs qui se sont engouffrées sur l'IA c'est juste pour les buzzword, faire plaisir aux actionnaires et si possible réduire la masse salariale (ce qui fait aussi plaisir aux actionnaires). Mais en vrai, en dehors de Google, OpenAI et nVidia, l'énorme majorité des autres grosses boites techs ne fait rien de très innovant, se contente de suivre, voir dépense une énergie considérable à essayer de foutre de la GenAI partout même aux endroits ou ça n'a pas de sens.
De mon côté j'ai testé le modèle 8B en local et c'était pas fou.
Je lui ai demandé de créer un PJ D&D 5E, un demi elf bard niveau 1. Il a tourné une minute en dialogue interne de plus en plus absurde pour finir par me pondre un magicien en 3 lignes une fois arrivé vers la fin de son contexte.
Alors que o1 s'en était pas mal sorti sur une tâche plus complexe (PJ niveau 3) avec juste quelques erreurs.
On ne peut pas vraiment comparer un modèle 8B en local avec un modèle complet mais j'ai trouvé la différence de qualité vraiment énorme pour mon petit "benchmark".
tout ce que vous écrivez est très intéressant je reprends
Citation :
Publié par Borh
De ce j'ai lu, aucune révolution (ça reprend l'architecture de llama 2), mais une série de tweaks qui ont un effet majeur mises ensemble
- des calculs sur 8 décimales au lieu de 32 et visiblement ça reste tout aussi précis en pratique mais bouffe 4 fois moins de ressources
- elle traite les requêtes par association de mots et non mot à mot (j'y connais rien mais visiblement ça s'appelle un système "multi token"), visiblement ça nécessite 2 fois moins de ressource et c'est 90% aussi précis
- c'est pas un unique modèle mais plein de modèles spécialisés selon le domaine de la requête, ce qui permet de passer de 1.8x1012 paramètres actifs à 37x109 paramètres actifs

https://x.com/morganb/status/1883686168824561838
145062-1737986181-6295.png
Citation :
Publié par Anthodev
Concernant DeepSeek, c'est en train de faire paniquer toute la Silicon Valley parce que :
  • Cela a demandé apparemment "très peu" d'argent pour arriver à ce niveau (moins de 6 millions de dollars pour l'entrainement, contre des dizaines de millions pour la concurrence)
  • Ça demande des serveurs beaucoup moins performant que pour OpenAI/Claude
  • Ses scores dans les différents benchmarks IA sont équivalent ou supérieur à ChatGPT-4o et o1 sur quasiment tous les tests
  • Le coût API est largement moins élevé que la concurrence
  • Et j'ajouterais personnellement que le modèle est opensource, ce qui signifie qu'il n'est pas impossible de voir bientôt des variantes qui feront mieux (sur des tâches spécifiques), et cela grâce à la communauté
Donc évidemment tout le business qui se reposait sur des serveurs énormes avec des GPU derniers cris est en train de se prendre une grosse baffe parce que DeepSeek démontre qu'il est possible de faire aussi bien que les meilleurs modèles du marché pour beaucoup moins cher, et donc qu'il y a une grosse remise en question qui est en train de s'opérer.
Citation :
Publié par Jet
le blocage des technologies les plus évoluées d'ASML et de Nvidia pousse la Chine à faire preuve de créativité et d'innovation.
donc à suivre des très très près je vous ajoute l'analyse du Monde , extrait

https://www.lemonde.fr/economie/arti...8026_3234.html

Citation :
L’engouement est déjà réel. L’application DeepSeek a été la plus téléchargée sur les iPhone ce week-end aux Etats-Unis, en Australie, en Chine et au Royaume Uni. Et même un investisseur aussi célèbre que Marc Andreessen, grand soutien de Donald Trump croit assister à un « moment spoutnik », en référence à l’affolement qui avait saisi l’Amérique après l’annonce du lancement du premier satellite dans l’espace, en octobre 1957. Comme un réveil sur l’état de la technologie chinoise.

L’effet a été immédiat sur les Bourses asiatiques, lundi 27 janvier. Tous les titres cotés liés à Nvidia ont plongé, comme le fournisseur japonais Advantest qui a dévissé de plus de 8 % à Tokyo. S’il est possible d’imaginer des intelligences artificielles bien plus économes, en calcul et en énergie, cela rebat les cartes.

C’est aussi le pari de la société française Mistral, principale concurrente européenne des géants américains dans ce domaine. Le patron de celle-ci, Arthur Mensch, a déclaré, le 21 janvier, qu’il envisageait une introduction en Bourse. Cette agitation pourrait provoquer une vaste réévaluation des valorisations. L’heure de vérité approche, et cela devrait tanguer.
Mistral OK, mais ce ne sera pas une introduction en bourse au même niveau, même si ce sont avant tout les GAFAM/NVidia du NASDAQ qui dévissent

Dernière modification par znog ; 27/01/2025 à 14h56.
Ce qui est amusant avec cette "panique", c'est que des informations chinoises sur leurs propres performances sont prises au sérieux.
Demain si ca baisse encore, je passe en achat.
Je suis persuadé que c'est du bullshit et que Deepseek a des puces importées illégalement cachées dans un placard.
Gros bénéfs possibles à très court terme.
Citation :
Publié par Touful Khan
Je suis persuadé que c'est du bullshit et que Deepseek a des puces importées illégalement cachées dans un placard.
Gros bénéfs possibles à très court terme.
les gens s'auto persuadent beaucoup trop facilement de nos jours, selon l'humeur du moment.
Citation :
Publié par Touful Khan
Je suis persuadé que c'est du bullshit et que Deepseek a des puces importées illégalement cachées dans un placard.
Pas cachées, des puces nvidia de la génération précédente (d'avant l'embargo) si j'ai bien compris.
Citation :
Publié par prootch
Tu n'as manifestement aucune notion des ordres de grandeur économiques pour obtenir un modèle d'IA LLM fonctionnel:

L'IA en france c'est:
Mistral $1Md+, gérée en france.
Llama2 ou des chercheurs français sont à la tête de l'IA Meta.

Pourmémoire:
Chatgpt c'est $6.6 Mds.

Venir comparer ça avec 10millions de financement pour prétendre définir l'IA en france, c'est... ridicule.

Encore une panique morale du JDD dûment relayée:
https://www.lejdd.fr/Societe/niveau-...rnautes-154248
Oui d'accord, mais il semble que justement DeepSeek n'ait pas coûté très cher.
A prendre avec des pincettes bien entendu, vu que ça vient de Chine

Citation :
Publié par Anthodev
Concernant DeepSeek, c'est en train de faire paniquer toute la Silicon Valley parce que :
  • Cela a demandé apparemment "très peu" d'argent pour arriver à ce niveau (moins de 6 millions de dollars pour l'entrainement, contre des dizaines de millions pour la concurrence)
Du coup mon cher Prootch, il semblerait que tes affirmations tombent à l'eau?

Citation :
Publié par Jenmir
Si ce n’est pas du détournement de fond public alors s’en est presque encore plus inquiétant que de voir que notre argent public arrive si facilement sur des projets morts nés comme celui-ci et prouve bien que nos décideurs sont totalement dépassés.
On se souvient des routes solaires de Royal.


L'un des problèmes en France, c'est le manque total de culture scientifique de nos politiques qui filent de l'argent à des guignols.
Répondre

Connectés sur ce fil

 
4 connectés (0 membre et 4 invités) Afficher la liste détaillée des connectés