L’IA générative est aujourd’hui largement utilisée par les Français au quotidien. Alors que cette technologie est soupçonnée d’avoir des effets négatifs sur la santé mentale, le gouvernement a récemment lancé une commission d’experts pour évaluer ses dangers. Cette commission, qui doit rendre ses conclusions en mai, va précisément se pencher sur les risques et les vulnérabilités engendrées par les usages grand public des outils comme ChatGPT d’OpenAI et Gemini de Google. Ce travail scientifique guidera directement l’action gouvernementale et se traduira par des mesures concrètes pour mieux prévenir les conséquences des nouvelles technologies numériques sur la population.
Le ministère du Numérique et de l’Intelligence artificielle a lancé, le samedi 21 février, une commission d’experts pour se pencher sur les risques et les vulnérabilités engendrées par les usages grand public des outils d’intelligence artificielle (IA) générative comme ChatGPT d’OpenAI et Gemini de Google. Coordonné par le Conseil de l’IA et du numérique (Cianum), ce groupe scientifique sera présidé par Serena Villata, directrice de recherche CNRS spécialiste de l’IA, et les professeurs en psychiatrie Raphaël Gaillard et Amine Benyamina de l’Université Paris Cité. il doit rendre ses conclusions en mai prochain.
L’irruption brutale de l’IA générative dans notre quotidien doit nous conduire à en mesurer les risques
« Depuis plus de trois ans, les IA génératives sont entrées dans la vie quotidienne des Français. Cette irruption doit nous conduire à en mesurer les risques. », a expliqué la ministre déléguée chargée du Numérique et de l’Intelligence artificielle Anne Le Hénanff, citée dans un communiqué.
La ministre précise que le travail scientifique annoncé va directement guider l’action gouvernementale et se traduire par des mesures concrètes pour mieux prévenir les conséquences des nouvelles technologies numériques sur la population. « Ce travail est complémentaire de celui que nous conduisons avec le Président de la République, le Premier ministre et le Gouvernement pour protéger les mineurs des risques liées aux réseaux sociaux. », a-t-elle ajouté.
Le rapport de la commission doit dégager quatre grands objectifs
Dans sa lettre de mission, Anne Le Hénanff relève les quatre grands objectifs que le rapport de la commission doit atteindre. Il s’agit de : cartographier les usages de l’IA générative ; identifier l’ensemble des risques ainsi que les vulnérabilités les plus critiques ; analyser le cadre réglementaire et technique existant au niveau national et européen ; et formuler des propositions étayées et concrètes aux niveaux national et européen. Ces grandes lignes permettront de faire un scanner de l’IA pour identifier ses risques sur la santé des Français, qui ne peuvent plus s’en passer.
Près de la moitié des Français ont utilisé l’IA générative en 2025
Depuis plus de trois ans et l’apparition de ChatGPT, les outils d’intelligence artificielle générative se sont installés dans le quotidien des Français, que ce soit à la maison, à l’école ou au travail. D’après le Baromètre du numérique, près de la moitié des Français ont utilisé l’IA générative en 2025, avec un usage particulièrement soutenu (85 %) chez les 18-24 ans.
Si cette technologie présente de nombreux avantages, sa diffusion rapide et non réglementée soulève des préoccupations majeures. Parmi lesquelles a désinformation, la manipulation de l’opinion, l’exposition des mineurs à des contenus inadaptés, les risques d’addiction ou encore les atteintes potentielles à la santé mentale.