CNRS-Mistral : 35 000 agents, un outil souverain, une formation obligatoire
Depuis le 17 décembre 2025, les 35 000 agents du CNRS ont accès à Emmy, un agent conversationnel développé par Mistral AI. L'usage est facultatif — mais ChatGPT, Gemini et leurs équivalents sont proscrits dans le cadre professionnel. Une décision de souveraineté numérique radicale, adossée à une exigence de formation préalable. Le dispositif mérite qu'on s'y arrête.

Un an de préparation, un déploiement le jour J

Le contrat entre le CNRS et Mistral AI a été signé en octobre 2025, au moment où l'État ouvrait l'expérimentation de son propre assistant IA — également développé par Mistral — auprès de 10 000 agents de la fonction publique. Emmy est le résultat d'un an de travail : dès fin 2024, un premier agent conversationnel sécurisé avait été testé en interne par 600 agents volontaires, dont les retours ont permis d'affiner l'outil avant son déploiement généralisé. Ce travail de preuve de concept (POC) a permis d'identifier les besoins réels des agents, de mesurer les problématiques techniques liées à un déploiement à grande échelle, et de calibrer les fonctionnalités prioritaires. Les fonctionnalités retenues sont celles d'un assistant généraliste : traduction, synthèse de documents, aide à la reformulation, recherche web, reconnaissance de textes et d'images, traitement de publications scientifiques en contexte. L'outil conserve une trace des informations fournies par l'utilisateur pour affiner ses réponses au fil de la session — sans pour autant les réinjecter dans les modèles Mistral. Sept mille agents avaient activé leur compte dans les premières semaines, sans obligation formelle ; ce taux d'adoption précoce dit quelque chose sur l'appétence réelle des chercheurs pour des outils sécurisés dès lors qu'ils existent. Le déploiement est présenté par le CNRS lui-même comme inédit dans le monde de la recherche en France — ce qui signale autant l'ambition du projet que le retard accumulé par le secteur sur ce terrain.

Souveraineté : le vrai motif du choix

Le marché de l'IA générative est dominé par les acteurs américains et chinois. Le CNRS a tranché : une solution européenne, des données hébergées sur le sol européen, soumises au RGPD et à l'IA Act. Emmy ne réutilise ni les prompts ni les documents saisis pour entraîner les modèles Mistral AI — garantie contractuelle qui distingue le dispositif des offres grand public. Le choix de Mistral s'est aussi imposé pour sa maîtrise du français et sa capacité à contextualiser le travail des agents ; ses modèles sont entraînés sur des bases de données en français, atout non négligeable pour un organisme dont la production scientifique est majoritairement francophone. La dimension souveraineté n'est pas rhétorique : elle traduit une analyse de risque sur ce que signifie confier des données de recherche à des infrastructures étrangères, hors du champ du droit européen. À l'heure où plusieurs États revoient leur dépendance aux grands fournisseurs américains de cloud et d'IA, le CNRS matérialise une position que beaucoup d'organisations publiques proclament sans l'incarner. Matière à réflexion, également, pour les entreprises et leurs plateformes numériques formation-RH : pourront-elles longtemps encore se mettre dans une dépendance toujours plus étroite de plateformes IA qui font peser un risque sur leurs données ? 

Formation préalable, accès conditionné

Emmy n'est pas arrivé seul. Le CNRS a déployé en parallèle des modules de sensibilisation à l'usage des outils d'IA générative — conditions d'utilisation, limites, bonnes pratiques. Une attestation de suivi est requise pour accéder à Emmy ; une formation ciblée sur les prompts est annoncée pour compléter le dispositif. Le séquencement est délibéré : l'acculturation précède l'accès, l'attestation n'est pas une formalité, elle conditionne l'ouverture du compte. C'est un parti pris pédagogique net, dans un contexte où la plupart des organisations déploient les outils d'abord et forment — peut-être — ensuite. Exiger une attestation avant d'ouvrir l'accès, c'est poser que l'usage responsable d'un outil d'IA n'est pas inné, et que la formation n'est pas un accompagnement optionnel mais une condition d'entrée. Le CNRS a fait de la sensibilisation un prérequis opérationnel, non un module de confort.

Le patrimoine scientifique en ligne rouge

Le CNRS gère un patrimoine informationnel d'une sensibilité particulière : publications, données de recherche, thèses, résultats expérimentaux en cours. Ce patrimoine est, par nature, exposé dès lors qu'un agent l'injecte dans un outil grand public dont les conditions d'entraînement sont opaques. L'interdiction de ChatGPT et Gemini dans le cadre professionnel n'est pas une posture idéologique ; elle est la conséquence directe de cette réalité. Le risque n'est pas hypothétique — plusieurs affaires documentées ont montré que des données sensibles avaient été transmises à des modèles tiers via des usages professionnels non encadrés. Samsung, en 2023, en a fait l'expérience à ses dépens. En posant une ligne rouge explicite, contractuellement garantie, le CNRS protège ce que ses agents produisent et ce que l'institution a mis des décennies à construire. La charte d'utilisation en cours de préparation viendra compléter le dispositif ; elle dira ce qu'Emmy peut faire, et ce qu'il ne doit pas faire. Emmy n'est pas un outil de productivité de plus ; c'est une politique de gestion du patrimoine scientifique. La nuance est considérable.

Par la rédaction d'e-learning Letter

CNRS