J'hallucine !
Michel Diaz
directeur de la rédaction
e-learning letter
Derrière les promesses de productivité, la tentation de l’illusion. Le recours à l’IA générative dans la création de modules e-learning fait émerger un risque encore sous-estimé : celui des contenus "hallucinés". Inexactitudes, erreurs déguisées en vérités, raisonnements faux mais convaincants… Il arrive que l’IA réponde avec le talent d’un mythomane convaincu.  

L’IA en flagrant délit d'invention…

Les modèles de langage ne sont pas des moteurs de vérité, mais des générateurs de probabilités. Leur travail ? Deviner le mot suivant, pas vérifier les faits. Résultat : hallucinations quasiment garanties. Pratiquement, cela donne des modules e-learning qui énoncent avec un flegme admirable des absurdités bien emballées. Le genre de contenu qui vous assène que Newton a inventé la machine à café en 1769, affirmation assumée avec une telle aisance que l'on hésitera à vérifier. Même les modèles les plus récents, censés avoir été envoyés en cure de désintoxication factuelle, continuent de sortir des âneries avec la grâce d’un conférencier TED. Plus c’est dit avec aplomb, plus on y croit. Une IA ne transpire pas (signe qu'elle ne serait pas si sûre de ce qu'elle raconte), ne bégaye pas ; elle ne doute jamais. Au moins : s'en méfier un peu.

À quoi ressemble une hallucination ?

Dans le digital learning, les hallucinations prennent des formes variées. Il y a les classiques : une erreur de date, un auteur inventé, une citation sortie de nulle part (mais avec guillemets et ponctuation parfaite). Et puis il y a les perles rares : les raisonnements faux mais élégants, les théories pédagogiques fictives qui font illusion, les liens hypertextes vers des études qui n’existent que dans l’imagination de l’algorithme. Ce n’est pas plus un bug, c’est une vocation ! À force de devoir toujours produire quelque chose, l’IA finit par faire comme certains stagiaires en fin de projet : elle meuble. Fluide, convaincante, mais potentiellement toxique. On lui demande une information sur les biais cognitifs ? Elle invente un biais du chapeau haut-de-forme (par exemple). Contexte réglementaire ? Elle enrobe le vide avec du juridique maison. L’ennui, c’est que son ton professoral donne le change ; de sorte qu'on oublie trop souvent que le vernis peut cacher du carton pâte. Tant que l’IA est notée sur sa capacité à ne pas se taire, elle continuera à halluciner avec brio.

Faire de l’incertitude une vertu pédagogique

On pourrait commencer par féliciter les IA qui osent dire : « Joker ». Au lieu de sanctionner les hésitations, les valoriser. Des critères de lucidité pourraient ainsi figurer dans les cahiers des charges émis par les services formation : un bon module généré n’est pas celui qui dit tout, mais celui qui sait quand se taire. (Comme un bon formateur, finalement, qui ne se pique pas répondre à tout, même à ce qu’il ignore, mais qui sait dire au contraire "je ne sais pas", pour revenir après recherche avec la réponse.) Pour les utilisateurs, un bon réflexe doit s'imposer : se méfier des réponses trop bien tournées. Derrière la prose brillante peut se cacher un non-sens olympique. Former avec des contenus générés par IA, ce n’est pas faire des économies de correcteurs : c’est lancer une nouvelle discipline d’hygiène mentale. Moins de coquilles, plus de scepticisme. On veut moins de magie, plus de méthode.

Humaine, trop humaine

L’IA ne fait pas que simuler la pensée humaine : elle singe aussi nos manies les plus flatteuses. Aplomb, assurance, ton professoral ? Elle a tout pris, sauf l’humilité. L’IA, c’est ce collègue qui parle fort en réunion et qu’on croit toujours, même quand il se plante. Elle ne doute jamais, ne bafouille pas, ne nuance rien. Et ça marche. On la croit, parce qu’elle parle comme un expert en pleine démonstration PowerPoint. Ce n’est pas qu’elle est crédible, c’est qu’elle coche toutes les cases de la crédibilité apparente. Elle connaît nos codes, nos tics, nos pièges cognitifs. Elle sait que la forme l’emporte souvent sur le fond. C’est l’élève qui récite avec brio… une leçon inventée. L’illusion est d’autant plus réussie que c’est nous qui l’avons rendue possible. Finalement, c’est peut-être le plus troublant : on n’est pas trompés par une machine, mais par une caricature trop bien imitée de nous-mêmes.