|
Double délégation : cognitive (penser est optionnel) et émotionnelle (empathie algorithmique)
Rappel : l’IA remplace l’humain dans ce qu'il faisait avec lenteur et effort. Du côté des formateurs, notamment, elle synthétise des documents, reformule un concept, structure un plan de formation, corrige des copies ou rédige un feedback en trois secondes. L’efficacité est indéniable. Mais plus l’IA se montre performante, plus la tentation est grande de lui déléguer non seulement les tâches, mais la pensée elle-même ; une tentation qui guette tous (notamment en "mode apprenant"). Cette délégation cognitive, séduisante en apparence, prive l’acte d’apprendre de ce qui en fait la richesse : la confrontation avec l’inconfort intellectuel, l’effort du discernement, la construction progressive du sens. Quand la machine pense pour nous, nous pensons moins, et donc, nous apprenons moins. À quoi s’ajoute une délégation émotionnelle plus insidieuse. L’IA ne se contente plus de répondre ; elle écoute, reformule, rassure. Elle adopte le ton exact qui apaise, encourage ou console. Une patience qui séduit forcément dans un monde saturé d’évaluations et de stress : jamais de soupir, jamais de jugement, jamais d’agacement (on croit rêver) ! Mais à force de converser avec une entité sans humeur, l’apprenant se déshabitue de la relation humaine, de ses nuances et de ses failles… de ses efforts. La relation formatrice repose pourtant sur la rencontre entre deux subjectivités, pas sur l’illusion d’un dialogue parfait. Une IA peut simuler la compréhension, jamais l’empathie. Elle ne ressent rien. Or c’est dans ce “rien” que réside le cœur du problème : l’émotion vraie, celle qui fait grandir, naît de la réciprocité, pas du calcul.
Le formateur effacé : l’ère de la désintermédiation relationnelle
La désintermédiation relationnelle, déjà à l’œuvre dans le commerce ou la santé, gagne progressivement le champ de la formation. La machine devient l’interlocuteur principal, le formateur se trouve relégué en second plan, garant d’un dispositif plutôt qu’acteur d’une relation. L’IA prend la main sur le diagnostic, le suivi, l’évaluation. Elle s’interpose entre l’apprenant et le pédagogue, réduisant la rencontre à une interface. Or la valeur du formateur ne réside pas seulement dans sa compétence technique, mais dans sa capacité à créer du lien, à incarner le savoir, à inspirer (donner envie d'imiter, on y reviendra). Quand ce lien disparaît, la formation se vide de sa substance humaine. La pédagogie se transforme en procédure. Par ailleurs, former, c’est également prendre une responsabilité émotionnelle. Encourager, recadrer, confronter, motiver : autant d’actes qui supposent une présence réelle, une attention à l’autre, une conscience des effets produits. Une IA peut dire “bravo”, mais sans percevoir si ce mot tombe juste. Elle peut formuler un feedback, mais sans éprouver le malaise ou la satisfaction de celui qui le reçoit. Elle mime la relation, elle ne la vit pas. En déléguant à la machine cette responsabilité, les entreprises risquent de créer des environnements d’apprentissage plus polis que vivants, plus efficaces qu’humains. Ce n’est pas d’intelligence qu’ils manqueraient alors, mais d’altérité.
Tout apprentissage est imitation : à qui voulons-nous ressembler ?
René Girard écrivait que “tout apprentissage est imitation”. Nous apprenons en observant, en désirant reproduire un geste, une manière d’être, un rapport au monde. L’imitation suppose un modèle incarné, un être dont on veut s’approcher. Il est ici question de désir. Or, peut-on imiter une IA ? Peut-on désirer apprendre d’une entité sans visage, sans désir, sans vulnérabilité ? L’apprentissage, comme l’amour ou le travail, repose sur une dynamique mimétique : nous progressons par identification. Si le modèle disparaît, l’envie d’apprendre s’étiole. L’IA sait tout, mais ne veut rien. Le formateur, lui, veut que l’autre apprenne. Et c’est cette volonté, ce désir transmis, qui donne vie au savoir. L’enjeu n’est pas de savoir jusqu’où l’IA peut enseigner, mais jusqu’où nous voulons encore enseigner en tant qu’humains. Le formateur du futur ne sera pas remplacé par une machine : il cohabitera avec elle. Mais sa mission changera. Il devra être moins distributeur de contenus que gardien du lien, garant de la qualité émotionnelle de l’apprentissage, veilleur du sens dans un monde d’automatismes. L’IA pousse l’humain dans ses retranchements ? Tant mieux. Elle nous oblige à redéfinir ce qui nous rend irremplaçables : la capacité à douter, à ressentir, à vouloir que l’autre grandisse. L’avenir de la pédagogie ne dépendra pas de la puissance des algorithmes, mais de notre aptitude à préserver, au cœur même du numérique, l’intensité du lien humain. Introspection complexe, qui peut déboucher sur de douleureuses, mais salutaires, remises en question. Mais en cette matière les pédagogues ne sont pas les plus dépourvus !
|