Un lycéen ou un étudiant qui remet un travail écrit parfait ; un collaborateur qui fournit une analyse pertinente d’une situation, voire qui fournit aussi le PowerPoint adéquat, bien léché et articulé, qui va avec l’analyse, nous impressionne même si l’on sait qu’un LLM a été utilisé. Cette technologie permet à celui qui en voit le résultat, professeur ou collaborateur, d’être satisfait de la qualité du résultat. Elle permet à celui qui a utilisé le LLM pour réaliser le produit fini d’être lui aussi satisfait et de croire qu’il a acquis ces connaissances.
Mais le professeur ou le collègue s’interroge aussi de plus en plus fréquemment sur la façon dont cette apparente perfection a été atteinte. Alors le premier décide de faire passer un oral et le second va questionner l’auteur sur son travail, ses sources, sa pertinence critique des résultats, etc.
Le problème est qu’en faisant passer un oral à l’étudiant ou qu’en interrogeant le collaborateur sur la façon dont il a procédé, comment il a sourcé ses informations, comment il peut commenter et avoir une opinion sur les conclusions, ces derniers peuvent apparaître pauvres, voire incompétents, donc décevants. Mais il n’y a pas que le professeur ou le collègue qui sont déçus. À l’oral, celui qui doit se justifier sent bien qu’il n’est pas au niveau, qu’il n’a fait que jouer à l’illusionniste. Le complexe de l’imposteur va bien se porter ! La dévalorisation, voire la honte, ainsi provoquée sera probablement l’un des enjeux psychologiques des prochaines années. Il faudra éduquer à utiliser mieux les LLM, à exercer son esprit critique, à comprendre, à assimiler ce que l’on a produit avec ces outils magiques.
Cette relation entre la compétence et le résultat soulève un vrai problème, celui de la relation à l’apprentissage et donc au savoir. Utiliser l’IA est comme prendre l’ascenseur plutôt que l’escalier. C’est une réduction de l’effort et donc la non-acquisition de muscles physiques ou cognitifs. Cela va plus loin. L’utilisation des outils modernes, et en particulier les moteurs de recherches, présente déjà cet inconvénient, en amenant chacun à savoir où il peut retrouver l’information plutôt que de connaitre ou de comprendre l’information. Or ne connaitre que des emplacements d’information n’est pas de la connaissance et ne permet pas de faire des liens entre des connaissances. En bridant l’acquisition et la digestion de compétences, on bride l’innovation en ce qu’elle est la capacité à construire des ponts entre des savoirs.
L’IA pourrait donc amplifier une atrophie cognitive dont nous souffrons déjà. Le GPS fait que nous ne savons plus lire une carte, et donc avons des problèmes à nous situer géographiquement. Les calculettes ont atrophié notre calcul mental. Les LLM en particulier en nous faisant croire que nous avons des savoir-faire et en nous permettant de le faire croire à d’autres, nous dispense d’en acquérir. Ce n’est grave que si nous renonçons systématiquement à prendre l’escalier. Le coupable n’est pas l’IA mais notre paresse intellectuelle.
Vidéo disponible ici

