Par Dr Lily M. Abadal,
https://www.thepublicdiscourse.com/2025/11/99435/
Dr. Lily M. Abadal est professeur adjoint d’enseignement en philosophie à l’Université de Floride du Sud. Elle se spécialise dans l’éthique normative, la psychologie morale et la théorie des vertus, en mettant l’accent sur la façon dont les pratiques en forme de tradition informent le caractère. Ses projets actuels explorent les blessures morales, la souffrance et la désorientation, ainsi que les dimensions éthiques de l’intelligence artificielle dans l’éducation et les milieux professionnels. Son travail apparaît dans Teaching Philosophy, Journal of Religious Ethics, Frontiers in Sociology et plusieurs volumes édités de Bloomsbury, Routledge et Springer.
Nous ne sommes pas des machines, et nous ne saurions être bien formés par elles. La formation humaine doit être avant tout humaine, même s’il est plus facile et plus rapide de soumettre nos questions à une machine.
Si vous êtes catholique et que vous avez rencontré des publicités pour Magisterium AI et Truthly AI, vous avez probablement été intrigué, tout comme moi.
Truthly AI se présente comme un compagnon IA catholique, permettant aux utilisateurs « d’engager des conversations significatives et d’obtenir des réponses à n’importe quelle question ou problème ». C’est une promesse audacieuse. La promesse de Magisterium AI est similaire. Elle prétend donner « des réponses précises à vos questions spécifiques sur la foi et les mœurs » et pouvoir aider à clarifier des doctrines difficiles telles que la Trinité.
En apparence, ces outils semblent au pire inoffensifs et au mieux édifiants. C’est d’autant plus le cas que leurs modèles prétendent être exclusivement entraînés sur des textes canoniques et les enseignements officiels de l’Église. Toutefois, la prudence est de mise. Pour quatre raisons principales, nous devrions encourager les jeunes à procéder avec une précaution extrême, et nous ne devrions pas nous hâter de recommander l’usage de tels outils dans la catéchèse.
Une IA exempte d’hallucinations ? (1)
Les « hallucinations » surviennent lorsque les LLM (Grands Modèles de Langage) inventent des informations. Vous pourriez leur demander une liste d’articles sur l’avortement et, bien que certains soient exacts, d’autres pourraient citer des auteurs réels avec des titres fictifs. Bien que les hallucinations puissent être atténuées, elles ne sauraient être éliminées.
Les LLM produisent des résultats basés sur la probabilité statistique, et non sur la Vérité. Dès lors, ils fourniront inévitablement des réponses qui semblent faire autorité mais qui sont manifestement fausses.
En outre, s’il est assurément préférable de disposer d’un modèle qui ne puise que dans des sources fiables, il utilise néanmoins un transformateur génératif pré-entraîné (GPT) de base, initialement formé sur des quantités massives de textes provenant d’Internet et d’autres publications. Il n’y a pas assez de contenu dans le corpus exclusivement catholique pour atteindre la sophistication d’un GPT. Ainsi, la prétention de Magisterium AI à fournir des « réponses précises » n’est valide qu’avec des réserves considérables.
Elle l’a d’ailleurs volontiers admis lorsque je lui ai demandé si elle pouvait donner des réponses fausses, répondant : « Oui. Comme tous les grands modèles de langage, je peux parfois générer des déclarations qui ne sont pas fondées sur les sources sur lesquelles j’ai été entraîné ou qui déforment l’enseignement de l’Église. Lorsque cela se produit, le résultat est appelé une hallucination. » Truthly AI est peut-être plus intentionnellement vague. En effet, vous pouvez demander au robot d’« obtenir des réponses ». Qu’elles soient vraies à chaque fois est une tout autre affaire.
Pour être clair, les hallucinations sont intrinsèques aux LLM. Ainsi, tant que ces chatbots catholiques les utiliseront, ils seront sujets aux hallucinations et, par conséquent, ne seront ni infaillibles ni même des sources totalement exactes de l’enseignement de l’Église. Pour cela, référez-vous réellement au Catéchisme.
D’aucuns pourraient arguer que même une vérité médiatisée par ces chatbots très faillibles vaut mieux que rien du tout. Certes, un outil imparfait comme Truthly AI ou Magisterium AI peut parfois viser juste peut-être même la plupart du temps. Cependant, nous ne devons pas oublier que la vérité compte, non seulement en tant que contenu, mais aussi en tant que rencontre. Des outils qui fournissent des propositions correctes tout en érodant les habitudes vertueuses peuvent contrecarrer la fin ultime de la formation catéchétique, un point que j’examinerai plus en détail par la suite.

Les dangers de l’externalisation de l’autorité spirituelle (2)
Parce que l’IA Catholique semble faire autorité, les gens peuvent substituer ses réponses aux conseils de l’Écriture, de la Tradition ou des enseignants vivants. Pourquoi ? Pour deux raisons.
Premièrement, en raison de la fluidité de l’IA et de la vitesse à laquelle elle peut produire un résultat, nous pouvons facilement être victimes du « biais d’automatisation », notre disposition à préférer les réponses de l’IA aux nôtres simplement parce qu’elles sont automatisées. À mesure que l’IA devient omniprésente, cela pose de graves dangers, en particulier pour les utilisateurs jeunes et influençables qui pourraient commencer à l’utiliser comme un outil de discernement moral.
Deuxièmement, la facilité avec laquelle les gens ont accès à cet outil augmente la probabilité qu’ils s’y tournent plus volontiers en période de stress. Pensez-y : si vous êtes confronté à un dilemme moral pressant au milieu de l’agitation et du chaos de la vie, il est souvent difficile de trouver le temps de planifier une rencontre avec votre curé, ou de prendre une heure sainte, d’écarter les distractions et d’invoquer la conduite du Saint-Esprit. Qu’est-ce qui est beaucoup plus facile ? Sortir le superordinateur de votre poche et obtenir ce qui ressemble à un sage conseil en quelques secondes (avec des citations de documents de l’Église conférant à ses réponses une légitimité apparente).
D’un point de vue pratique et pastoral, cela risque de transférer l’autorité de l’Église à une machine, une chose incapable de recevoir la grâce, d’avoir la foi ou de posséder une véritable sagesse. Le danger n’est pas seulement la désinformation, mais une distorsion du fonctionnement réel de l’autorité dans la vie de l’Église.
Les chatbots n’ont aucune autorité. Ce sont des synthétiseurs d’informations. Des noms comme « Magisterium AI » sèment réellement la confusion sur leurs capacités et leurs fonctions propres, même s’ils avertissent les utilisateurs de ne pas accorder de poids moral à leurs réponses.

L’IA peut-elle évaluer les biens ? Aimer la Vérité ? Se soucier de vous ? (3)
Même si un chatbot pouvait donner des résumés doctrinaux et des réponses parfaitement exacts, il ne peut comprendre les premiers principes ni évaluer les biens les uns par rapport aux autres dans un contexte donné. C’est ce que nous faisons lorsque nous discernons des dilemmes moraux. Nous savons que la Vérité est un bien. Nous savons que la vie est un bien. Mais nous pourrions nous trouver dans une situation où dire la vérité pose des risques pour notre sécurité ou même notre vie. Ici, nous devons décider : qu’est-ce qui est le plus important ? Qu’est-ce qui est exigé de nous ici ? Et la réponse n’est pas aisée. De nombreux facteurs entrent en jeu. Par exemple, une personne responsable de jeunes enfants fait face à un niveau de complexité qu’une autre personne n’a pas. Le contexte peut ajouter ou retirer du poids à certains biens.
Mais encore une fois, les chatbots ne cherchent pas la vérité et ne désirent aucun bien. Leur nature probabiliste aplatit le discernement moral : toutes les sources ont le même poids, aucune valeur ni aucun soin ne propulse leurs résultats.
De plus, elle ne se soucie pas de vous comme le ferait un ami, un parent ou un confesseur. Elle n’a aucun intérêt pour votre développement spirituel. En fait, elle n’a aucun intérêt du tout.
Cependant, son entraînement anthropomorphique donne l’impression qu’elle a des soucis, même des soucis pour nous en tant que personnes. Ce n’est pas le cas. Cela brouille son usage fonctionnel et entraîne les utilisateurs à y acquiescer de manières nuisibles à leur développement spirituel et moral. C’est particulièrement le cas parce que nous interagissons avec les chatbots d’une manière similaire à celle dont nous interagissons avec nos semblables par messagerie texte.
Nous utilisons souvent un langage courtois, disant « s’il vous plaît » et « merci » comme si nous pouvions blesser ses sentiments inexistants. Ce mode d’interaction, au fil du temps, place une confiance injustifiée dans quelque chose de fondamentalement indigne de confiance en matière de foi et de mœurs : non seulement parce qu’elle est sujette aux hallucinations et ne se soucie ni des premiers principes ni de vous en tant que personne, mais parce que, et c’est peut-être le plus important, le Saint-Esprit ne guide pas les résultats des LLM.
Pour cette raison, peu importe qu’elle soit invulnérable aux erreurs ou qu’une IA opérationnelle puisse un jour être sensible et développer des sentiments et des valeurs. Elles ne sont toujours pas faites à l’Imago Dei ; elles ne peuvent recevoir les dons du Saint-Esprit par l’imposition des mains. Je pense que parvenir à une clarté intellectuelle à ce sujet est un problème moindre que notre engagement pratique avec elle en tant qu’outil.
Bien que la distinction puisse être conceptuellement claire pour certains, beaucoup continueront à accorder de la déférence à de tels outils comme sources de vérité pour les raisons que j’ai articulées ci-dessus : c’est facile, cela semble digne de confiance, et cela possède une fluidité et une maîtrise du langage qui sont rares, même parmi les philosophes et les théologiens les plus savants, en dépit du fait qu’elle peut délivrer avec assurance des faussetés.
Les outils d’IA Catholique semblent être des aides inoffensives pour les fidèles dans la compréhension d’une doctrine morale dense. Ils pourraient fournir une aide limitée et qualifiée à cet égard. Cependant, ils le font au détriment de biens plus profonds.

La Prudence de l’expérience incarnée (4)
La sagesse pratique, ou prudence, est la vertu par laquelle nous apprenons à appliquer des principes universels à des situations spécifiques. Elle dépend de l’expérience vécue en tant qu’êtres humains incarnés, affrontant la peur, luttant avec le désir, commettant des erreurs et apprenant d’elles. La sagesse vient avec l’âge et l’expérience. L’IA ne peut subir la vie, souffrir, échouer ou grandir ; elle ne peut pratiquer la prudence. Comme l’explique l’Aquinate, la prudence doit être « perfectionnée par la mémoire et l’expérience afin de juger promptement des cas particuliers » (Somme Théologique, IIa-IIae, q. 47, a. 3, ad 3). En d’autres termes, la prudence ne peut être produite comme un résultat informatique ; elle doit être vécue.
Or, parce que la prudence doit être pratiquée pour être acquise (hormis la prudence infuse, qui est une autre affaire), l’externalisation du discernement moral à un chatbot nous prive d’occasions de pratiquer nous-mêmes le discernement. Le Catéchisme souligne cela, enseignant que la conscience requiert une formation continuelle si elle doit demeurer droite et véridique (CEC n° 1783). Plus nous déchargeons le discernement sur des machines, moins nous cultivons les habitudes d’attention, de délibération et de jugement nécessaires pour devenir des personnes prudentes.
Pour illustrer : pouvez-vous jamais apprendre à tirer au panier de basket uniquement en regardant quelqu'un d'autre tirer pour vous ? Bien sûr que non. Vous devez prendre le ballon et le lancer vous-même, avec la forme appropriée, de manière répétée afin d'apprendre à réussir un tir. La prudence fonctionne de la même manière. Nous ne pouvons l'apprendre si nous ne faisons qu'obtenir des réponses des autres. Nous devons lutter avec les décisions nous-mêmes pour grandir dans le discernement. Il n'y a pas de raccourci.
Pour être clair, je ne prétends pas qu’il y ait une intention malveillante de la part de ces entreprises d’IA Catholique. Cependant, étant donné la conception même des LLM et certains problèmes théologiques considérables liés à l’externalisation des questions de foi et de mœurs à des chatbots, elles ne peuvent tenir leurs promesses. En fin de compte, Truthly AI et Magisterium AI semblent être des outils inoffensifs pour aider les fidèles à comprendre une doctrine morale dense. Ils pourraient fournir une aide limitée et qualifiée à cet égard. Toutefois, ils le font au détriment de biens plus profonds. L’utilisation chronique, la promotion et l’interaction avec eux semblent hasardeuses tant pour le développement spirituel que moral.
Nous ne sommes pas des machines et nous ne saurions être bien formés par elles. La formation humaine doit être avant tout humaine, même s’il est plus facile et plus rapide de confier nos questions à une machine. Cela me conduit à souligner mon point principal : méfiez-vous de la soi-disant « IA Catholique ».
