
L'IA ne peut pas détenir la vérité
Il vient de la physique, a bifurqué vers la philosophie des sciences, et scrute désormais l'intelligence artificielle avec un regard que peu de chercheurs osent porter : celui de quelqu'un qui questionne les fondements mêmes de la connaissance. Pour Mathieu Guillermin, maître de conférence à l'Université catholique de Lyon, aucun système, aussi performant soit-il, ne peut se substituer au jugement humain dans le rapport à la vérité. Non par principe moral, mais par construction. « Le deep learning reste des additions, des multiplications — quelque chose de complètement mécanique. Ça n'a pas de capacité de jugement, pas d'expérience vécue. » Quand Elon Musk promet de faire de Grok une source of truth universelle, ou qu'Eric Schmidt évoque une superintelligence dont les humains ne pourraient plus comprendre les preuves, Guillermin y voit une dérive philosophique profonde : installer les machines au rang d'oracles, sans que personne ne soit plus en mesure d'évaluer ce qu'elles produisent.
Le danger, selon lui, n'est pas tant l'erreur — les algorithmes médicaux peuvent surclasser des médecins dans certaines tâches — que l'abandon de l'effort de vérification. Une logique proche, avertit-il, de la post-vérité. Il pointe aussi l'illusion du gain automatique : croire qu'implémenter un LLM crée de la valeur sans travail de réflexion préalable, c'est « égarer les gens ». Quant aux algorithmes de recommandation, ils constituent selon lui « le premier risque existentiel » — déjà à l'œuvre, désengageant progressivement les individus de tout effort intellectuel.
Lire la suite
🤯 Une dose d’intelligence artificielle dans vos podcasts ? Par ici !
C’est parti