Daniel Andler : l’IA est bluffante, mais loin d’être intelligente
Les prouesses des intelligences artificielles (IA) génératives fascinent. Daniel Andler, philosophe et mathématicien, démonte l’idée d’une IA « intelligente », et alerte sur ses biais et ses effets sur nos capacités cognitives. Derrière le coup de bluff technologique, il souligne l’urgence d’une régulation éthique.
Propos recueillis par Samuel Belaud, Bpi
L’accès généralisé aux intelligences artificielles (IA) génératives a suscité fascination et inquiétude. Aussi bluffante soit-elle, a-t-on raison de qualifier cette technologie d’« intelligente » ?
Daniel Andler : La réponse est simple : non. Nous avons tort de parler d’intelligence. En revanche, il existe ce que j’appelle des « effets d’intelligence », et ceux-ci sont effectivement de plus en plus bluffants. Demandez à une IA générative si vous pouvez prendre de l’aspirine en même temps que du paracétamol, elle vous donnera une réponse claire et argumentée. Vous pouvez même affiner cette réponse en dialoguant avec elle pour l’adapter à votre cas spécifique. C’est une avancée technologique remarquable, et nous aurions tort de ne pas être impressionné·es par sa capacité à traiter l’information et à manier le langage en un temps record.
Mais ces effets ne traduisent pas une intelligence comparable à celle des humains. Ces modèles s’inscrivent dans la continuité de ce que nous connaissons déjà, comme les moteurs de recherche. Prenez Google : il fournit des réponses rapides et pertinentes, ce qui peut également donner une impression d’intelligence. De manière similaire, un outil comme ChatGPT produit des résultats impressionnants, mais cela ne signifie pas qu’il se rapproche de l’intelligence humaine. Ce que les entreprises technologiques nous vendent, c’est l’idée que chaque progrès de leurs modèles les amène un peu plus près de l’intelligence humaine. Mais ce n’est pas le cas. Ces algorithmes progressent, oui, mais ils restent fondamentalement différents de ce que nous appelons l’intelligence.
« Ces outils, en nous rendant plus passifs, transforment subtilement mais profondément notre rapport à la connaissance. »
Daniel Andler
Ces modèles semblent cependant influencer notre manière de penser. Peut-on dire qu’ils imposent une vision particulière du monde ? En d’autres termes, l’IA est-elle neutre ou porte-t-elle en elle des biais culturels, économiques ou idéologiques ?
D. A. : Les IA ne sont pas neutres, et elles portent incontestablement des biais. Cela s’explique par trois raisons principales. D’abord, il faut parler de l’opacité de leur fonctionnement. Les entreprises technologiques protègent jalousement ce qu’elles appellent leur « sauce magique », autrement dit les détails de conception de leurs modèles. Cette opacité complique la compréhension des mécanismes qui sous-tendent les réponses produites par ces IA.
Ensuite, il y a l’intervention humaine dans leur développement. Après la première phase d’entraînement des modèles, des opérateurs interviennent pour ajuster les résultats. Ils censurent certains contenus problématiques – comme les propos sexistes ou les images pornographiques – et arbitrent entre différentes réponses possibles. Même si cette intervention vise à rendre les outils plus sûrs, elle reflète inévitablement les biais culturels ou idéologiques de ces opérateurs. Ces biais, parfois inconscients, influencent les réponses fournies par l’IA.
Enfin, il y a un biais plus insidieux. Ces technologies modifient notre manière de poser des questions et d’interagir avec l’information. Peu à peu, elles nous amènent à réfléchir selon leurs propres cadres, à attendre un certain type de réponse. Cela façonne notre manière de penser, souvent sans que nous en ayons conscience. À cela s’ajoute le risque d’un usage excessif, notamment chez les plus jeunes. Certaines études commencent à montrer que l’exposition massive aux IA génératives pourrait affaiblir leur capacité à réfléchir de manière autonome. Ces outils, en nous rendant plus passifs, transforment subtilement mais profondément notre rapport à la connaissance.
Cela signifie-t-il que l’intelligence artificielle contribue à un appauvrissement cognitif général ?
D. A. : C’est une menace réelle. Ces outils sont tellement « user-friendly » qu’ils peuvent devenir addictifs. Qui n’a pas été tenté de passer un peu trop de temps avec ChatGPT ? Mais il est crucial de ne pas se laisser dispenser d’exercer son esprit critique.
On entend souvent que les modèles génératifs sont très utiles pour produire un premier jet, par exemple pour écrire un texte. Mais j’ai deux objections à cette idée. D’abord, c’est justement lors de la phase du premier jet que notre intelligence s’exprime le plus. C’est là que notre créativité entre en jeu, que notre personnalité s’affirme. Confier cette tâche à une machine, c’est renoncer à cet effort essentiel et, à mon sens, ce n’est pas positif. Ensuite, à long terme, il y a un risque de perte d’habitude du sens critique. Face à une question un peu complexe, nous pourrions être tentés de déléguer systématiquement la réflexion à l’IA. Et cela pourrait affaiblir nos capacités cognitives.
Cela dit, je reste modérément optimiste. Nos facultés cognitives sont résilientes. Elles ne se transforment pas de manière permanente ni profondément en quelques années. Mais la vigilance est indispensable. Nous devons apprendre à utiliser ces outils intelligemment, sans perdre de vue notre propre capacité à penser.
Comment l’intelligence artificielle peut-elle, selon vous, servir éthiquement l’humanité ?
D. A. : J’insiste beaucoup sur l’importance de l’éducation. À tous les niveaux d’enseignement, il faudrait pratiquer ce que j’appelle le « bilinguisme technologique », c’est-à-dire apprendre à penser avec et sans technologie. Les élèves doivent savoir utiliser ces outils pour leur utilité pratique, notamment dans un cadre professionnel. Mais ils doivent aussi être capables de s’en passer, de réfléchir par eux-mêmes, de développer leur sens critique. Cela leur permettra de ne pas être complètement démunis si ces technologies venaient à leur faire défaut.
Je crois également à l’importance de la régulation. Le règlement européen sur l’intelligence artificielle me semble aller dans la bonne direction. Contrairement à l’administration américaine, qui s’oppose systématiquement à toute forme de régulation, l’Europe cherche à encadrer ces technologies pour protéger les citoyens et garantir un usage éthique. C’est une démarche essentielle.
Certains craignent que cette approche anti-régulation vise à faire de l’IA le bras armé des oligarchies. Une forme de régulation naturelle pourrait-elle émerger malgré tout ?
D. A. : La façon dont les États-Unis ou la Chine ambitionnent d’imposer leur hégémonie technologique me semble très inquiétante, notamment pour la démocratie. Néanmoins, je crois aussi à une domestication progressive de ces technologies sous deux effets.
D’une part, il y a la résistance des individus. Nous voyons déjà des jeunes qui refusent d’avoir des smartphones ou qui choisissent des modes de vie moins connectés. Ces comportements restent marginaux, mais démontrent qu’il est possible de résister à l’omniprésence technologique. Ces petits ruisseaux pourraient, un jour, devenir des rivières. D’autre part, le système actuel me semble non viable à long terme. Les rivalités géostratégiques, notamment entre les États-Unis et la Chine, ainsi que les limites techniques des modèles d’IA, finiront par poser des obstacles. La courbe exponentielle des progrès de l’IA s’oriente probablement vers un plateau et la viabilité du modèle économique de l’IA générative est loin d’être assurée. L’intelligence artificielle retrouvera alors son rôle véritable : un outil puissant, capable de rendre des services inédits, mais loin d’être une technologie magique qui transformerait radicalement nos sociétés.
Publié le 28/04/2025 - CC BY-SA 4.0
Pour aller plus loin
Intelligence artificielle, intelligence humaine. La Double énigme
Daniel Andler
Éditions Gallimard, 2023
Réflexion sur l’essence de l’intelligence humaine et sur les différences avec l’intelligence artificielle qui, en dépit des progrès constants de la science, ne peut pas s’en approcher. L’auteur explique qu’il est vain de chercher à créer des systèmes dotés d’une autonomie totale et d’une forme inhumaine de cognition, et démontre l’intérêt de concevoir des outils dociles, puissants et versatiles. © Électre 2023
À la Bpi, Communication et information, 301.56 AND
L'IA peut-elle penser ? Miracle ou mirage de l'intelligence artificielle
Hubert Krivine
De Boeck supérieur, 2021
L’auteur décrypte les capacités et les limites de l’intelligence artificielle. Il interroge notamment le rôle des corrélations dans la genèse de l’intelligence, qu’elle soit humaine ou artificielle, soulignant que celles-ci, qu’elles soient causales ou non, permettent de prévoir. Or, si cela suffit dans de nombreux cas, elle ne permettent pas nécessairement de comprendre et d’expliquer.
À la Bpi, Informatique, 681.7 KRI
Ce que l'intelligence artificielle ne peut pas faire
Jacques Luzi
Éditions La Lenteur, 2024
Essai sur les limites de l’intelligence artificielle ainsi que sur les dangers de son utilisation systématique. L’auteur argue qu’elle participe à la sophistication des armements, et donc à leur dangerosité, à l’aggravation de l’impact écologique destructeur du numérique ou encore à la dégradation du travail humain. © Électre 2024
À la Bpi, Informatique, 681.7 LUZ
Ce qui échappe à l'intelligence artificielle
François Lévin, Étienne Ollion
Hermann, 2024
Devenue omniprésente dans les discours ainsi que dans les sciences et techniques, l’intelligence artificielle modifie en profondeur le quotidien des individus, franchissant régulièrement de nouvelles frontières auparavant jugées inaccessibles. Face à ces progrès exponentiels, les auteurs interrogent les limites des algorithmes et les domaines de la vie qui semblent leur échapper.
À la Bpi, Informatique, 681.7 CEQ
La Fin de l'individu. Voyage d'un philosophe au pays de l'intelligence artificielle
Gaspard Koenig
Éditions de l'Observatoire, 2019
Une réflexion philosophique sur l’intelligence artificielle et la menace qu’elle représente pour le libre arbitre humain. L’auteur présente sa philosophie libérale et s’interroge sur l’autonomie et la responsabilité de l’individu face à ce défi posé à l’humanité. © Électre 2019
À la Bpi, Informatique, 681.7 KOE
Les champs signalés avec une étoile (*) sont obligatoires