0   Commentaires
Interview
Appartient au dossier :

« L’intelligence artificielle transforme le monde »

Androïde
CC0 Franck V pour Unsplash
À la fin des années 1980, à la stupeur générale, Garry Kasparov, célèbre joueur d’échecs, était battu par un ordinateur. Depuis, nous nous sommes habitués aux performances exponentielles des machines, à recourir quotidiennement à leurs services, et même à dialoguer avec elles. Mais les processus à l’œuvre et les répercussions sur nos vies demeurent, pour la plupart d’entre nous, mystérieux et alimentent bien des fantasmes.
Professeur d’informatique à Sorbonne Université et conseiller scientifique du cycle Intelligences artificielles, Jean-Gabriel Ganascia retrace le développement de l’intelligence artificielle et pose sur ces problématiques un regard distancié et confiant.

Que désigne l’intelligence artificielle ?

L’intelligence artificielle est une discipline scientifique qui naît en 1955. Le mot est inventé par deux jeunes mathématiciens, John McCarthy et Marvin Lee Minsky qui ont eu l’idée d’étudier l’intelligence en la décomposant en fonctions cognitives si élémentaires que l’on puisse les simuler sur ces objets nouveaux pour l’époque qu’étaient les ordinateurs. En soixante ans, cette entreprise a été poursuivie par de nombreux chercheurs qui en ont montré la fécondité : la perception, à savoir le passage de l’information enregistrée par des capteurs à une représentation, le fonctionnement de la mémoire, l’apprentissage, le raisonnement vu comme un calcul sur les représentations, la communication par la parole ou les gestes, etc. Toutes ces fonctions ont fait l’objet de beaucoup de simulations informatiques. L’intelligence artificielle concerne aussi les robots : la mise en œuvre des décisions sur une machine est aussi modélisée.

Tout cela dessine un paysage assez vaste et nous permet de mieux nous comprendre en tant qu’humain. Une fois modélisées sur un ordinateur, les fonctions cognitives font l’objet d’applications pratiques. Par l’ampleur de son champ, l’intelligence artificielle transforme le monde. Par exemple, le web est lié à l’intelligence artificielle. C’est un modèle de mémoire, l’hypertexte, couplé au réseau de communication Internet.
Autre exemple, la reconnaissance des visages. Cela peut être tout à fait ludique, ou pratique pour les gens peu physionomistes. Mais cela peut être un cauchemar si vous imaginez des policiers capables de vous retrouver automatiquement pour vous verbaliser parce que vous avez laissé tomber un papier par terre ou que vous avez traversé au feu rouge.

En quoi l’intelligence artificielle se distingue-t-elle ou se rapproche-t-elle de l’intelligence humaine ?

C’est une très bonne question, parce que l’objectif initial était de mieux comprendre l’intelligence humaine, de la modéliser, de faire quelque chose qui s’en rapproche le plus possible. En même temps, reproduire exactement le fonctionnement du cerveau est impossible.
C’est donc une simplification qui permet de rendre compte de processus cognitifs. À chaque fois qu’un modèle est créé, il est confronté à la réalité. Quand on s’aperçoit qu’il n’est pas tout à fait conforme et qu’il y a un écart avec les facultés intellectuelles humaines que l’on cherche à approcher, de nouveaux modèles sont introduits pour réduire cet écart. Comme pour la physique ou l’astrophysique, chaque difficulté aide à progresser dans la compréhension.

De quelle manière l’intelligence artificielle est-elle déjà présente dans notre quotidien ?

Dans nos vies, la première chose, c’est le web. Ensuite, ce sont nos téléphones portables, qui contiennent beaucoup d’intelligence artificielle : les techniques de reconnaissance vocale, digitale ou faciale. L’intelligence artificielle, c’est aussi le traitement de grandes masses de données, dans le domaine médical ou dans le domaine du marketing pour faire de la publicité ciblée.

Ce sont quelques exemples, mais il faut savoir que toutes les sciences, aujourd’hui, sont transformées par l’intelligence artificielle. On procède à des expériences in silico, c’est-à-dire directement sur des données au moyen de calculs complexes informatisés ou de modèles informatiques.
Les démarches expérimentales classiques passaient par la mise en place de dispositifs matériels destinés à valider telle ou telle hypothèse théorique en confrontant les données recueillies sur ces dispositifs avec celles qu’anticipait l’hypothèse de départ. Tandis qu’aujourd’hui, les biologistes, avec le séquençage du génome, les physiciens ou les astrophysiciens ou encore les psychologues, grâce à la prolifération de capteurs à bas coût, engrangent d’immenses quantités de données, sur lesquelles ils peuvent tester des hypothèses.
Il est même possible de générer automatiquement tout un tas d’hypothèses, puis de les faire évaluer de façon systématique par une machine !

Pouvons-nous considérer qu’une intelligence artificielle, en particulier lorsqu’elle s’incarne dans un corps, peut avoir des émotions ?

Le principe des interfaces humain-machine repose sur la projection d’un agent imaginaire sur une entité artificielle. Cela a été théorisé par le philosophe Daniel Dennett, avec les systèmes intentionnels. On suppose implicitement qu’il existe un agent mû par des intentions, que cet agent possède des désirs et qu’il dispose d’un certain nombre de moyens d’action qu’il mobilise à sa guise en vue de réaliser ses propres désirs.

Est-ce que nous pouvons considérer qu’il a des émotions ? Non, pas au sens propre, parce qu’une machine n’est jamais qu’un assemblage de dispositifs élémentaires, tous maîtrisables. Il n’y a pas d’organicité ; la machine n’a pas d’instinct de survie ; elle ne possède pas ce que Spinoza appelait le « conatus », à savoir la capacité à accroître d’elle-même sa puissance d’être. En tout cas, si elle avait des émotions, celles-ci seraient certainement très différentes des nôtres, parce qu’elles répondraient aux besoins de la machine qui n’ont rien à voir avec nos contraintes vitales, d’ordre biologique.
 
Robot
CC0 Franck V pour Unsplash

Quels sont les domaines dans lesquels l’intelligence artificielle se développe le plus actuellement, et dans lesquels elle peut avoir un impact très important dans notre vie quotidienne ?

Je crois que dans le domaine de la santé, l’intelligence artificielle a vraiment beaucoup d’importance aujourd’hui. En tout cas, beaucoup espèrent l’utiliser. Est-ce que cela aura un grand impact sur nos vies ? Je ne le sais pas, c’est une question ouverte. Dans le domaine des transports, il y a les essais de voitures autonomes, mais pas seulement. L’intelligence artificielle permet aussi de réguler la circulation des trains, des métros, des voitures, etc.

Dans le domaine des technologies financières, elle joue déjà un rôle important, pour anticiper les risques. Peut-être y aura-t-il de nouvelles formes d’assurance fondées sur l’exploitation systématique de toutes les données disponibles — par exemple de toutes les traces que nous laissons sur les réseaux sociaux et qui indiquent si nous fumons, si nous sortons le soir, si nous faisons du sport, etc. — pour déterminer le montant, plus ou moins élevé, de la prime que nous aurons à verser ?

Dans le domaine de la défense, certains s’inquiètent de « robots tueurs », à savoir de machines qui décideraient elles-mêmes qui sont les ennemis, et qui engageraient le tir sans consulter qui que ce soit. Cela relève toutefois d’un imaginaire nourri de mythes anciens. En revanche, l’intelligence artificielle a beaucoup d’autres applications dans ce secteur ; ainsi il existe d’ores et déjà des robots qui vont traquer les mines tous seuls, et évitent à beaucoup de soldats de se faire exploser. Le rapport Villani sur l’intelligence artificielle cite aussi les domaines de l’environnement, de l’agriculture, etc.

L’intelligence artificielle ne risque-t-elle pas de reproduire des discriminations produites par les humains ?

La machine est le reflet de ce que nous sommes. Les capteurs ne sont pas « objectifs ». Il y a toujours un biais : l’œil ne perçoit que certaines choses, certaines longueurs d’ondes, avec une certaine résolution. L’apprentissage machine va extraire automatiquement des connaissances à partir de traces physiques enregistrées, par exemple d’une photo. Là encore, il y a énormément de façons de paramétrer les systèmes afin d’extraire plutôt tel ou tel type d’informations. Il faut comprendre qu’il n’y a aucune objectivité dans l’apprentissage machine, contrairement à ce que beaucoup de technophiles fanatiques veulent nous faire croire.

Poser la question de la manière dont vous le faites laisse entendre que, parce que c’est une machine, il y aurait plus de neutralité que si c’était un humain. Je crois que ce n’est pas le cas. En revanche, c’est un outil très utile dans certaines circonstances, à condition de bien en comprendre les limites, et aussi de savoir quels sont les éléments d’informations qui ont été pris en considération pour parvenir à une décision. Sinon, on a ce que l’on appelle une « boîte noire », c’est-à-dire une mécanique aveugle qui nous impose un résultat en nous laissant complètement démunis.

Vous êtes président du Comets, le Comité d’éthique du CNRS, et membre de la CERNA, la Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene. Quelles questions soulève l’intelligence artificielle dans ces instances ?

L’éthique est directement reliée aux mœurs, aux usages, aux habitudes, à la vie en société. Progressivement, de nouvelles questions sont apparues avec la généralisation de l’usage du numérique. Par exemple, la notion de confiance évolue. Est-ce que c’est la même chose avec la blockchain qu’avec la parole donnée ? Dans l’antiquité, un testament écrit était suspect, car falsifiable. Il fallait qu’il y ait des témoins pour « attester ». La parole valait donc plus que l’écrit. Maintenant, la machine est supposée être plus fiable que la parole ou l’écrit.

Avec l’intelligence artificielle, des automates vont pouvoir récolter les informations et prendre des décisions sans l’intervention d’humains. Donc, bien sûr, des questions de responsabilité se posent. Que se passera-t-il si cet automate a une action néfaste ou prend une décision contraire à ce qui avait été imaginé ? Qui est responsable ? Est-ce qu’il y aura une responsabilité propre des machines ? Quel sens cela peut-il avoir d’incriminer une machine ? Voilà autant de questions nouvelles qui se posent aujourd’hui.

Des androïdes, des intelligences artificielles incorporées, peuvent-ils avoir des droits au même titre que les humains ?

Le problème tient au statut juridique des robots. Un rapport du Parlement européen, écrit par la députée luxembourgeoise Mady Delvaux, a proposé d’étendre l’idée de personnalité morale, qui existe pour les sociétés, aux robots. Mais la notion de robot n’est pas clairement définie dans le droit.
Cela laisse entendre que les robots vont être considérés comme des personnes, ce qui fait peur, c’est d’ailleurs pour cela que tout le monde s’en émeut. En même temps, en analysant les choses de près, cela n’a aucun sens, parce que les robots n’ont pas vraiment d’autonomie. Leur donner une personnalité juridique permettrait sans doute d’indemniser les victimes en cas d’accident ; c’est d’ailleurs ce qui justifie cette idée qui paraît au premier regard un peu saugrenue. Cela correspond à ce que les spécialistes appellent une « fiction juridique ». A priori, cela semble une bonne idée.

Cependant, à l’examen, je pense que c’est tout à fait critiquable. Pour que l’on soit en mesure d’indemniser les victimes, il faudrait que les fabricants ou les utilisateurs cotisent à des caisses d’assurance. De plus, cela voudrait dire que, pour certains accidents, il n’y aurait pas d’enquêtes. Certes, les victimes seraient indemnisées plus rapidement, mais sans enquête, la vraie responsabilité ne serait jamais établie. En réalité, le robot ne peut être responsable, car il n’est pas libre, au sens propre ; il y a toujours des humains derrière qui lui donnent des objectifs.
Sans détermination précise de la responsabilité humaine, on ne saura jamais ce qui a causé l’accident ; de ce fait, la technologie ne pourra pas être modifiée, ni améliorée, donc, à terme, cela peut être très dangereux. De ce point de vue, je crois qu’il ne faut surtout pas donner de personnalité juridique aux robots !

L’intelligence artificielle fait évoluer les relations entre les individus. Mais peut-elle avoir des conséquences sur l’équilibre géopolitique ?

Beaucoup de gens laissent entendre qu’un jour l’intelligence artificielle va prendre son autonomie, qu’elle va constituer un danger pour l’existence humaine. À titre personnel, j’ai du mal à y croire, parce que nous sommes très loin de réalisations qui prennent vraiment leur autonomie au sens où elles auraient des volontés propres, distinctes des nôtres.

En revanche, je crois que des transformations politiques extrêmement importantes sont liées à l’intelligence artificielle et au numérique en général. Aujourd’hui, les territoires sont traversés d’influences diverses et l’intelligence artificielle joue un rôle majeur, parce qu’elle participe à la propagation des données et à l’analyse des informations ; il s’ensuit que la notion d’État de droit fondée sur la co-extension du territoire et de l’État, telle qu’elle a été théorisée au XVIIIe siècle avec les philosophes des Lumières, est remise en cause. C’est le premier point.
Le deuxième, c’est l’importance de nouveaux acteurs que l’on appelle les géants de l’Internet ou les GAFA. Ils sont plus forts que les États et les défient d’ailleurs à bien des égards. Ils ont, je crois, une ambition politique qui va au-delà de la simple ambition économique. Ils veulent assumer un certain nombre d’attributs de la souveraineté qui relevaient traditionnellement de la fonction des États.

Les œuvres de fiction autour de l’intelligence artificielle peuvent-elles être le point de départ pour des développements technologiques ?

Comme toujours, c’est un aller-retour, parce que beaucoup d’œuvres de science-fiction se sont inspirées du développement de la technologie dans les années 1940 et 1950. En revanche, la notion de robot vient de la science-fiction. Le terme provient de la pièce de théâtre R. U. R. (Rossum’s Universal Robots) de Karel Čapek. Les premiers automates sont réalisés au même moment. Le mot « robot » a été réutilisé par des ingénieurs pour désigner la discipline qui se consacre à la conception des automates, ce qui veut bien dire que la science-fiction sert de source. C’est un tressage de l’un à l’autre.

En général, les grands films de science-fiction aux États-Unis sont faits par des cinéastes qui demandent à des scientifiques de les aider. Par exemple : Marvin Lee Minsky, qui était à l’origine de l’intelligence artificielle, a lui-même été le conseiller scientifique de Stanley Kubrick pour 2001, l’Odyssée de l’espace.
L’étude de la science-fiction est très intéressante, parce qu’elle nous donne un très bon reflet de ce qu’est l’état de la science à un moment donné dans les laboratoires. Minority Report correspond à un certain nombre de choses sur les interfaces humain-machine. Her concerne les agents conversationnels, etc. Il y a donc une stimulation mutuelle, réciproque, très ancienne entre la fiction et la science-fiction.

Ce qui est très dangereux, c’est lorsque les deux sont mélangées sans qu’il soit possible de savoir si c’est de la science ou de la science-fiction. À ce moment-là, on a affaire à un discours qui se prétend rationnel, mais qui, en réalité, est fondé sur l’imaginaire. C’est très gênant avec les tenants de la Singularité technologique aujourd’hui. Ils se présentent comme ingénieurs, comme chercheurs, comme hommes d’affaires, et ils nous disent que cela va arriver, mais en réalité, ce n’est que de la fiction.

Propos recueillis par Sébastien Gaudelus et Marie-Hélène Gatto, Bpi
Article paru initialement dans de ligne en ligne n°27

Tags :
intelligence artificielle
Captcha: