Qu’est-ce que l’intelligence artificielle ?

Le cerveau reconfiguré

Citation : Fraser, P. (2019), « Intelligence artificielle, le fantasme de la conscience », Panoramas, repères et fragments, vol. 1 n° 2, Paris : Éditions V/F, p. 25-29.


Il existe un autre courant de recherche en intelligence artificielle, l’IA forte (strong AI) qui répond très simplement à la question Qu’est-ce que l’intelligence artificielle ? Il s’agit dedévelopper, élaborer, construire et produire une entité intelligente non biologique incarnée dans le monde réel. Pour ce courant de l’intelligence artificielle, il ne s’agit nullement de mimer un comportement intelligent, mais bien d’être en présence d’une autre intelligence ou d’une autre forme d’intelligence. Et l’hypothèse de travail qui sous-tend cette approche est celle voulant que l’être humain soit fondamentalement et essentiellement une machine qui traite l’information et rien d’autre.

Cette hypothèse de travail, plus généralement connue sous le nom de Théorie computationnelle de l’esprit (computationnalisme), une théorie développée par les philosophes américains Hilary Putnam (1926-2016) et Jerry Fodor, conçoit l’esprit comme un système de traitement de l’information et compare la pensée à un calcul. Conséquemment, si cette hypothèse s’applique à toute entité intelligente, biologique ou non, c’est que cette entité intelligente doit obligatoirement disposer d’états mentaux qui existent de manière irréductible et définis par leur rôle fonctionnel.

Il va sans dire que nous n’en sommes pas encore au stade de l’IA forte. Toutefois, il faut supposer que, étant donné que le développement de l’IA est incrémental, une multitude d’étapes intermédiaires jalonneront le parcours. Par exemple, si on part de l’idée qu’une intelligence générale n’est que l’émergence de la somme de plusieurs compétences sensorimotrices spécialisées, il faut alors supposer que, lorsqu’une masse critique de compétences sera atteinte, la conscience émergera effectivement. Si on suppose un instant que cette hypothèse puisse, pour une raison ou une autre, être valable, et que l’entité non biologique qui en est tributaire agit de façon intelligente, dans quelle mesure sera-t-elle pour autant capable d’agir dans des environnements constamment changeants si elle ne dispose pas des compétences spécialisées requises ? C’est ici qu’intervient la question de l’apprentissage ou du non-apprentissage.

Quand l’être humain est confronté à une situation qu’il n’a jamais rencontrée, il ne se connecte pas à un quelconque réseau pour apprendre de quoi il retourne pour agir par la suite — ici, impossible de mobiliser le processus d’essai et d’erreur. Son cerveau déduit rapidement ce qui doit être fait en fonction de situations relativement similaires qu’il a déjà rencontrées, ce qui lui permet d’agir soit efficacement, soit moins efficacement, soit de façon tout à fait inadéquate.

Concrètement, dans une toute nouvelle situation qui exige une réponse rapide, apprendre est à la fois une perte de temps et une entreprise hautement risquée d’un strict point de vue évolutionniste. Il faut donc imaginer un tout autre processus pour permettre à une entité non biologique de réagir alors qu’elle est immergée dans un environnement non contrôlé. Comment est-il possible d’y parvenir ? Pour répondre à la première question, il faut en poser une autre : qu’est-ce qui permettrait d’outrepasser les limites de la spécialisation afin de doter une machine d’une véritable intelligence générale ? Deux approches qui nous sont familières, le jugement et la créativité, représentent vraisemblablement des pistes à explorer.

Le jugement, dans le sens où il s’agit d’évaluer adéquatement à partir de règles simples et universelles les situations rencontrées au quotidien dans des environnements physiques différenciés ou dans des contextes à forte connotation sociale. Par exemple, partir de chez soi pour se rendre à l’épicerie du coin et en revenir. La chose semble tomber sous le sens, mais il suffit de considérer le fait qu’une simple mouche ne serait pas en mesure d’effectuer la chose, quand on sait très bien qu’elle ne possède pas le jugement nécessaire pour tout simplement lui dire rebrousser chemin et de sortir par là où elle est entrée, alors qu’elle zigzague en tous sens sur la fenêtre. Dans le cas présent, il est possible d’affirmer que la mouche ne présente pas toutes les caractéristiques attendues d’un comportement intelligent, alors qu’il est attendu d’un robot qu’il soit en mesure d’afficher les caractéristiques liées au jugement.

La créativité, dans le sens où tout être démuni de cette caractéristique ne peut atteindre à cette intelligence généraliste. Il n’est pas ici question de cette créativité que l’on prête aux musiciens, aux écrivains et aux scientifiques, mais bien plutôt de cette capacité à innover et à inventer de nouvelles façons de faire les choses. Ici, deux approches peuvent être envisagées, tout comme le font les êtres humains : en laissant l’entité découvrir par elle-même ou en l’orientant dans une direction précise. Par exemple, procéder à la décoration d’une maison est un acte de créativité. Cet acte exige de l’individu qu’il dépasse ce qu’il connaît déjà ou peu en la matière pour recombiner les objets et ainsi reconfigurer l’espace d’habitation de manière tout à fait inattendue.

Le jugement et la créativité se complètent donc l’un et l’autre. Alors que la créativité permet d’innover, le jugement, pour sa part, permet d’anticiper les conséquences des actions posées. Nous nous expliquons. La créativité, sans le jugement (dans le sens où nous entendons ces termes), est un peu comme explorer un endroit dans le noir tout en essayant d’établir des repères pour s’y retrouver la prochaine fois, alors que cette même pièce sera encore dans le noir. Le jugement, sans la créativité, c’est un peu comme établir des règles une fois pour toutes sans avoir l’imagination voulue pour les modifier le cas échéant. Il faut donc envisager que toute entité non biologique dotée de ces deux capacités, jugement et créativité, sera en mesure de faire face au monde qui l’entoure, c’est-à-dire que, confrontée à une situation jamais rencontrée auparavant, elle sera en mesure de faire preuve de créativité tout en utilisant son jugement pour évaluer la portée de son action. Par exemple, une voiture autonome, confrontée à une situation critique, devra évaluer par elle-même si elle doit sacrifier son passager ou les dix personnes qui attendent l’autobus, c’est-à-dire que la voiture devra faire preuve de jugement et de créativité.

Si les prérequis pour élaborer une entité non biologique dotée d’une intelligence artificielle sont si clairs et si limpides, jugement et créativité, pourquoi les avancées en la matière sont-elles si lentes à venir ? En fait, il y a plus de soixante ans que les chercheurs travaillent sur ce problème, et aucun progrès vraiment significatif n’a encore vraiment été noté. Y a-t-il raison de supposer qu’il est impossible d’atteindre un niveau d’intelligence comparable à celui de l’être humain ? Et si c’est le cas, pourquoi est-ce que des gens comme Stephen Hawking, Elon Musk et Bill Gates craignent-ils tant l’arrivée d’une super intelligence artificielle qui mettrait fin à l’espèce humaine ? Peut-être allons-nous un peu trop vite en affaire.

Jusqu’ici, nous avons discouru à propos de la question des comportements qu’une entité biologique dotée d’une intelligence artificielle générale devrait afficher dans des situations connues ou inconnues, mais nous n’avons pas encore discouru à propos de la question de la mécanique, c’est-à-dire la façon dont il faut arriver à faire fonctionner le tout. Autrement dit, en matière d’intelligence artificielle, il faut à la fois penser aux spécifications et à la façon de les implémenter, en somme, un problème d’ingénieur. Par exemple, dans l’univers de l’informatique, si deux entreprises se voient confier la conception d’un logiciel à partir d’une base identique de spécifications, elles auront le libre choix de trouver les façons de les implémenter. Il s’agit ici de faire appel aux compétences diversifiées des programmeurs.

Cependant, dans le monde de l’intelligence artificielle, les choses ne peuvent aller tout à fait dans le même sens. Pourquoi ? Parce que, contrairement à l’entreprise qui doit concevoir un logiciel qui ne prendra en charge que ce pour quoi il a été conçu, en matière d’intelligence artificielle, les logiciels devront prendre en charge ce pour quoi ils n’ont pas forcément été conçus. Et il est là tout le défi. Et si ce défi est relevé, et correctement relevé, la superintelligence artificielle est-elle pour autant pour demain ? Et si c’est le cas, Stephen Hawking, Elon Musk et Bill Gates auront-ils encore raison de s’inquiéter de l’extinction éventuelle de la race humaine ou de sa mise en esclavage ? La question reste ouverte.

Au début de cet essai, nous avons souligné que l’intelligence artificielle est à la croisée des chemins. Loin d’être ce dont la presse grand public nous abreuve, loin d’être un délire utopique, loin d’être la représentation que nous en fait Hollywood, loin d’être une apocalypse ou une dystopie, le développement de l’intelligence artificielle, et c’est là notre hypothèse, sera à l’image de celui du transhumanisme, c’est-à-dire, incrémental chaque fois, la plupart du temps utile pour tous, et quasi invisible, car on ne parle plus d’intelligence artificielle lorsqu’une technologie qui en utilise ses composants nous sert quotidiennement — moteur de recherche de Google, reconnaissance faciale de Facebook, interfaces vocales Alexa d’Amazon et Google Home.

Tout comme le transhumanisme est une couche de discours rajoutée par-dessus le développement au quotidien de techniques relevant des nanotechnologies et de la biotechnologie utiles à tous (personne ne peut être contre le fait de trouver des solutions aux grandes maladies de notre époque) pour former un technomythe dont la principale fonction est de construire du sens en ce qui concerne l’humain augmenté qui émerge, l’intelligence artificielle, en ce sens, est exactement engagée dans le même processus. C’est donc dire que le discours de l’intelligence artificielle existe pourvu que les applications promises ne soient encore que pures spéculations.

Transhumanisme et intelligence artificielle participent ainsi à la grande technomythologie du XXIe siècle. Tout comme les Grecs et les Romains disposaient d’une mythologie donnant du sens au monde dans lequel ils vivaient, autant sommes-nous en train d’édifier un panthéon mythologique quasi du même ordre, mais fondé cette fois-ci sur la science et les technologies.

© Pierre Fraser (Ph.D.), sociologue, 2020
© Photo entête, Gildshire Magazines


Accéder au dossier de recherche

Trois étapes doivent être réalisées pour émuler le fonctionnement d’un cerveau : (i) cartographier en haute résolution un cerveau jusqu’à un niveau submicronique ; (ii) simuler en temps réel, dans un ordinateur, l’activité électrochimique de tous les neurones et de l’ensemble de toutes les connexions du cerveau qui les relient entre eux ; (iii) interfacer la simulation avec un environnement externe dans un substrat non biologique. De là, Ray Kurzweil pense qu’il sera possible, vers 2050, de télécharger un cerveau dans un ordinateur.


Votre commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.