L’humain versus l’intelligence artificielle

  Intelligence artificielle 

L’humain versus l’intelligence artificielle

Au début de cet essai, j’ai présenté une première définition générale de ce qu’est l’intelligence artificielle, à savoir une approche multidisciplinaire visant à comprendre, à modéliser et à reproduire l’intelligence humaine et ses processus cognitifs en faisant appel à des principes et dispositifs d’ordre computationnel, mathématique, logique, mécanique et même biologique. Par la suite, j’ai brièvement exploré les principaux fondements de l’intelligence artificielle et les tendances qu’elle entend prendre au cours des années à venir. Partant de là, il est temps de proposer une autre définition d’ordre plus philosophique :

L’intelligence artificielle est ce champ de recherche dédié à l’élaboration d’artéfacts ayant la capacité de démontrer, dans un environnement contrôlé dont les paramètres sont connus, et ce, sur une longue période de temps, des comportements que nous considérons comme intelligents, ou plus généralement, des comportements que nous attribuons à ce qui constitue le fait d’être conscient de son environnement et d’agir en fonction de celui-ci.

Il va sans dire que cette définition soulève d’autres questions. Par exemple, en quoi consiste au juste un comportement intelligent ? Que veut dire le fait d’être conscient de son environnement ? Comment les êtres humains arrivent-ils à afficher des comportements intelligents ? Certes, la dernière question est d’ordre empirique et je pense que seules la psychologie et les sciences cognitives seront en mesure d’apporter une réponse à cette épineuse question. Cependant, la question est plus que pertinente, ne serait-ce que comprendre le fonctionnement de l’esprit aiderait grandement les chercheurs à développer des logiciels, des robots, des agents et des machines qui se comporteraient de façon similaire à un être humain.

L’autre question, qu’il est tout à fait légitime de poser, est bien celle de savoir en quoi consiste l’intelligence. Depuis les débuts, les chercheurs en intelligence artificielle se sont particulièrement penchés sur ce problème, et les réflexions qui en sont sorties ont alimenté les différents courants et les différentes approches que nous avons entrevues plus tôt dans ce chapitre. En cette matière, il reste encore beaucoup à faire, malgré 2 500 ans de réflexion sur la chose depuis les philosophes de l’Antiquité.

Finalement, et peut-être l’ultime question, en quoi consiste au juste un comportement intelligent ? Le test de Turing, que j’ai abordé en début de chapitre, fait partie de ces moyens de vérification. Faut-il ici rappeler que ce test est plus une évaluation intuitive qu’une évaluation fondée sur une observation mesurée de ce en quoi consiste un comportement intelligent. Et la raison est fort simple : comme il n’existe pas de consensus sur une définition de ce en quoi consiste un comportement intelligent, et comme il n’existe pas de grille évaluative permettant de mesurer le degré d’un comportement intelligent, il faut dès lors s’en remettre à l’intuition, autrement dit, à ce qui se réfère à ce que nous évaluons naturellement comme un comportement intelligent.

  Intelligence artificielle  

Le test de Turing pose un autre problème : est-ce que le seul fait d’afficher un comportement intelligent signale pour autant qu’il y a effectivement présence d’une intelligence autonome ? Ce qui conduit forcément à poser une autre question : comment un système, biologique ou non biologique, arrive-t-il à produire de l’intelligence ? Même si cette question semble relever de la philosophie, il n’en reste pas moins qu’elle mérite non seulement d’être posée, mais qu’elle mérite surtout de faire l’objet d’une sérieuse analyse. Certes, cet ouvrage n’est pas le lieu adéquat pour soutenir une telle discussion, mais il importe de s’en préoccuper et d’en discuter quelques aspects.

Si le Test de Turing (TT) débouche sur une évaluation subjective à propos d’un comportement intelligent, c’est peut-être parce que ce test fait appel à une intelligence incarnée (un humain) et à une intelligence non incarnée (un logiciel). En fait, pour certains chercheurs, l’intelligence doit avant tout être une condition incarnée, c’est-à-dire consciente du monde qui l’entoure et capable d’agir sur ce même monde.

Partant de cette prémisse, un nouveau test de Turing a été élaboré, le Total Turing Test (TTT), qui consiste à placer un robot dans un environnement non contrôlé, de le laisser agir en fonction de ce même environnement, et d’évaluer si son comportement peut ou non être distingué de celui d’un être humain dans les mêmes conditions. Donc, si le but de l’intelligence artificielle est de concevoir des artéfacts capables de passer avec succès le TT et le TTT ou d’autres tests qui permettraient d’arriver aux mêmes conclusions, il devient dès lors possible de parler d’IA faible (weak AI), c’est-à-dire avoir la capacité de construire des machines qui agissent intelligemment, sans pour autant prendre position sur le fait de savoir si ces machines sont réellement intelligentes. Il s’agit là d’une différence sémantique importante.

 

D’autre part, il existe un autre courant de recherche en intelligence artificielle, l’IA forte (strong AI) qui répond très simplement à la question Qu’est-ce que l’intelligence artificielle ? Il s’agit de développer, élaborer, construire et produire une entité intelligente non biologique incarnée dans le monde réel. Pour ce courant de l’intelligence artificielle, il ne s’agit nullement de mimer un comportement intelligent, mais bien d’être en présence d’une autre intelligence ou d’une autre forme d’intelligence. Et l’hypothèse de travail qui sous-tend cette approche est celle voulant que l’être humain soit fondamentalement et essentiellement une machine qui traite l’information et rien d’autre.

Cette hypothèse de travail, plus généralement connue sous le nom de Théorie computationnelle de l’esprit (computationnalisme), une théorie développée par les philosophes américains Hilary Putnam (1926-2016) et Jerry Fodor, conçoit essentiellement l’esprit comme un système de traitement de l’information et compare la pensée à un calcul. Conséquemment, si cette hypothèse s’applique à toute entité intelligente, biologique ou non, c’est que cette entité intelligente doit obligatoirement disposer d’états mentaux qui existent de manière irréductible et définis par leur rôle fonctionnel.

Il va sans dire que nous n’en sommes pas encore au stade de l’IA forte. Cependant, il faut supposer que, étant donné que le développement de l’IA est incrémental, une multitude d’étapes intermédiaires jalonneront le parcours. Par exemple, si on part de l’idée qu’une intelligence générale n’est que l’émergence de la somme de plusieurs compétences sensorimotrices spécialisées, il faut alors supposer que, lorsqu’une masse critique de compétences sensorimotrices spécialisées sera atteinte, la conscience émergera effectivement.

Si on suppose un instant que cette hypothèse puisse, pour une raison ou une autre, être valable, et que l’entité non biologique qui en est tributaire agit de façon intelligente, dans quelle mesure sera-t-elle pour autant capable d’agir dans des environnements constamment changeants si elle ne dispose pas des compétences spécialisées requises ? C’est ici qu’intervient la question de l’apprentissage ou du non-apprentissage.

En fait, quand l’être humain est confronté à une situation qu’il n’a jamais rencontrée, il ne se connecte pas à un quelconque réseau pour apprendre de quoi il retourne pour agir par la suite — ici, impossible de mobiliser le processus d’essai et d’erreur. Son cerveau déduit rapidement ce qui doit être fait en fonction de situations relativement similaires qu’il a déjà rencontrées, ce qui lui permet d’agir soit efficacement, soit moins efficacement, soit de façon tout à fait inadéquate.

  Intelligence artificielle  

Concrètement, dans une toute nouvelle situation qui exige une réponse rapide, apprendre est à la fois une perte de temps et une entreprise hautement risquée. Il faut donc imaginer un tout autre processus pour permettre à une entité non biologique de réagir, alors qu’elle est immergée dans un environnement non contrôlé. Comment est-il possible d’y parvenir ?

Pour répondre à la première question, il faut en poser une autre : qu’est-ce qui permettrait d’outrepasser les limites de la spécialisation afin de doter une machine d’une véritable intelligence générale ? Deux approches qui nous sont familières, le jugement et la créativité, représentent vraisemblablement des pistes à explorer.

Le jugement, dans le sens où il s’agit d’évaluer adéquatement à partir de règles simples et universelles les situations rencontrées au quotidien dans des environnements physiques différenciés ou dans des contextes à forte connotation sociale. Par exemple, partir de chez soi pour se rendre à l’épicerie du coin et en revenir. La chose semble tomber sous le sens, mais il suffit de considérer le fait qu’une simple mouche ne serait pas en mesure d’effectuer la chose, car elle ne possède même pas le jugement nécessaire pour lui signaler de rebrousser chemin et de sortir par là où elle est entrée, alors qu’elle zigzague en tous sens devant la fenêtre. Dans le cas présent, il est possible d’affirmer que la mouche ne présente pas toutes les caractéristiques attendues d’un comportement intelligent, alors qu’il est attendu d’un robot qu’il soit en mesure d’afficher les caractéristiques liées au jugement.

La créativité, dans le sens où tout être démuni de cette caractéristique ne peut prétendre à l’intelligence générale. Il n’est pas ici question de cette créativité que l’on prête aux musiciens, aux écrivains et aux scientifiques, mais bien plutôt de cette capacité à innover et à inventer de nouvelles façons de faire les choses. Ici, deux approches peuvent être envisagées, tout comme le font les êtres humains : en laissant l’entité découvrir par elle-même ou en l’orientant dans une direction précise. Par exemple, procéder à la décoration d’une maison est un acte de créativité. Cet acte exige de l’individu qu’il dépasse ce qu’il connaît déjà en la matière pour recombiner les objets et ainsi reconfigurer l’espace d’habitation de manière tout à fait inattendue.

Le jugement et la créativité se complètent donc l’un l’autre. Alors que la créativité permet d’innover, le jugement, pour sa part, permet d’anticiper les conséquences des actions posées. Je m’explique. La créativité, sans le jugement (dans le sens où nous entendons ces termes), c’est un peu comme explorer un endroit dans le noir tout en essayant d’établir des repères pour s’y retrouver la prochaine fois, alors que cette même pièce sera encore dans le noir. Le jugement, sans la créativité, c’est un peu comme établir des règles une fois pour toutes sans avoir l’imagination voulue pour les modifier le cas échéant.

 

Il faut donc envisager que toute entité non biologique dotée de ces deux capacités, jugement et créativité, sera en mesure de faire face au monde qui l’entoure, c’est-à-dire que, confrontée à une situation jamais rencontrée auparavant, elle sera en mesure de faire preuve de créativité tout en utilisant son jugement pour évaluer la portée de son action. Par exemple, une voiture autonome, confrontée à une situation critique, devra évaluer par elle-même si elle doit sacrifier son passager ou les dix personnes qui attendent l’autobus, c’est-à-dire que la voiture devra faire preuve de jugement et de créativité.

Si les prérequis pour élaborer une entité non biologique dotée d’une intelligence artificielle sont si clairs et si limpides, jugement et créativité, pourquoi les avancées en la matière sont-elles si lentes à venir ? En fait, il y a plus de soixante ans que les chercheurs planchent sur ce problème, et aucun progrès vraiment significatif n’a encore vraiment été noté. Y a-t-il raison de supposer qu’il est impossible d’atteindre un niveau d’intelligence comparable à celui de l’être humain ? Et si c’est le cas, pourquoi est-ce que des gens comme Stephen Hawking, Elon Musk et Bill Gates craignent-ils tant l’arrivée d’une super intelligence artificielle qui mettrait fin à l’espèce humaine ? Peut-être allons-nous un peu trop vite en affaire.

Jusqu’ici, j’ai discouru à propos de la question des comportements qu’une entité biologique dotée d’une intelligence artificielle générale devrait afficher dans des situations connues ou inconnues, mais je n’ai pas encore discouru à propos de la question de la mécanique, c’est-à-dire la façon dont il faut arriver à faire fonctionner le tout. Autrement dit, en matière d’intelligence artificielle, il faut à la fois penser aux spécifications et à la façon de les implémenter, en somme, un problème d’ingénieur.

  Intelligence artificielle  

Par exemple, dans l’univers de l’informatique, si deux entreprises se voient confier la conception d’un logiciel à partir d’une base identique de spécifications techniques, elles auront le libre choix de trouver les façons de les implémenter. Il s’agit ici de faire appel aux compétences diversifiées des programmeurs. Cependant, dans le monde de l’intelligence artificielle, les choses ne peuvent aller tout à fait dans le même sens.

Pourquoi ? Parce que, contrairement à l’entreprise qui doit concevoir un logiciel qui ne prendra en charge que ce pour quoi il a été conçu, en matière d’intelligence artificielle, les logiciels devront prendre en charge ce pour quoi ils n’ont pas forcément été conçus. Et il est là tout le défi. Et si ce défi est relevé, et correctement relevé, la superintelligence artificielle est-elle pour autant pour demain ? Et si c’est le cas, Stephen Hawking, Elon Musk et Bill Gates auront-ils encore raison de s’inquiéter de l’extinction éventuelle de la race humaine ou de sa mise en esclavage ? La question reste ouverte.

Au début de cet essai, j’ai souligné que l’intelligence artificielle est à la croisée des chemins. Loin d’être ce dont la presse grand public nous abreuve, loin d’être un délire utopique, loin d’être la représentation que nous en fait Hollywood, loin d’être une apocalypse ou une dystopie, le développement de l’intelligence artificielle, et c’est là mon hypothèse, sera à l’image de celui du transhumanisme, c’est-à-dire incrémental chaque fois, la plupart du temps utile pour tous, et quasi invisible, car on ne parle plus d’intelligence artificielle lorsqu’une technologie qui en utilise ses composants nous sert quotidiennement — moteur de recherche de Google, reconnaissance faciale de Facebook, etc.

Tout comme le transhumanisme est une couche de discours rajoutée par-dessus le développement au quotidien de techniques relevant des nanotechnologies et de la biotechnologie utiles à tous (personne ne peut être contre le fait de trouver des solutions aux grandes maladies de notre époque) pour former un technomythe dont la principale fonction est de construire du sens en ce qui concerne l’humain augmenté qui émerge, l’intelligence artificielle, en ce sens, est exactement engagée dans le même processus. C’est donc dire que le discours de l’intelligence artificielle existe pourvu que les applications promises ne soient encore que pures spéculations.

Transhumanisme et intelligence artificielle participent ainsi aux grands technomythes du XXIe siècle. Tout comme les Grecs et les Romains disposaient d’une mythologie donnant du sens au monde dans lequel ils vivaient, autant sommes-nous en train d’édifier un panthéon mythologique quasi du même ordre, mais fondé cette fois-ci sur la science et les technologies ?

© Pierre Fraser (Ph. D.), sociologue, 2019

  Intelligence artificielle  

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.