Cerveau et ordinateur ou le problème de la boîte noire

Le cerveau reconfiguré

Citation : Fraser, P. (2019), « Intelligence artificielle, le fantasme de la conscience », Panoramas, repères et fragments, vol. 1 n° 2, Paris : Éditions V/F, p. 83-88.


Depuis le lancement de la recherche en intelligence artificielle dans les années 1950, l’utilisation d’analogies informatiques pour tenter de décrire, comprendre et reproduire les processus mentaux a conduit à plusieurs abus de langage généralisés. À ce titre, il suffit de voir à quel point les développeurs en intelligence artificielle n’utilisent pas simplement cette métaphore informatique pour décrire ce qu’ils font, mais aussi pour décrire le fonctionnement de l’esprit. Pire encore, certains affirment même qu’une telle description est une compréhension suffisante de l’esprit, car selon eux, les processus mentaux pourraient être entièrement compris en termes de calcul.

De là, l’un des abus les plus répandus en intelligence artificielle a été celle d’une description purement fonctionnelle des processus mentaux. Toujours en se référant à cette vision du cerveau conçue comme simple machine servant à manipuler des symboles, c’est-à-dire une boîte noire, les processus internes de celle-ci, qui donnent lieu à un comportement donné, ne seraient donc pas pertinents.

Concrètement, cette non-pertinence conduit à croire que seule une connaissance complète du comportement entrée-sortie est nécessaire pour comprendre complètement, intégralement et totalement un module spécifique. Et c’est là où il devient facile d’établir une corrélation entre le fait que pour produire du sens sous forme de parole, d’écriture ou d’action (extrants), les êtres humains le font à partir des sens (intrants) qui transmettront des informations qui seront traitées par le cerveau, ici considéré comme une boîte noire.

Et c’est bien de là que vient tout l’engouement pour les recherches en intelligence artificielle, à savoir qu’il suffit d’imiter la chaîne causale « entrée-traitement-sortie ». D’ailleurs, à ce sujet, cet engouement remonte à un moment bien précis dans l’histoire de l’informatique, celui du Test de Turing. Pour bien comprendre la portée de ce test, il faut tout d’abord prendre en considération que l’histoire de l’intelligence artificielle a à peine soixante ans. Pour les pionniers de l’intelligence artificielle, pour ceux qui en ont posé les fondements en 1956 lors de la Conférence de Dartmouth organisée par Marvin Minsky, John McCarthy, Claude Shannon et Nathan Rochester, ces deux événements pourraient vraisemblablement constituer un jalon majeur, car l’humain aurait été battu sur son propre terrain par une intelligence non humaine. Cette prétention est-elle légitime ? Certes, la chose peut ressembler à une prouesse intellectuelle, mais il faut être conscient qu’elle n’en a que les apparences, pour la simple raison que Deep Blue et AlphaGo ne sont que des intelligences artificielles spécialisées, tout comme le sont celles qui équipent les automobiles autonomes développées par différents constructeurs.

Il est donc important de recaler le concept de l’intelligence artificielle dans son contexte initial, car si on compare ces intelligences artificielles à celle d’un être humain, force est de constater que l’être humain est un généraliste. Par exemple, le seul fait de mettre le pied hors du lit le matin, de déjeuner, de préparer le lunch des enfants pour l’école, de prendre le métro ou le bus pour se rendre au travail, d’entrer en relation avec ses collègues, de prendre des décisions, etc., exige une intelligence qu’aucun système d’intelligence artificielle n’est encore capable d’atteindre ni même d’égaler. À l’inverse, on peut considérer les choses sous un autre angle : tout ce que nous sommes en mesure de faire, peut être considéré comme la simple addition d’une multitude de petites compétences sensorimotrices, chacune d’entre elles pouvant être comparée à une intelligence artificielle spécialisée dont chaque compétence converge pour créer ce qui pourrait être assimilé à une intelligence artificielle généraliste.

L’autre propriété importante que possède l’intelligence humaine, c’est qu’elle peut s’adapter à une multitude de situations, même à des situations jamais rencontrées auparavant. Autrement dit, l’intelligence humaine possède une incroyable capacité : elle est en mesure d’apprendre. Mais voilà, cette capacité que l’on considérait jusque-là comme une propriété intrinsèquement humaine est sur le point d’être déclassée. Aujourd’hui, les algorithmes de type deep learning sont en mesure d’apprendre par eux-mêmes pourvu qu’on leur fournisse des milliers de téraoctets d’informations. Autrement dit, ces algorithmes ne sont pas programmés pour des tâches spécifiques, c’est-à-dire qu’ils ne contiennent aucune règle du type « si le symptôme A est présent et que le symptôme B est présent, les chances que le patient soit atteint d’une maladie M sont de l’ordre de 75 %. »

L’autre propriété caractéristique de l’intelligence humaine, c’est qu’elle est incarnée dans un corps. Au contraire de toutes les intelligences artificielles spécialisées qui se retrouvent dans de plus en plus d’applications, l’intelligence humaine a un accès direct au monde à travers ses cinq sens : la vue ; l’ouïe ; l’odorat ; le goût ; le toucher. Non seulement a-t-elle cet accès spécifique au monde, mais elle doit en plus s’occuper de maintenir dans un état métabolique favorable le corps dans lequel elle est incarnée. Certes, toutes les fonctions vitales et métaboliques, qui sont essentiellement sensorimotrices, sont en quelque sorte sous pilote automatique, ce qui libère d’autant l’intelligence humaine pour d’autres fonctions évoluées comme le langage, la cognition, l’imagination, la créativité, la capacité de vivre en société, etc. Encore là, cette prérogative humaine est en passe d’être surclassée par les avancées de la robotique en mesure d’« incarner » plusieurs intelligences artificielles spécialisées dans des robots. De là, un accès au monde pour les robots à travers différents capteurs qui transmettent de l’information à des microprocesseurs dédiés, laissant ainsi à l’intelligence artificielle généraliste la possibilité d’advenir et de se manifester.

À bien y regarder, les avancées de l’intelligence artificielle sont déjà en partie en mesure de confronter ce qui distingue notre propre intelligence : généraliste, adaptative, incarnée. Mais, il importe aussi de bien comprendre en quoi consistent les prouesses de l’intelligence artificielle, de les démythifier en quelque sorte, pour éviter de leur prêter des attributs et propriétés qu’elles n’ont pas et ne posséderont peut-être jamais.

Toutefois, c’est précisément cette affirmation voulant que le test de Turing constitue le fonctionnement de la pensée, qui est devenue non seulement une norme de succès pour la recherche en intelligence artificielle, mais aussi un précepte philosophique du projet lui-même. Ce précepte, initialement fondé sur une incompréhension cruciale de la raison pour laquelle les ordinateurs fonctionnent comme ils le font. Si l’idée implicite du test de Turing est que l’esprit est un programme et qu’un programme peut être décrit uniquement en termes de comportement d’entrée-sortie, tout devient alors possible, et l’intelligence artificielle elle-même devient l’univers de tous les possibles.

Il y a ici une analogie fort intéressante à faire. Supposons un instant que vous tentiez de comprendre comment fonctionne votre navigateur internet à la lumière des seules entrées et sorties de celui-ci. Étant donné qu’il s’agit d’un logiciel que vous n’avez pas créé, tenter d’expliquer complètement son comportement sans se référer à sa structure interne sera extrêmement difficile, et même probablement impossible, à moins que le concepteur ne vous ait fourni les spécifications techniques de ce dernier. En fait, une description du fonctionnement d’un logiciel uniquement en fonction de son comportement d’entrée-traitement-sortie ne peut décrire complètement, intégralement et totalement le logiciel en question que du moment où cette description est fournie par la personne qui l’a conçu. À ce titre, dans le domaine des neurosciences, la raison pour laquelle il est si difficile de comprendre le comportement du cerveau à partir de ces différents composants et comportements, c’est tout simplement parce que le « concepteur » ne nous a pas fourni les spécifications.

Au cours de la dernière décennie, la thèse « l’esprit comme boîte noire » a mené à la création d’un large éventail de robots socialisants et socialisés qui imitent les humains et les animaux. Certains défendeurs de l’IA ont suggéré que les animaux de compagnie robotisés pourraient éventuellement servir de substituts à leurs homologues en chair et en os, et que les programmes informatiques pourraient remplacer des psychothérapeutes humains coûteux. Quand on y regarde le moindrement de près, ces suggestions révèlent une idée troublante en ce qui concerne nos interactions avec d’autres êtres humains, car les robots ont été créés non pas tant pour être socialisants que pour susciter des réponses socialisées chez les humains. Partant de cette curieuse idée voulant que leur mimétisme de ces derniers en fasse des compagnons humains qui suffisent adéquatement à la tâche, les fabricants de robots socialisés affirment souvent que leurs créations possèdent en réalité des traits humains. On dit de ces robots qui imitent les expressions faciales qu’ils ressentent de vraies émotions, et pendant plus d’un demi-siècle, certains chercheurs ont parfois prétendu que les programmes qui produisent des résultats « intelligents » sont en train de penser.

À mon avis, de telles déclarations révèlent plus que d’une simple éthique scientifique discutable ; elles indiquent fondamentalement des erreurs fondamentales dans la compréhension du fonctionnement de l’ordinateur versus celui du cerveau. Supposons un instant que l’esprit soit en fait un programme informatique. Serait-il alors possible de conclure que ce qui est dans l’esprit n’est pas pertinent, comme le supposent certaines interprétations du Test de Turing ? Si nous avons un programme informatique dont le comportement peut être complètement décrit comme s’il s’agissait d’une boîte noire, une telle description ne signifie pas pour autant que la boîte noire est vide, car celle-ci doit forcément contenir des structures internes et certaines propriétés qui lui permettent d’agir. En fait, elles peuvent ne pas être nécessaires pour comprendre le comportement externe du programme, mais elles existent forcément.

Donc, même si nous possédions un compte complet des processus mentaux humains en termes purement intrants-extrants (ce que nous n’avons pas), une telle description externe, par définition, ne pourrait en aucune façon décrire l’expérience que vit une personne. Encore là, à notre avis, le Test de Turing n’est pas une définition de la pensée, mais un aveu d’ignorance, un aveu voulant qu’il soit impossible de vérifier empiriquement la conscience d’un être autre que soi-même. En fait, la seule conclusion à laquelle il est possible de parvenir avec un certain niveau de confiance, c’est que, soit l’autre pense, soit il est intelligent. Nous sommes donc coincés à mesurer les corrélats de la pensée et de l’intelligence, et le Test de Turing fournit une norme pour mesurer un certain type de corrélat.

Les partisans de l’IA ont rapidement compris que la communication est peut-être le moyen le plus simple de démontrer l’intelligence, mais tout en niant l’importance de la compréhension interne de chaque interlocuteur. En fait, ils nient que toute signification réelle soit transmise par la communication. Alors que les partisans de l’IA continuent à soutenir que l’existence de la pensée et de l’interaction sociale dans les programmes est démontrée par leur mimétisme du comportement à partir d’intrants observés chez les humains, ils ont simplement transféré la charge de la preuve de l’interaction entre deux individus vers les programmes informatiques. Ainsi, bien que les behavioristes et les fonctionnalistes aient longtemps cherché à rendre non pertinente la vérité du cogito de Descartes, la canonisation du Test de Turing est tout simplement passée du « Je pense, donc je suis » à « Je pense que vous pensez, donc vous êtes ».

© Pierre Fraser (Ph.D.), sociologue, 2020
© Photo entête, Scientific American


Accéder au dossier de recherche

Trois étapes doivent être réalisées pour émuler le fonctionnement d’un cerveau : (i) cartographier en haute résolution un cerveau jusqu’à un niveau submicronique ; (ii) simuler en temps réel, dans un ordinateur, l’activité électrochimique de tous les neurones et de l’ensemble de toutes les connexions du cerveau qui les relient entre eux ; (iii) interfacer la simulation avec un environnement externe dans un substrat non biologique. De là, Ray Kurzweil pense qu’il sera possible, vers 2050, de télécharger un cerveau dans un ordinateur.


Votre commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.