Prérequis à l’intelligence artificielle de niveau humain

  Intelligence artificielle

Prérequis à l’intelligence artificielle de niveau humain

Que faudrait-il pour arriver à produire une intelligence artificielle généraliste de niveau humain ? Il faudrait tout d’abord constituer un dense réseau d’unités cognitives artificielles spécialisées en mesure de traiter le plus large spectre possible de situations. Qu’entend-on par situations ? Toutes situations dans lesquelles un être artificiel peut être immergé, tout comme peut l’être un être humain, ce qui implique que l’être artificiel doit être doté de capteurs qui miment les fonctions de captation sensorielle d’un être humain — vue, odorat, ouïe, toucher, goût. Ces « sensations » seront par la suite acheminées à un dense réseau de neurones artificiels massivement et parallèlement connectés qui traiteront l’information. De là, on devrait s’attendre à ce que l’entité artificielle soit en mesure de se comporter de façon similaire à celle d’un être humain, peu importe les circonstances et l’environnement.

Être en mesure de se comporter comme un être humain signifie-t-il pour autant qu’il s’agisse là d’un comportement intelligent et conscient ? Ce qui nous ramène inévitablement à la question d’une pure montée en abstraction, c’est-à-dire que l’on devient de plus en plus indépendant du substrat de base sur lequel on s’appuie. Au moment où sont écrites ces lignes, les systèmes de la première vague d’intelligence artificielle, constituées de réseaux de neurones artificiels fondés sur la technique de l’apprentissage automatisée (deep learning), sont non seulement largement alimentées par d’immenses bases de données, mais doivent aussi être orientés par des équipes de chercheurs et d’informaticiens qui dictent comment effectuer le travail — de façon très grossière certes, car les réseaux apprennent par eux-mêmes, mais dirigés tout de même.

Ma position sur la chose, comme nous l’avons déjà entrevu, c’est qu’aucune connaissance n’est donnée a priori et que toute connaissance doit être extraite de son interaction en temps réel avec l’environnement. Elle doit être acquise de façon incrémentale et structurée par et avec le vécu, et ce, sans aucune aide extérieure. Déjà, le seul fait qu’il faut « orienter » les systèmes fonctionnant en mode apprentissage automatisé, les disqualifie d’autant pour accéder à une montée en abstraction — on devient de plus en plus indépendant du substrat de base —, ce qui les disqualifie de facto d’accéder ne serait-ce qu’à la strate subsymbolique, à savoir que la cognition puisse émerger d’un réseau de neurones artificiels massivement et parallèlement connecté.

 

Je m’explique. Je pense que le prérequis à toute de forme de cognition digne de ce nom doit partir du simple principe qu’aucune connaissance n’est donnée a priori et que toute connaissance doit être extraite de son interaction en temps réel avec l’environnement. De là,

si les chercheurs arrivent à développer une entité artificielle qui ne sera orientée d’aucune façon, c’est-à-dire qu’aucune connaissance ne lui sera donnée a priori (ne pas confondre information et connaissance, la connaissance étant le fruit de la mise en relation de différentes informations) et à laquelle on fournira des informations, et que, laissée à elle-même, elle commencera à extraire de la connaissance à partir des informations dans lesquelles elle aura été immergée, alors là, et seulement là, il sera possible d’affirmer qu’une certaine forme de montée en abstraction pourrait devenir possible et qu’elle serait potentiellement en mesure de franchir toutes les étapes qui mènent à la conscience, c’est-à-dire passer de la strate machine, à la strate de traitement neuronal (neurones artificiels), à la strate subsymbolique, à la strate symbolique et finalement à la strate de la conscience.

Exprimé autrement, tout système artificiel qui prétend atteindre à un niveau de cognition humain (intelligence artificielle généraliste de niveau humain) devra être en mesure de faire le bond, par lui-même, de la strate machine, à la strate neuronale, à la strate subsymbolique et à la strate symbolique, car si le connexionnisme prétend que la cognition émerge sans aucune aide extérieure d’une activité massivement et parallèlement connectée d’unités cognitives artificielles spécialisées, il faut s’attendre en contrepartie à ce que la capacité à symboliser émerge de la même façon. Au final, tout système artificiel qui prétend atteindre à la conscience de sa propre existence (superintelligence artificielle), devra, et ce, sans aucune aide extérieure, à partir de sa strate subsymbolique et de sa strate symbolique, atteindre par lui-même à la conscience de sa propre existence, car si tous les courants de recherche en sciences cognitives prétendent que tout émerge de tout pourvu que la condition de base du massivement et parallèlement connecté soit respectée, il faut s’attendre à ce que la capacité à être conscient de sa propre existence émerge de la même façon.

Si toutes ces conditions sont réunies, alors là, il y aura, sans aucun doute possible, une nouvelle forme d’intelligence qui ne sera pas fondée sur un substrat biologique. C’est à ces seules conditions, et exclusivement à ces seules conditions que celle-ci aura droit de cité en termes d’intelligence artificielle autonome consciente d’elle-même. Tout autre bricolage informatique et technique qui ne remplira pas ces conditions de base ne pourra acquérir le statut d’intelligence artificielle autonome consciente d’elle-même. En ce sens, je me range derrière la position du philosophe américain John Searle : « Peu importe ce que le cerveau fait pour produire de l’intentionnalité, cela ne consiste en aucune façon à l’instanciation d’un programme informatique, car aucun programme informatique ne peut, par lui-même, instancier de l’intentionnalité[1]. » Reformulé autrement, aucun programme informatique ne peut, par lui-même, insuffler de la conscience à un quelconque système, car les programmes informatiques ne sont pas des entités conscientes et ne sont pas par eux-mêmes capables d’accéder à la conscience.

 Intelligence artificielle

Pour reprendre les propos de Searle, personne n’aurait l’idée saugrenue de penser qu’à partir de microprocesseurs ou de tout autre agencement mécanique et électronique il soit possible de faire de la photosynthèse, de produire des hormones de stress, ou même de transpirer. Pourtant, lorsqu’il est question d’aborder la problématique du cerveau, tous sont prêts à croire qu’en disposant d’un réseau de microprocesseurs massivement et parallèlement connecté et en disposant de réseaux de neurones artificiels, il serait possible d’arriver aux mêmes résultats que le cerveau biologique. Et ce miracle, tant attendu par les chercheurs en intelligence artificielle, s’opérerait du seul fait d’un dualisme qui a la vie dure : pour eux, l’esprit ne serait qu’un simple processus formel et indépendant de toutes causes biologiques spécifiques.

Cependant, c’est justement dans le flou du bricolage informatique et de ce dualisme que le mythe de l’intelligence artificielle généraliste de niveau humain prend forme, parce qu’il obnubile les liens de cause à effet qui rendent ces prouesses possibles.

En supposant un instant que les conditions suivantes aient été remplies, c’est-à-dire que

 tout système artificiel qui prétend atteindre à un niveau de cognition humain (intelligence artificielle généraliste de niveau humain) devra être en mesure de faire le bond, par lui-même, de la strate machine, à la strate neuronale, à la strate subsymbolique et à la strate symbolique, car si le connexionnisme prétend que la cognition émerge sans aucune aide extérieure d’une activité massivement et parallèlement connectée d’unités cognitives artificielles spécialisées, il faut s’attendre en contrepartie à ce que la capacité à symboliser émerge de la même façon. Au final, tout système artificiel qui prétend atteindre à la conscience de sa propre existence (superintelligence artificielle), devra, et ce, sans aucune aide extérieure, à partir de sa strate subsymbolique et de sa strate symbolique, atteindre par lui-même à la conscience de sa propre existence, car si tous les courants de recherche en sciences cognitives prétendent que tout émerge de tout pourvu que la condition de base du massivement et parallèlement connecté soit respectée, il faut s’attendre à ce que la capacité à être conscient de sa propre existence émerge de la même façon ».

Et c’est à ces conditions, et seulement à ces conditions, qu’une intelligence artificielle de niveau humain sera susceptible de survenir.

© Pierre Fraser (Ph. D.), sociologue, 2019

  Intelligence artificielle

[1] Searle, J. (1980), « Minds, brains and programs », Behavioral and Brain Sciences, vol. 3, p. 349-355 [355].

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.