Intelligence artificielle et cartographie du cerveau

  Intelligence artificielle 

Intelligence artificielle et cartographie du cerveau

Ray Kurzweil, directeur de l’ingénierie chez Google et ardent défenseur de la mouvance transhumaniste, suggère que vers 2050 nous disposerons de la technologie nécessaire pour télécharger en totalité le cerveau d’un individu vers un ordinateur, faisant de chacun de nous un être numériquement immortel. Ce qu’il faut souhaiter, c’est que l’unité de stockage puisse durer éternellement et que sa source d’énergie s’épuise le plus lentement possible !

Cette affirmation de Ray Kurzweil tient-elle la route ? Avant de répondre à cette question, il faut savoir que, sans une rupture épistémologique majeure dans nos connaissances et dans notre compréhension du cerveau, cette affirmation n’est et ne demeure que pure spéculation. Cependant, est-il pour autant nécessaire de ne pas se préoccuper de la chose si elle ne relève que du domaine de la spéculation ? En fait, non. Et pourquoi ? Parce que ce domaine est en train d’être exploré, non pas par des illuminés qui rêvent d’immortalité, mais par des chercheurs crédibles qui disposent non seulement de fonds de recherche conséquents, mais qui disposent aussi de l’appui d’entreprises majeures prêtes à investir des sommes colossales pour conserver leurs parts de marché.

Considérons pour un instant les défis soulevés par la simple cartographie du cerveau, ne serait que celui d’une souris de laboratoire. À partir des technologies déjà disponibles en 2017, il faut tout d’abord tuer la souris, prélever son cerveau, le découper en fines lamelles, numériser chaque lamelle en très haute résolution, localiser la position de chaque neurone, reproduire la forme de chaque axone et de chaque dendrite, localiser la position et la forme de chaque synapse, et finalement, reconstituer le tout en 3D à l’aide d’un logiciel de modélisation. Le résultat final consistera en une énorme base de données qui aura capturé en quelque sorte l’essence même du cerveau de la souris. Déjà, le lecteur aura compris que la première de toutes ces étapes, tuer le sujet, est éthiquement intenable si on désire numériser un cerveau humain.

  Intelligence artificielle  

Toutefois, est-ce que le résultat final, une immense base de données, peut s’avérer suffisant pour lancer une quelconque simulation ?

Premièrement, si on se réfère au principe de plasticité inhérente du cerveau, il faut admettre que cette immense base de données ne sera, au demeurant, qu’un cliché de l’état du cerveau de la souris à un moment donné de sa vie, et que cette base de données ne reflétera qu’un état particulier de sa plasticité à un moment donné.

Deuxièmement, cette immense base de données ne nous dit strictement rien à propos du fonctionnement de ce cerveau, encore moins à propos de la façon dont il se comporte et s’interconnecte. Certes, il est possible d’en visualiser toutes les interconnexions, mais rien ne nous dit pour autant comment ces interconnexions agissent entre elles.

Troisièmement, plus le niveau de numérisation du cerveau sera élevé, plus il sera possible d’obtenir une plus grande granularité de précision, autorisant par le fait même une meilleure compréhension de la structure du cerveau.

Si cette immense base de données ne nous renseigne pas sur le fonctionnement effectif du cerveau de la souris, il est toujours possible de contourner le problème en enregistrant l’activité cérébrale de celui-ci alors qu’il est encore dans le corps de la souris. L’un des moyens d’y parvenir, et ce, toujours en fonction des technologies disponibles en 2019, est d’utiliser une souris génétiquement modifiée dont les neurones deviendront fluorescents lorsqu’ils seront sollicités. Ainsi, il serait possible d’obtenir une image générale du fonctionnement dynamique du connectome de la souris.

 

Finalement, en couplant l’enregistrement de l’activité cérébrale de la souris à la base de données du connectome du cerveau de la souris, nous pourrions commencer à envisager une certaine simulation. Encore là, il est éthiquement intenable d’enregistrer l’activité cérébrale d’un être humain pour ensuite le tuer et procéder à la cartographie de son cerveau. Certes, la chose pourrait être envisagée si, aux États-Unis, un condamné à mort acceptait la procédure. Cependant, même au nom de la science, cette approche serait-elle éthiquement tenable ?

Une autre façon de procéder, toujours en tenant compte des techniques disponibles en 2019, consisterait à modifier génétiquement une souris de façon à ce que chaque neurone contienne un genre de code à barres génétique unique qui le distinguerait de tous les autres, ce qui permettrait d’identifier avec grande précision le moindre fonctionnement du moindre neurone. Il s’agit vraisemblablement d’une technique prometteuse, mais encore faut-il arriver à la développer.

Malgré tout, malgré toutes ces technologies, peu importe celle que l’on utilisera, celles-ci ne seront jamais en mesure de fournir une image exacte de l’activité cérébrale. Et c’est là où interviennent les nanotechnologies — l’exploitation d’un nombre colossal de données à propos d’objets microscopiques. L’idée est la suivante : comme les neurones sont des objets microscopiques de l’ordre de quelques nanomètres et que la nanotechnologie manufacture des objets microscopiques de l’ordre du micron, il devient dès lors envisageable d’exploiter tout le potentiel des nanotechnologies pour cartographier dans le moindre détail un cerveau biologique.

À ce titre, imaginons un instant un essaim de robots nanotechnologiques capables de se déplacer librement dans le réseau sanguin cérébral. Imaginons également que ces robots soient en mesure de se fixer à la membrane d’un neurone où tout près d’une synapse. Il deviendrait dès lors possible d’enregistrer les fluctuations des signaux électriques du neurone, de détecter le moindre changement dans sa condition, et de transmettre cette information en direct à une flotte de microrécepteurs situés quelque part à la surface du cortex cérébral. En fait, le travail de ces robots nanotechnologiques et de ces microrécepteurs consisterait à moissonner la moindre information afin de l’engranger dans une base de données que les chercheurs pourraient par la suite consulter à volonté.

  Intelligence artificielle  

Bien que toutes ces propositions ne soient que de pures spéculations, il n’en reste pas moins qu’elles pointent dans certaines directions à propos de ce qui pourrait être réalisé dans un futur pas si lointain en cette matière. Certes, le but de cet essai n’est pas de faire des prédictions détaillées sur les technologies qui seront développées, ni de proposer une échelle de temps quant à ce développement, mais bien d’explorer un spectre de scénarios plausibles et tenter d’en envisager les impacts et les ramifications sur le plan social.

Ce qu’il faut aussi comprendre, c’est que les barrières pour obtenir une simulation globale du cerveau de la souris ne sont pas forcément de nature conceptuelle, mais aussi de nature technologique. D’une façon ou d’une autre, si on se réfère à la Loi du retour accéléré proposée par Ray Kurzweil, la question n’est pas de savoir si ces technologies seront ou non un jour disponibles, mais bien de savoir qu’il ne s’agit que d’une question de temps avant qu’elles ne le soient. Mais entre-temps, que fait-on ? En fait, il y a une solution à notre portée. S’il nous est impossible d’obtenir une numérisation du cerveau au micron près, il ne nous est pas Cependant impossible de nous investir encore plus dans la recherche scientifique fondamentale et appliquée. Comment la chose pourrait-elle se faire ?

 

La méthode proposée jusqu’ici a été de numériser le cerveau d’une souris avec une très haute résolution. Si cette numérisation arrive à produire une simulation totalement fonctionnelle du cerveau de cette même souris, et que le comportement de cette simulation ne peut être distingué de son précurseur biologique, et que cette simulation arrive à reproduire fidèlement tous les comportements acquis par la souris, ses habitudes et ses préférences, c’est que nous serons parvenus a réalisé une numérisation d’une très fine granularité. Mais la technologie pour y parvenir n’est pas encore disponible.

Supposons, cependant, qu’il serait possible de numériser plusieurs cerveaux de différentes souris sans pour autant exiger un niveau de granularité extrêmement élevé. Nous serions ainsi en mesure d’obtenir, en combinant toutes les données recueillies— numérisation du cerveau + ECG de l’activité cérébrale des cerveaux de toutes les souris sélectionnées —, un modèle statistique global du comportement du cerveau de ces mêmes souris.

À partir d’un tel modèle statistique faisant intervenir plusieurs numérisations et ECG, il serait alors possible de générer une simulation particulièrement efficace du cerveau d’une souris. Bien que chaque numérisation du cerveau de chaque souris diffère légèrement de toutes les autres numérisations, cela ne posera aucun problème, car nous disposerons alors d’une fourchette statistique.

Autrement dit, nous obtiendrons un état moyen du cerveau de n’importe laquelle souris. Ce modèle statistique, on le comprendra, ne correspondra pas au cerveau d’une souris ayant déjà existé. Cependant, il contiendra assez de données contraignantes pour le rendre plausible et en permettre l’implémentation dans un ordinateur afin d’en simuler le comportement et éventuellement l’émuler.

© Pierre Fraser (Ph. D.), sociologue, 2019

  Intelligence artificielle  

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.