Comment le cerveau humain peut-il stimuler l’intelligence artificielle ?

Extrait tiré en partie de l’essai « Le mythe de la technologie salvatrice »

Ce qu’il y a d’intéressant avec les recherches en intelligence artificielle, et les sociologues devraient particulièrement s’y intéresser, c’est qu’elles nous renseignent aussi sur notre propre condition humaine. En fait, le concept même d’intelligence artificielle est un concept porteur, car il oblige à s’interroger sur notre propre humanité. Que signifie le fait d’être humain ? En quoi consiste au juste la conscience ? Quel est notre potentiel en tant qu’espèce ? La vie a-t-elle un sens, et si oui, quel est-il ? Quel est notre ultime destin en tant qu’espèce ? Peu importe ce que le futur nous réserve, poser ces questions à la lumière de ce que propose l’intelligence artificielle permet d’envisager toutes ces questions sous un tout nouvel éclairage. La question qui émerge dès lors est la suivante : pourquoi avons-nous l’impression que tout semble devenir intelligent ? En fait, tout devient intelligent, car rien ne contrecarre le discours de l’intelligence artificielle. Il y a là un phénomène intéressant à plus d’un égard. En cette époque où tout projet de développement fait généralement face à de solides oppositions de la part de groupes de pression et de groupe de citoyens, le déploiement de l’intelligence artificielle semble ne pas être affecté par quelques vagues de contestation que ce soit.

En ce sens, cet article veut aussi montrer que les recherches en intelligence artificielle avancent à grands pas, car les algorithmes qui en ressortent miment de plus en plus le comportement du cerveau humain. Par exemple, le problème de la déduction, qui est fort complexe en soi. Prenons comme point d’appui les tout-petits qui sont tout à fait capables de faire des déductions : si un enfant de deux ans apprend tout d’abord à différencier le chien et le chat de la maison, il devient dès lors compétent à identifier le cheval ou le mouton vivant sur une ferme ; il sera aussi bien capable de distinguer un chien d’un mouton, même s’il ne peut pas encore articuler leurs différences*.

Cette capacité est si naturelle pour nous qu’elle masque la complexité des processus de traitement des données du cerveau. Pour faire ce saut logique, l’enfant doit d’abord se souvenir des distinctions entre les animaux domestiques de sa famille. Lorsqu’il est confronté à de nouvelles catégories — les animaux de la ferme — ses circuits neuronaux font appel à ces souvenirs passés et les intègrent de manière transparente aux nouveaux apprentissages pour mettre à jour son modèle mental du monde.

Il n’est peut-être pas surprenant que même les algorithmes d’apprentissage automatique les plus avancés aient du mal à réaliser ce type d’apprentissage continu. Cela s’explique en partie par la manière dont ces algorithmes sont configurés et formés. Un réseau neuronal artificiel apprend en ajustant les poids synaptiques, c’est-à-dire le degré de connexion d’un neurone artificiel à un autre, ce qui entraîne une sorte de «mémoire» de ses apprentissages. Étant donné que le recyclage du réseau neuronal sur une autre tâche perturbe ces poids, l’IA est essentiellement obligée d’«oublier» ses connaissances antérieures comme condition préalable à l’apprentissage de quelque chose de nouveau.

Ce talon d’Achille est si préjudiciable qu’il est surnommé «oubli catastrophique». Un algorithme qui n’est pas capable de conserver ses souvenirs antérieurs est gravement handicapé dans sa capacité à déduire ou à généraliser. C’est loin d’être ce que nous considérons comme intelligent. Mais voilà : si le cerveau humain peut le faire, c’est que la nature a déjà trouvé une solution. Pourquoi ne pas l’essayer sur l’IA ?

C’est ce qu’a fait une étude menée par des chercheurs de l’Université du Massachusetts Amherst et du Baylor College of Medicine1. S’inspirant des mécanismes de la mémoire humaine, l’équipe a doté son algorithme d’une puissante capacité appelée «relecture de la mémoire» — une sorte de «répétition» des expériences dans le cerveau qui cimente les nouveaux apprentissages en souvenirs durables.

Ce qui a le plus surpris les chercheurs, ce n’est pas le fait que l’ajout de la répétition à un algorithme augmente sa capacité à retenir les entraînements précédents, mais bien que le rejouer n’exigeait pas que des souvenirs exacts soient stockés et revus. Une version abâtardie de la mémoire, générée par le réseau lui-même sur la base d’expériences passées, suffisait à donner à l’algorithme une forte augmentation de sa mémoire.

Dans les années 1990, alors qu’ils écoutaient le bavardage électrique du cerveau de souris endormies, des chercheurs spécialisés dans la mémoire sont tombés sur une découverte qui les a laissés perplexes. La région du cerveau appelée hippocampe, qui joue un rôle essentiel dans la navigation spatiale et la mémoire, émettait des ondes électriques pendant le sommeil. Ces ondulations n’étaient pas aléatoires, mais récapitulaient dans le temps et l’espace la même activité neuronale que l’équipe avait observée précédemment, alors que les souris apprenaient à parcourir un nouveau labyrinthe.

En fait, le cerveau revoyait le schéma électrique codant les nouvelles expériences des souris pendant le sommeil, mais il était comprimé et déformé, comme s’il se rembobinait et jouait une bande effilochée en avance rapide.

Les scientifiques ont découvert par la suite que la réécoute de la mémoire est fondamentale pour renforcer les souvenirs chez les souris et les hommes. D’une certaine manière, la relecture nous fournit des essais d’apprentissage simulés supplémentaires pour mettre en pratique nos connaissances et les stabiliser dans une bibliothèque de souvenirs sur laquelle les nouvelles expériences peuvent s’appuyer au lieu de les détruire.

Il n’est peut-être pas surprenant que les réseaux neuronaux profonds équipés de la fonction de relecture stabilisent leurs souvenirs, à condition que l’algorithme se souvienne parfaitement de tous les souvenirs précédents pour les rejouer. Le problème de cette approche, selon l’équipe, est qu’elle n’est pas évolutive. La nécessité d’accéder aux expériences antérieures fait rapidement grimper en flèche les exigences en matière de stockage de données, jusqu’à un niveau insoutenable.

Mais si, à l’instar du cerveau, nous n’avions pas besoin d’un rappel parfait et total des souvenirs lors de la relecture ?

L’équipe a eu l’illumination en creusant la question de la relecture : plutôt que de lire une bande vidéo parfaitement fidèle de ses souvenirs, le cerveau «réimagine» ou génère ses expériences passées pour les lire. Ici, la relecture ne repose pas sur des souvenirs fidèlement stockés. Elle ressemble plutôt à notre expérience réelle de la mémoire : quelque chose de reconstruit à partir de la réalité, mais entaché par notre histoire et notre vision du monde.

Pour tester son idée, l’équipe a codé un algorithme qui reflète la «relecture inspirée par le cerveau». Il ne stocke pas l’apprentissage en soi pour l’utiliser à des fins de lecture. Au lieu de cela, il utilise les données des expériences apprises pour reconstruire automatiquement les souvenirs à relire.

Pour faire une analogie avec le cerveau, disons que vous apprenez une tâche visuelle, comme la reconnaissance de différents animaux. Votre processeur principal est le cortex, qui commence à analyser les motifs qui correspondent à un chien, un chat ou un mouton. Dans les algorithmes de «relecture» des générations précédentes, ces données sont ensuite transférées à l’hippocampe, qui stocke la mémoire et l’utilise pour la relecture. L’activité électrique de l’hippocampe se propage dans le cortex, renforçant ce que vous venez d’apprendre.

La nouvelle configuration associe les deux composants — cortex et hippocampe artificiels — d’une manière plus réaliste sur le plan biologique. Ici, l’hippocampe utilise les données du cortex, le processeur, pour «rêver» ou «imaginer» ses modèles de répétition. Ces modèles n’ont pas une fidélité pixel par pixel, tout comme notre mémoire n’est pas de nature photographique. Cependant, les modèles capturent quelque chose de plus abstrait sur le souvenir — ce qui fait qu’un mouton est un mouton plutôt qu’un chien —, même lorsque les deux animaux sont «appris» au cours de sessions distinctes.

Lorsqu’il a été confronté à d’autres algorithmes d’apprentissage profond pour l’apprentissage continu, le nouveau venu a surclassé ses concurrents pour éviter les oublis catastrophiques. Dans un défi de mémoire visuelle qui nécessitait 100 tâches, l’algorithme a été capable de conserver ses souvenirs précédents tout en déchiffrant de nouvelles images. Il est impressionnant de constater que plus le problème était difficile et «réel», plus l’algorithme surpassait ses pairs. Comme le soulignent la chercheure Gido van de Ven2, auteur de l’étude : « Si notre réseau à relecture générative apprend d’abord à séparer les chats des chiens, puis à séparer les ours des renards, il distinguera également les chats des renards sans avoir été spécifiquement entraîné à le faire. Et notamment, plus le système apprend, plus il devient performant dans l’apprentissage de nouvelles tâches. »

Ces résultats ne sont pas les premiers à exploiter les prouesses du cerveau en matière de mémoire.

Auparavant, les chercheurs en IA s’étaient également penchés sur un processus de mémoire distinct appelé métaplasticité3, qui modifie la probabilité qu’un réseau neuronal soit vulnérable au changement. Les souvenirs étant stockés dans un réseau neuronal, plus celui-ci est flexible, plus le souvenir est susceptible d’être modifié ou oublié. Google DeepMind4, par exemple, a utilisé une version artificielle de cette bizarrerie cérébrale pour aider à «protéger» les synapses artificielles qui sont essentielles pour préserver un souvenir antérieur tout en encodant le suivant.

Cela ne veut pas dire qu’une approche l’emporte sur une autre. Ce qui est probable, selon les auteurs, c’est que ces stratégies vont de pair pour protéger les souvenirs du cerveau. Un algorithme qui intègre les deux pourrait être encore plus flexible et résistant aux oublis catastrophiques, fonctionnant plutôt comme un bambin qui essaie de démêler un monde complexe, un souvenir à la fois.

Il est clair que le cerveau est encore et toujours une importante source d’inspiration pour l’IA. Bien que le nouvel algorithme soit plus proche de la plausibilité biologique, il ne peut pas encore intégrer une composante fondamentale de nos propres souvenirs dans son mécanisme de relecture, soit celle de l’expérience du temps . D’un autre côté, l’apprentissage automatique a aussi beaucoup à offrir aux neurosciences. Les résultats obtenus ici pourraient aider à élucider les processus neuronaux qui sous-tendent la relecture et qui expliquent pourquoi certains de nos souvenirs se dégradent, alors que d’autres durent toute une vie.

Pour les chercheurs impliqué dans la relecture artificielle, cette méthode fait plusieurs prédictions intéressantes sur la façon dont la relecture pourrait contribuer à la consolidation de la mémoire dans le cerveau. Il est clair que les recherches en intelligence artificielle ont aussi comme finalité de décortiquer le fonctionnement du cerveau dans ses moindres détails.

Références

1. Van de Ven G., Siegelmann H. T., Tolias A. S. (2020), « Brain-inspired replay for continual learning with artificial neural networks », Nature Communication, 4069, URL : https://doi.org/10.1038/s41467-020-17866-2.

2. University of Massachusset Amherst (2020), The brain’s memory abilities inspire AI experts in making neural networks less ‘forgetful’, EurekAlert!, URL: https://www.eurekalert.org/news-releases/622428.

3. Hassabis D., Kumaran D., Summerfield C., Botvinick M. (2017), « Neuroscience-Inspired Artificial Intelligence », Neuron Review, URL : http://dx.doi.org/10.1016/j.neuron.2017.06.011.

4. Kirkpatrick J., Pascanu R., Rabinowitz N. et al. (2016), « Overcoming catastrophic forgetting in neural networks », PNAS, vol. 114, n°13, pp. 3521-3526, URL: https://www.pnas.org/content/114/13/3521.full.

Canada | Europe | UK | USA

Le discours de la Silicon Valley annonce à ce point un avenir radieux et des lendemains qui chantent pour tous, qu’il est particulièrement difficile de s’opposer à ses merveilles technologiques. Le mythe de la technologie salvatrice a la vie dure, parce que la technologie promet. Terminé l’Avenir radieux meurtrier. Terminé les professions de foi politiques et destructrices du siècle dernier. Bienvenue à l’avenir radieux des technologies numériques et de l’intelligence artificielle. Bienvenue à cette profession de foi tout en douceur qui n’exige rien de nous. Ici, aucun prosélytisme. Que notre simple consentement à utiliser des technologies toujours plus enchanteresses les unes que les autres. Les élites technologiques ne veulent surtout pas être le berger ou le chien du troupeau. Elles n’aspirent qu’à une seule chose, être notre compagnon, que nous les suivions là où elles veulent bien aller, que nous adoptions sagement et docilement leurs technologies.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s