Intelligence artificielle et apprentissage automatisé

  Intelligence artificielle 

Intelligence artificielle et apprentissage automatisé

Un système d’apprentissage automatisé s’appuie essentiellement sur une colossale base de données à partir de laquelle sont tirés des patterns récurrents qui deviendront par la suite des données statistiques. Deuxièmement, à partir de ces patterns récurrents, il sera éventuellement possible de prédire le comportement ou la tendance en fonction des données qui auront été fournies à l’entrée. Par exemple, si on présente à quelqu’un la séquence [5, 10, 15, 20], les chances sont relativement bonnes qu’il puisse affirmer que le prochain nombre sera 25. Toutefois, si une grande série de nombres lui est présentée qui ne possède pas la régularité incrémentale de l’exemple précédent, il lui sera pratiquement impossible de prévoir quel sera le prochain nombre. Et c’est pourtant ce à quoi sont confrontés les systèmes d’apprentissage automatisé.

Arriver à trouver des patterns récurrents dans une masse informe de données est un problème connu sous le nom de la malédiction des grands nombres (curse of dimensionality). Heureusement, il existe certaines solutions qui peuvent déjà orienter la recherche pour identifier des patterns récurrents dans les images : (i) trouver des patterns de groupes de pixels récurrents ; assembler les groupes de patterns récurrents pour identifier des structures comportant ces groupes de patterns récurrents. Cette approche multiniveaux[1][2] est ce qui caractérise fondamentalement l’apprentissage automatisé.

Par exemple, si on voulait qu’un système d’apprentissage automatisé arrive à identifier des visages à partir de dizaines de millions de photos, la première question qu’il faudrait poser pourrait être celle –ci : qu’est-ce qui est commun à tous les visages ? Réponse : les yeux. Comment arriver à identifier les yeux ? Réponse : en repérant des concentrations de pixels formant une géométrie entourant un cercle d’une autre couleur (iris). Certes, cet algorithme est fort peu élaboré, mais l’idée générale est là, sans compter que les régularités statistiques de cette nature sont la manifestation directe de ce qui existe dans le monde réel et à partir desquelles il est possible d’orienter telle ou telle recherche de patterns récurrents.

 

C’est aussi à partir d’une telle analyse qu’il est possible d’obtenir tous les patterns récurrents constituant un visage — les yeux, le nez, les lèvres, les narines, les dents, la langue, les cheveux, le menton, les joues, les sourcils, les oreilles, etc. Une fois les patterns récurrents identifiés et codifiés à l’intérieur de modèles statistiques, il devient alors possible de faire jouer un autre type d’algorithme qui tentera de combiner tous ces patterns récurrents afin de former un visage quelconque, humain ou animal. C’est la phase où le réseau de neurones artificiels est en mesure d’élaborer une hiérarchie de catégories d’objets.

Cette méthode multiniveaux d’apprentissage automatisé diffère non seulement de l’apprentissage qu’est en mesure d’effectuer un cerveau biologique, mais montre aussi que cet apprentissage est totalement différent. En fait, l’apprentissage automatisé n’est en aucune façon contraint par la catégorisation qu’un cerveau biologique effectue, mais uniquement contraint par des données statistiques. Et c’est là une distinction importante, car un réseau de neurones artificiels « pense » différemment d’un cerveau biologique, d’où non seulement une explosion d’intelligences artificielles, mais aussi une explosion d’intelligences qui ont leurs propres façons de traiter l’information. En ce sens, un réseau de neurones artificiels ne pourra jamais être assimilé à un cerveau biologique, même s’il en exhibe certaines de ses capacités.

  Intelligence artificielle  

Mon premier exemple faisait appel à des données statiques tirées à partir de photographies, c’est-à-dire des images fixes. Toutefois, le monde qui nous entoure n’est pas un univers statique, mais bel et bien un univers dynamique en mouvement constant. Nous avons également mis en évidence, dans l’exemple précédent, que l’apprentissage automatisé est essentiellement contraint par des données statistiques et non par des catégorisations qui seraient fournies ou identifiées par un être humain.

Cela étant précisé, le défi pour identifier correctement des objets en mouvement dans une vidéo serait-il de même nature que celui pour identifier des objets à partir de photos ? En fait, le défi est de même nature, sauf que l’apprentissage ne sera pas plus complexe, mais il exigera un peu plus de temps, car c’est le même type d’apprentissage automatisé qui sera à l’œuvre. Ici, l’idée, pour arriver à identifier un chat, consistera à décortiquer un ensemble de valeurs imbriquées dans une structure de données qui capture les statistiques du mouvement de certaines caractéristiques visuelles récurrentes. Autrement dit, pour arriver à identifier un chat avec la plus grande précision possible alors qu’il est en mouvement, on devra fournir à ce réseau de neurones artificiels des dizaines de milliers d’heures d’enregistrements vidéo de chats en mouvement dans des contextes différents.

Par exemple, un chat qui attrape un oiseau, qui joue avec une balle de laine, qui mange, qui dort, qui fait la sieste, qui regarde par la fenêtre, qui saute, qui court, qui marche, etc. C’est donc à partir de l’analyse comparative de toutes ces vidéos que le réseau de neurones artificiels aura construit sa propre représentation de ce que peut être un chat en mouvement et de la façon dont il réagit avec son environnement.

Cette représentation, comme je l’ai souligné un peu plus tôt, constitue la phase où le réseau de neurones artificiels est en mesure d’élaborer une hiérarchie de catégories d’objets. C’est à partir de cette catégorisation que le réseau de neurones artificiels compressera par la suite cette catégorie d’objets pour en tirer une description mathématique qui permettra de faire des prédictions. Pour mieux illustrer le processus, j’utiliserai deux exemples : identifier les problèmes liés à la vision ; révéler le taux de progression de la maladie d’Alzheimer.

Jusqu’à tout récemment, les logiciels dédiés à l’analyse de la numérisation des yeux n’arrivaient pas, dans la plupart des cas, à détecter s’il y avait ou non possibilité que des problèmes de vision puissent survenir à plus ou moins long terme. Afin de résoudre ce problème, le National Health Service (NHS) de Grande-Bretagne[3], en collaboration avec la société DeepMind acquise par Google en 2014, utilise un réseau de neurones artificiels qui a pour tâche, dans un premier temps, d’analyser plus d’un million d’images en provenance de la numérisation des yeux afin de repérer des patterns récurrents qui seraient susceptibles de conduire à des problèmes de vision comme la dégénérescence maculaire ou la cécité, et dans un deuxième temps, de générer une hiérarchie de problèmes potentiels liés à la vision à partir de ces patterns récurrents, et qui se traduira par la suite dans un modèle mathématique afin d’accélérer le diagnostic.

En ce qui concerne la maladie d’Alzheimer, tout comme pour les problèmes de vision, l’enjeu est essentiellement celui du diagnostic précoce. Une équipe de chercheurs des Pays-Bas[4] est parvenue à coupler un système d’apprentissage automatisé à une technologie d’imagerie médicale qui mesure le taux d’absorption du sang dans différentes régions du cerveau. Le système d’apprentissage automatisé doit, dans un premier temps, apprendre à reconnaître des patterns récurrents liés à la dégénérescence neuronale, et dans un deuxième temps, parvenir à prédire le niveau susceptible de conduire à des problèmes plus sérieux.

© Pierre Fraser (Ph. D.), sociologue, 2019

  Intelligence artificielle  

[1] Arel, I., Rose, D. C., Karnowski, T. P. (2010), « Deep Machine Learning – A New Frontier in Artificial Intelligence Research », IEEE Computational Intelligence Magazine, vol. 5, n° 4, p. 13-18, November.

[2] Coates, A., Lee, H., Ng, A. Y. (2011), « An Analysis of Single-Layer Networks in Unsupervised Feature Learning », Proceedings of the 14th International Conference on Artificial Intelligence and Statistics (AISTATS), vol. 15, p. 215-223.

[3] Mukherjee, S. (2016), Google Wants to Use Artificial Intelligence to Help Prevent Blindness, Fortune Magazine, July 5.

[4] Collij, L.E., Heeman, F., Kuijer, J. P. A. et al (2016), « Application of Machine Learning to Arterial Spin Labeling in Mild Cognitive Impairment and Alzheimer Disease », Radiology, vol. 279.

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.