Mémoire de travail dans les réseaux de neurones récurrents aléatoires.
Anthony Strock
IMN – team Mnemosyne
Thèse dirigée par Xavier Hinaut et Nicolas Rougier
Résumé
La mémoire de travail peut être définie comme la capacité à stocker temporairement et à manipuler des informations de toute nature. Par exemple, imaginez que l’on vous demande d’additionner mentalement une série de nombres. Afin de réaliser cette tâche, vous devez garder une trace de la somme partielle qui doit être mise à jour à chaque fois qu’un nouveau nombre est donné. La mémoire de travail est précisément ce qui permettrait de maintenir (i.e. stocker temporairement) la somme partielle et de la mettre à jour (i.e. manipuler). Dans cette thèse, nous proposons d’explorer les implémentations neuronales de cette mémoire de travail en utilisant un nombre restreint d’hypothèses. Pour ce faire, nous nous plaçons dans le contexte général des réseaux de neurones récurrents et nous proposons d’utiliser en particulier le paradigme du reservoir computing. Ce type de modèle très simple permet néanmoins de produire des dynamiques dont l’apprentissage peut tirer parti pour résoudre une tâche donnée. Dans ce travail, la tâche à réaliser est une mémoire de travail à porte (gated working memory). Le modèle reçoit en entrée un signal qui contrôle la mise à jour de la mémoire. Lorsque la porte est fermée, le modèle doit maintenir son état de mémoire actuel, alors que lorsqu’elle est ouverte, il doit la mettre à jour en fonction d’une entrée. Dans notre approche, cette entrée supplémentaire est présente à tout instant, même lorsqu’il n’y a pas de mise à jour à faire. En d’autres termes, nous exigeons que notre modèle soit un système ouvert, i.e. un système qui est toujours perturbé par ses entrées mais qui doit néanmoins apprendre à conserver une mémoire stable. Dans la première partie de ce travail, nous présentons l’architecture du modèle et ses propriétés, puis nous montrons sa robustesse au travers d’une étude de sensibilité aux paramètres. Celle-ci montre que le modèle est extrêmement robuste pour une large gamme de paramètres. Peu ou prou, toute population aléatoire de neurones peut être utilisée pour effectuer le gating. Par ailleurs, après apprentissage, nous mettons en évidence une propriété intéressante du modèle, à savoir qu’une information peut être maintenue de manière entièrement distribuée, i.e. sans être corrélée à aucun des neurones mais seulement à la dynamique du groupe. Plus précisément, la mémoire de travail n’est pas corrélée avec l’activité soutenue des neurones ce qui a pourtant longtemps été observé dans la littérature et remis en cause récemment de façon expérimentale. Ce modèle vient confirmer ces résultats au niveau théorique. Dans la deuxième partie de ce travail, nous montrons comment ces modèles obtenus par apprentissage peuvent être étendus afin de manipuler l’information qui se trouve dans l’espace latent. Nous proposons pour cela de considérer les conceptors qui peuvent être conceptualisé comme un jeu de poids synaptiques venant contraindre la dynamique du réservoir et la diriger vers des sous-espaces particuliers; par exemple des sous-espaces correspondants au maintien d’une valeur particulière. Plus généralement, nous montrons que ces conceptors peuvent non seulement maintenir des informations, ils peuvent aussi maintenir des fonctions. Dans le cas du calcul mental évoqué précédemment, ces conceptors permettent alors de se rappeler et d’appliquer l’opération à effectuer sur les différentes entrées données au système. Ces conceptors permettent donc d’instancier une mémoire de type procédural en complément de la mémoire de travail de type déclaratif. Nous concluons ce travail en remettant en perspective ce modèle théorique vis à vis de la biologie et des neurosciences.