Dynamiques de réseaux entraînés : computations dans des circuits neuronaux récurrents

 

Guillaume Lajoie

Université de Montréal

 

Domaine : structures abstraites

Programme : établissement de nouveaux chercheurs universitaires

Concours 2018-2019

Quelles interactions entre les milliards de neurones du cerveau sous-tiennent sa capacité remarquable à encoder, à calculer et à apprendre ? Pour trouver des réponses, ma recherche combine les approches de deux disciplines: systèmes dynamiques et codage neuronal. Les systèmes dynamiques permettent une approche ascendante, avec une description mathématique des processus non linéaires qui se déroulent dans les circuits neuronaux. Le codage neuronal prend une vue descendante, en étudiant comment l'information est codée et transformée par l'activité produite par ces mêmes circuits.
 
Des décennies de neurosciences ont formé une compréhension remarquable de la physiologie de neurones et de la physiologie des synapses qui les relient. Des technologies plus récentes, telles que les multi-électrodes et l'imagerie en champ étendu, peuvent capturer l'activité de centaines et de milliers de neurones simultanément et sonder leur connectivité. Cette explosion de données en dimension et en complexité est problématique car elle rend impossible l'échantillonnage statistique standard et est difficile à concilier avec les propriétés individuelles de neurones. Ainsi, l'échelle du cerveau et sa dynamique fortement non linéaire nécessitent de nouvelles méthodes à l'interface de l'analyse statistique et de la modélisation mécanique. Cela crée des occasions d'enquêter sur la façon dont les neurones connectés supportent des fonctions qui dépassent largement leurs propriétés individuelles et pour faire progresser une théorie du calcul émergent de réseaux avec des impacts dans les domaines de la neuroscience, de la neuro-ingénierie et des réseaux neuronaux artificiels.
 
Ce projet de recherche interdisciplinaire vise à mieux comprendre l'encodage et les calculs dans les réseaux neuronaux récurrents entraînés par des signaux. De tels réseaux sont omniprésents dans le cerveau, où ils intègrent des signaux afférents (par exemple, des signaux sensoriels ou provenant d'autres zones du cerveau) avec des profils temporels riches et apprennent des calculs complexes. Avec prévalence dans le cortex, la dynamique des circuits récurrents a été l'objet d'études poussées au cours des dernières décennies. La théorie actuelle prédit les régimes d'activité stables mais irréguliers trouvés spontanément dans le cortex, mais on connait peu de choses sur la façon dont l'information provenant des signaux externes est encodée et sur la façon dont les mécanismes de plasticité modulent les connexions synaptiques pour accomplir des tâches spécifiques. Dans ce projet de recherche, je pose trois questions complémentaires nécessitant de nouveaux outils mathématiques reliant la dynamique aux statistiques:
 
Q1: Quel est l'impact de l'architecture de réseaux récurrents sur ses propriétés d'encodage de signaux ?
Q2: Quel est le rôle de la dynamique synaptique - où les connections entre neurones évoluent sur des échelles de temps plus lentes - dans les calculs implémentés par des réseaux ? (et comment les signaux externes influencent-ils ce processus ?)
Q3: Comment les mécanismes de Q1 et Q2 se combinent-ils pour permettre à un réseau d'apprendre des tâches complexes ?
 
Les réponses à ces questions sont centrales aux neurosciences modernes et ont un le potentiel d'influencer d'autres disciplines influencées par la dynamique de réseaux.