Par opposition à ce traitement séquentiel, nous considérons
une hypothèse alternative qui serait celle
Cela revient à regarder des mécanismes de traitement
dans lesquels l'appariement :
Pour qu'une décision soit réalisée par une population,
il faut que les neurones échangent de l'information pour aboutir à un "consensus".
Dans le langage des systèmes dynamiques, on parle de mécanisme de relaxation (voir plus bas).
L'idée est donc que le cerveau, en présence d'un signal, construit sa réponse via une relaxation vers le circuit ayant la meilleure "correspondance" avec ce signal.
Le choix du mécanisme de relaxation, par opposition au produit scalaire,
Un réseau de neurones est dit récurrent :
lorsque le graphe qui le décrit contient des cycles.
Cela signifie concrètement que le signal produit par les neurones peut circuler à l'infini, "en boucle", à l'intérieur du réseau.
On parle d'activité interne ou encore activité "endogène".
Le choix d'étudier des réseaux de neurones récurrents en traitement de l'information et apprentissage biologiquement inspirés se justifie par leur plus grande plausibilité biologique :
Les réseaux de neurones récurrents sont capables de maintenir une activité persistante en l'absence de stimulation extérieure.
Le cadre à considérer pour traiter l'appariement est celui des systèmes dynamiques "ouverts" dans lesquels
l'activité endogène d'un réseau de neurones récurrent est "perturbée" par un signal extérieur.
La théorie des systèmes dynamiques repose sur :
˙x=ϕ(x,t)
La trajectoire du système sur la plage temporelle [t0,tf] est alors définie
par l'intégration sur le flot de la condition initiale x0.
{x(t)}t∈[t0,tf],x(t0)=x0
est entièrement définie par les conditions initiales.
Dans le cas d'un système dit "ouvert" (non-autonome),
la dépendance temporelle est souvent modélisée sous la forme d'un signal externe I(t), soit
ϕ(x,t)=ϕ(x,I(t))
La plupart des réseaux de neurones peuvent se modéliser sous cette forme, à partir du moment où l'état du réseau à l'instant t est entièrement spécifié, en tenant compte en particulier
du potentiel de membrane et des différents temps de transport sur les axones.
Dans le cas des systèmes non-autonomes, la réponse du réseau correspond à un compromis :
entre les contraintes internes, exprimées par le graphe,
et les contraintes externes, exprimées par le signal.
On pourra également parler de dynamique de
relaxation pour caractériser
la convergence vers un attracteur lorsque le signal extérieur est stationnaire,
ou encore lorsque les changements du signal extérieur sont suffisamment "lents" pour laisser la dynamique converger vers une région de faible volume.
La généralisation des opérateurs
d'appariement au cas des dynamiques de relaxation signifie essentiellement~:
que la dynamique de relaxation doit permettre de séparer l'espace des signaux en régions distinctes.
Les attracteurs atteints pour certaines classes de signaux doivent être qualitativement différents de ceux obtenus pour d'autres classes de signaux.
qu'il existe des mécanismes de plasticité permettant
de faire "bouger les frontières" entre les différentes régions,
voire d'en créer de nouvelles et d'en faire disparaître.
La transformation des données d'entrée sous la forme d'un (ou plusieurs) vecteur(s) caractéristique(s) correspond à une simplification de ces données.
Dans le cas des réseaux de neurones à couches, cette simplification correspond à une dimension de la couche de sortie plus faible que celle de la couche d'entrée.
Dans le cas des réseaux récurrents, cette simplification se traduit
L'équation de récurrence:
˙x=ϕ(x(t),I(t))
permet de modéliser l'interaction entre une activité endogène (décrite par x) et un signal extérieur (décrit par I).