2.4 Traitement récurrent
Par opposition à ce traitement séquentiel, nous considérons
une hypothèse alternative qui serait celle
Cela revient à regarder des mécanismes de traitement
dans lesquels l'appariement :
Pour qu'une décision soit réalisée par une population,
il faut que les neurones échangent de l'information pour aboutir à un "consensus".
Dans le langage des systèmes dynamiques, on parle de mécanisme de relaxation (voir plus bas).
L'idée est donc que le cerveau, en présence d'un signal, construit sa réponse via une relaxation vers le circuit ayant la meilleure "correspondance" avec ce signal.
Le choix du mécanisme de relaxation, par opposition au produit scalaire,
Un réseau de neurones est dit récurrent :
lorsque le graphe qui le décrit contient des cycles.
Cela signifie concrètement que le signal produit par les neurones peut circuler à l'infini, "en boucle", à l'intérieur du réseau.
On parle d'activité interne ou encore activité "endogène".
Le choix d'étudier des réseaux de neurones récurrents en traitement de l'information et apprentissage biologiquement inspirés se justifie par leur plus grande plausibilité biologique :
Les réseaux de neurones récurrents sont capables de maintenir une activité persistante en l'absence de stimulation extérieure.
Le cadre à considérer pour traiter l'appariement est celui des systèmes dynamiques "ouverts" dans lesquels
l'activité endogène d'un réseau de neurones récurrent est "perturbée" par un signal extérieur.
2.4.1 Systèmes dynamiques
La théorie des systèmes dynamiques repose sur :
un espace d'état $\mathcal{X}$,
une trame temporelle $\mathcal{T}$
et un flot $\phi$ qui est une application de $\mathcal{X} \times \mathcal{T}$ dans $\mathcal{X}$
\begin{align}\label{eq:SD}
\dot{\boldsymbol{x}} = \phi(\boldsymbol{x},t)
\end{align}
La trajectoire du système sur la plage temporelle $[t_0,t_f]$ est alors définie
par l'intégration sur le flot de la condition initiale $\boldsymbol{x}_0$.
$$\{\boldsymbol{x}(t)\}_{t \in [t_0,t_f], \boldsymbol{x}(t_0)= \boldsymbol{x}_0}$$
est entièrement définie par les conditions initiales.
Dans le cas d'un système dit "ouvert" (non-autonome),
la dépendance temporelle est souvent modélisée sous la forme d'un signal externe $\boldsymbol{I}(t)$, soit
$$\phi(\boldsymbol{x},t) = \phi(\boldsymbol{x},\boldsymbol{I}(t))$$
La plupart des réseaux de neurones peuvent se modéliser sous cette forme, à partir du moment où l'état du réseau à l'instant $t$ est entièrement spécifié, en tenant compte en particulier
du potentiel de membrane et des différents temps de transport sur les axones.
2.4.2 Attracteurs
Dans le cas des systèmes autonomes dissipatifs, on appelle attracteur une région de l'espace d'état qui tend à attirer les trajectoires du système pour les temps longs.
Un attracteur est formellement défini comme une région de l'espace d'états invariante par le flot, c'est à dire un ensemble de points $\mathcal{A} \subset \mathcal{X}$ tel que si $\boldsymbol{x}(t) \in \mathcal{A}$, alors $\boldsymbol{x}(t+\tau) \in \mathcal{A}$, avec $\tau > 0$.
Un attracteur est dit stable s'il existe un voisinage de $\mathcal{A}$ tel que tout point de ce voisinage converge vers l'attracteur pour les temps longs.
La trajectoire qui va de la condition initiale vers l'attracteur s'appelle la dynamique de relaxation.
L'ensemble des conditions initiales convergeant vers un attracteur donné s'appelle le bassin d'attraction.
2.4.3 Mécanisme d'appariement dans les systèmes dynamiques
Dans le cas des systèmes non-autonomes, la réponse du réseau correspond à un compromis :
entre les contraintes internes, exprimées par le graphe,
et les contraintes externes, exprimées par le signal.
On pourra également parler de dynamique de
relaxation pour caractériser
la convergence vers un attracteur lorsque le signal extérieur est stationnaire,
ou encore lorsque les changements du signal extérieur sont suffisamment "lents" pour laisser la dynamique converger vers une région de faible volume.
La généralisation des opérateurs
d'appariement au cas des dynamiques de relaxation signifie essentiellement~:
que la dynamique de relaxation doit permettre de séparer l'espace des signaux en régions distinctes.
Les attracteurs atteints pour certaines classes de signaux doivent être qualitativement différents de ceux obtenus pour d'autres classes de signaux.
qu'il existe des mécanismes de plasticité permettant
de faire "bouger les frontières" entre les différentes régions,
voire d'en créer de nouvelles et d'en faire disparaître.
Séparation des signaux
La transformation des données d'entrée sous la forme d'un (ou plusieurs) vecteur(s) caractéristique(s) correspond à une simplification de ces données.
Dans le cas des réseaux de neurones à couches, cette simplification correspond à une dimension de la couche de sortie plus faible que celle de la couche d'entrée.
Dans le cas des réseaux récurrents, cette simplification se traduit
L'équation de récurrence:
\begin{align}
\dot{\boldsymbol{x}} = \phi(\boldsymbol{x}(t), I(t)) \label{eq:recurrence}
\end{align}
permet de modéliser l'interaction entre une activité endogène (décrite par $\boldsymbol{x}$) et un signal extérieur (décrit par $I$).