Table des matières
2.1 Activité et signal
Neurone formel
Chaque unité de calcul (ou neurone) est modélisée comme une fonction de réponse $f$ qui traite un jeu de données d'entrée multimodal $$s^\text{in}_1, ..., s^\text{in}_n$$. On peut supposer sans perte de généralité que les données d'entrée sont indexées sur l'axe temporel. On parle alors de message d'entrée où $$s^\text{in}_i = \{s^\text{in}_i(t)\}_{t \in \{t_0,... t_f\}}$$ représente un jeu de données indexé sur une trame temporelle et $s^\text{in}_i(t)$ représente un point de mesure du $i^\text{ème}$ message à l'instant $t$.
La sortie du neurone au temps $t_f$ est un scalaire: \begin{align}\label{eq:neurone_s_out} s^\text{out}(t_f) = f(s^\text{in}_1, ..., s^\text{in}_n) \end{align} (on parle aussi de réponse du neurone aux messages d'entrée). Un neurone est donc une unité élémentaire de traitement des données.
Le message de sortie du neurone : $$s^\text{out} = \{s^\text{out}(t)\}_{t \in \{t_0,... t_f\}}$$ est constitué d'une succession d'états "hauts" et d'états "bas":
- Un neurone dont la sortie à l'instant $t$ est dans l'état haut est dit activé.
- Un neurone dont la sortie à l'instant $t$ est dans l'état bas est dit inactif.
- Dans le cas le plus simple des neurones binaires, le message de sortie est une succession :
- de 0 (inactif)
- ou de 1 (actif).
- Dans le cas plus complexe de neurones à impulsions, le message de sortie :
- est un train de potentiels d'action (PA),
- représenté par une somme de Diracs tels que
$$s(t) = \sum_{\hat{t} \in \mathcal{T}_\text{out}} \delta(t - \hat{t})$$
- où $\mathcal{T}_\text{out}$ est un ensemble contenant les instants de décharge (voir par exemple gerstner02).
- Le message de sortie (la suite d'états hauts et d'états bas) est aussi appelé l'activité du neurone.
- Ce message est transporté sur un axone, qui se sépare à son extrémité en plusieurs branches
- se terminant par une (ou plusieurs) synapse(s).
Entrée synaptique
Les synapses sont les canaux d'entrée des neurones :
- Chaque synapse :
- traite un signal $s_i^\text{in}$
- émis par un autre neurone pré-synaptique $i$ du réseau
- et produit une entrée synaptique $e(s_i^\text{in})$.
- L'état interne du neurone post-synaptique
- est donné par son potentiel de membrane $V$.
- La somme des entrées synaptiques agit sur la valeur de ce potentiel de membrane.
L'intégration de la totalité des entrées peut être exprimée par une fonction de mise à jour du potentiel de membrane de la forme: \begin{align}\label{eq:neurone_V} V = g(s_1^\text{in}, ..., s_n^\text{in}) \end{align} où $s_1^\text{in}, ..., s_n^\text{in}$ sont les $n$ signaux entrants.
- Dans le cas le plus simple, $g$ est une combinaison linéaire des entrées synaptiques :
$$V = \sum_{i=1}^n J_i e(s_i^\text{in})$$ où $J_i$ est le coefficient synaptique de l'entrée $i$.
- Les modèles plus détaillés prennent en compte :
- la fonction de transfert des synapses
- ainsi que les interactions non-linéaires entre les influences excitatrices et les influences inhibitrices DESTEXHE97.
Seuil d'activation
L'activation d'un neurone repose ensuite sur un mécanisme non linéaire de passage de seuil.
- Dans le modèle le plus simple, l'état de sortie (0 ou 1) dépend :
- d'un seuil d'activation $\theta$
- tel que
- $s=1$ (état haut) si $V>\theta$
- et $s=0$ (état bas) sinon.
- Dans les modèles plus détaillés lapicque1907_hh52, le passage à l'état haut :
- déclenche un mécanisme actif de réinitialisation
- qui ramène le potentiel de membrane vers sa valeur de repos $V_0 < \theta$.
- Ce mécanisme de réinitialisation, qui interdit le maintien de la sortie dans l'état haut :
- rend l'état haut plus rare
- et donc plus porteur d'information que l'état bas.
- Il a également pour effet d'effacer la mémoire des données d'entrée antérieures au dernier potentiel d'action.