public:ncom:2.1_activite_et_signal

Chaque unité de calcul (ou neurone) est modélisée comme une fonction de réponse $f$ qui traite un jeu de données d'entrée multimodal $$s^\text{in}_1, ..., s^\text{in}_n$$. On peut supposer sans perte de généralité que les données d'entrée sont indexées sur l'axe temporel. On parle alors de message d'entrée où $$s^\text{in}_i = \{s^\text{in}_i(t)\}_{t \in \{t_0,... t_f\}}$$ représente un jeu de données indexé sur une trame temporelle et $s^\text{in}_i(t)$ représente un point de mesure du $i^\text{ème}$ message à l'instant $t$.

La sortie du neurone au temps $t_f$ est un scalaire: \begin{align}\label{eq:neurone_s_out} s^\text{out}(t_f) = f(s^\text{in}_1, ..., s^\text{in}_n) \end{align} (on parle aussi de réponse du neurone aux messages d'entrée). Un neurone est donc une unité élémentaire de traitement des données.

Le message de sortie du neurone : $$s^\text{out} = \{s^\text{out}(t)\}_{t \in \{t_0,... t_f\}}$$ est constitué d'une succession d'états "hauts" et d'états "bas":

  • Un neurone dont la sortie à l'instant $t$ est dans l'état haut est dit activé.
  • Un neurone dont la sortie à l'instant $t$ est dans l'état bas est dit inactif.
Exemples:
  • Dans le cas le plus simple des neurones binaires, le message de sortie est une succession :
    • de 0 (inactif)
    • ou de 1 (actif).
  • Dans le cas plus complexe de neurones à impulsions, le message de sortie :
    • est un train de potentiels d'action (PA),
    • représenté par une somme de Diracs tels que

$$s(t) = \sum_{\hat{t} \in \mathcal{T}_\text{out}} \delta(t - \hat{t})$$

  • où $\mathcal{T}_\text{out}$ est un ensemble contenant les instants de décharge (voir par exemple gerstner02).
  • Le message de sortie (la suite d'états hauts et d'états bas) est aussi appelé l'activité du neurone.
  • Ce message est transporté sur un axone, qui se sépare à son extrémité en plusieurs branches
  • se terminant par une (ou plusieurs) synapse(s).

Les synapses sont les canaux d'entrée des neurones :

  • Chaque synapse :
    • traite un signal $s_i^\text{in}$
    • émis par un autre neurone pré-synaptique $i$ du réseau
    • et produit une entrée synaptique $e(s_i^\text{in})$.
  • L'état interne du neurone post-synaptique
    • est donné par son potentiel de membrane $V$.
  • La somme des entrées synaptiques agit sur la valeur de ce potentiel de membrane.

L'intégration de la totalité des entrées peut être exprimée par une fonction de mise à jour du potentiel de membrane de la forme: \begin{align}\label{eq:neurone_V} V = g(s_1^\text{in}, ..., s_n^\text{in}) \end{align} où $s_1^\text{in}, ..., s_n^\text{in}$ sont les $n$ signaux entrants.

Exemples:
  • Dans le cas le plus simple, $g$ est une combinaison linéaire des entrées synaptiques :

$$V = \sum_{i=1}^n J_i e(s_i^\text{in})$$ où $J_i$ est le coefficient synaptique de l'entrée $i$.

  • Les modèles plus détaillés prennent en compte :
    • la fonction de transfert des synapses
    • ainsi que les interactions non-linéaires entre les influences excitatrices et les influences inhibitrices DESTEXHE97.

L'activation d'un neurone repose ensuite sur un mécanisme non linéaire de passage de seuil.

Exemples:
  • Dans le modèle le plus simple, l'état de sortie (0 ou 1) dépend :
    • d'un seuil d'activation $\theta$
    • tel que
      • $s=1$ (état haut) si $V>\theta$
      • et $s=0$ (état bas) sinon.
  • Dans les modèles plus détaillés lapicque1907_hh52, le passage à l'état haut :
    • déclenche un mécanisme actif de réinitialisation
    • qui ramène le potentiel de membrane vers sa valeur de repos $V_0 < \theta$.
    • Ce mécanisme de réinitialisation, qui interdit le maintien de la sortie dans l'état haut :
      • rend l'état haut plus rare
      • et donc plus porteur d'information que l'état bas.
    • Il a également pour effet d'effacer la mémoire des données d'entrée antérieures au dernier potentiel d'action.
  • public/ncom/2.1_activite_et_signal.txt
  • Dernière modification : 2017/04/14 11:30
  • de edauce