===== 2.1 Activité et signal =====
==== Neurone formel ====
Chaque unité de calcul (ou neurone) est modélisée comme une fonction de réponse $f$ qui
traite un jeu de **données d'entrée** multimodal $$s^\text{in}_1, ..., s^\text{in}_n$$.
On peut supposer sans perte de généralité que les données d'entrée sont indexées sur l'axe temporel.
On parle alors de **message d'entrée** où
$$s^\text{in}_i = \{s^\text{in}_i(t)\}_{t \in \{t_0,... t_f\}}$$
représente un jeu de données indexé sur une trame temporelle et
$s^\text{in}_i(t)$ représente un point de mesure du $i^\text{ème}$ message à l'instant $t$.
La sortie du neurone au temps $t_f$ est un scalaire:
\begin{align}\label{eq:neurone_s_out}
s^\text{out}(t_f) = f(s^\text{in}_1, ..., s^\text{in}_n)
\end{align}
(on parle aussi de **réponse** du neurone aux messages d'entrée).
Un neurone est donc une unité élémentaire de traitement des données.
Le message de sortie du neurone :
$$s^\text{out} = \{s^\text{out}(t)\}_{t \in \{t_0,... t_f\}}$$ est constitué
d'une succession d'états "hauts" et d'états "bas":
* Un neurone dont la sortie à l'instant $t$ est dans l'état haut est dit **activé**.
* Un neurone dont la sortie à l'instant $t$ est dans l'état bas est dit **inactif**.
**Exemples:**
* Dans le cas le plus simple des neurones binaires, le message de sortie est une succession :
* de 0 (inactif)
* ou de 1 (actif).
* Dans le cas plus complexe de neurones à impulsions, le message de sortie :
* est un train de potentiels d'action (PA),
* représenté par une somme de Diracs tels que
$$s(t) = \sum_{\hat{t} \in \mathcal{T}_\text{out}} \delta(t - \hat{t})$$
* où $\mathcal{T}_\text{out}$ est un ensemble contenant les instants de décharge (voir par exemple {{http://www.langtoninfo.com/web_content/9780521813846_frontmatter.pdf|gerstner02}}).
* Le message de sortie (la suite d'états hauts et d'états bas) est aussi appelé l'**activité** du neurone.
* Ce message est transporté sur un axone, qui se sépare à son extrémité en plusieurs branches
* se terminant par une (ou plusieurs) **synapse(s)**.
==== Entrée synaptique ====
Les **synapses** sont les canaux d'entrée des neurones :
* Chaque synapse :
* traite un signal $s_i^\text{in}$
* émis par un autre neurone pré-synaptique $i$ du réseau
* et produit une **entrée synaptique** $e(s_i^\text{in})$.
* L'état //interne// du neurone post-synaptique
* est donné par son **potentiel de membrane** $V$.
* La somme des entrées synaptiques agit sur la valeur de ce potentiel de membrane.
L'intégration de la totalité des entrées peut être exprimée par une fonction de mise à jour du potentiel de membrane de la forme:
\begin{align}\label{eq:neurone_V}
V = g(s_1^\text{in}, ..., s_n^\text{in})
\end{align}
où $s_1^\text{in}, ..., s_n^\text{in}$ sont les $n$ signaux entrants.
**Exemples:**
* Dans le cas le plus simple, $g$ est une combinaison linéaire des entrées synaptiques :
$$V = \sum_{i=1}^n J_i e(s_i^\text{in})$$
où $J_i$ est le coefficient synaptique de l'entrée $i$.
* Les modèles plus détaillés prennent en compte :
* la fonction de transfert des synapses
* ainsi que les interactions non-linéaires entre les influences excitatrices et les influences inhibitrices {{http://www.mitpressjournals.org/doi/abs/10.1162/neco.1997.9.3.503|DESTEXHE97}}.
==== Seuil d'activation ====
L'activation d'un neurone repose ensuite sur un mécanisme non linéaire de **passage de seuil**.
**Exemples:**
* Dans le modèle le plus simple, l'état de sortie (0 ou 1) dépend :
* d'un seuil d'activation $\theta$
* tel que
* $s=1$ (état haut) si $V>\theta$
* et $s=0$ (état bas) sinon.
* Dans les modèles plus détaillés {{Lapicque1907,HH52}}, le passage à l'état haut :
* déclenche un mécanisme actif de réinitialisation
* qui ramène le potentiel de membrane vers sa valeur de repos $V_0 < \theta$.
* Ce mécanisme de réinitialisation, qui interdit le maintien de la sortie dans l'état haut :
* rend l'état haut plus rare
* et donc plus porteur d'information que l'état bas.
* Il a également pour effet d'effacer la mémoire des données d'entrée antérieures au dernier potentiel d'action.