===== 2.1 Activité et signal ===== ==== Neurone formel ==== Chaque unité de calcul (ou neurone) est modélisée comme une fonction de réponse $f$ qui traite un jeu de **données d'entrée** multimodal $$s^\text{in}_1, ..., s^\text{in}_n$$. On peut supposer sans perte de généralité que les données d'entrée sont indexées sur l'axe temporel. On parle alors de **message d'entrée** où $$s^\text{in}_i = \{s^\text{in}_i(t)\}_{t \in \{t_0,... t_f\}}$$ représente un jeu de données indexé sur une trame temporelle et $s^\text{in}_i(t)$ représente un point de mesure du $i^\text{ème}$ message à l'instant $t$. La sortie du neurone au temps $t_f$ est un scalaire: \begin{align}\label{eq:neurone_s_out} s^\text{out}(t_f) = f(s^\text{in}_1, ..., s^\text{in}_n) \end{align} (on parle aussi de **réponse** du neurone aux messages d'entrée). Un neurone est donc une unité élémentaire de traitement des données. Le message de sortie du neurone : $$s^\text{out} = \{s^\text{out}(t)\}_{t \in \{t_0,... t_f\}}$$ est constitué d'une succession d'états "hauts" et d'états "bas": * Un neurone dont la sortie à l'instant $t$ est dans l'état haut est dit **activé**. * Un neurone dont la sortie à l'instant $t$ est dans l'état bas est dit **inactif**. **Exemples:** * Dans le cas le plus simple des neurones binaires, le message de sortie est une succession : * de 0 (inactif) * ou de 1 (actif). * Dans le cas plus complexe de neurones à impulsions, le message de sortie : * est un train de potentiels d'action (PA), * représenté par une somme de Diracs tels que $$s(t) = \sum_{\hat{t} \in \mathcal{T}_\text{out}} \delta(t - \hat{t})$$ * où $\mathcal{T}_\text{out}$ est un ensemble contenant les instants de décharge (voir par exemple {{http://www.langtoninfo.com/web_content/9780521813846_frontmatter.pdf|gerstner02}}). * Le message de sortie (la suite d'états hauts et d'états bas) est aussi appelé l'**activité** du neurone. * Ce message est transporté sur un axone, qui se sépare à son extrémité en plusieurs branches * se terminant par une (ou plusieurs) **synapse(s)**. ==== Entrée synaptique ==== Les **synapses** sont les canaux d'entrée des neurones : * Chaque synapse : * traite un signal $s_i^\text{in}$ * émis par un autre neurone pré-synaptique $i$ du réseau * et produit une **entrée synaptique** $e(s_i^\text{in})$. * L'état //interne// du neurone post-synaptique * est donné par son **potentiel de membrane** $V$. * La somme des entrées synaptiques agit sur la valeur de ce potentiel de membrane. L'intégration de la totalité des entrées peut être exprimée par une fonction de mise à jour du potentiel de membrane de la forme: \begin{align}\label{eq:neurone_V} V = g(s_1^\text{in}, ..., s_n^\text{in}) \end{align} où $s_1^\text{in}, ..., s_n^\text{in}$ sont les $n$ signaux entrants. **Exemples:** * Dans le cas le plus simple, $g$ est une combinaison linéaire des entrées synaptiques : $$V = \sum_{i=1}^n J_i e(s_i^\text{in})$$ où $J_i$ est le coefficient synaptique de l'entrée $i$. * Les modèles plus détaillés prennent en compte : * la fonction de transfert des synapses * ainsi que les interactions non-linéaires entre les influences excitatrices et les influences inhibitrices {{http://www.mitpressjournals.org/doi/abs/10.1162/neco.1997.9.3.503|DESTEXHE97}}. ==== Seuil d'activation ==== L'activation d'un neurone repose ensuite sur un mécanisme non linéaire de **passage de seuil**. **Exemples:** * Dans le modèle le plus simple, l'état de sortie (0 ou 1) dépend : * d'un seuil d'activation $\theta$ * tel que * $s=1$ (état haut) si $V>\theta$ * et $s=0$ (état bas) sinon. * Dans les modèles plus détaillés {{Lapicque1907,HH52}}, le passage à l'état haut : * déclenche un mécanisme actif de réinitialisation * qui ramène le potentiel de membrane vers sa valeur de repos $V_0 < \theta$. * Ce mécanisme de réinitialisation, qui interdit le maintien de la sortie dans l'état haut : * rend l'état haut plus rare * et donc plus porteur d'information que l'état bas. * Il a également pour effet d'effacer la mémoire des données d'entrée antérieures au dernier potentiel d'action.