Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
public:ncom:2.2_reseau_de_neurones [2017/04/06 21:01] – [Fonction de sortie du réseau] edauce | public:ncom:2.2_reseau_de_neurones [2022/03/25 15:08] (Version actuelle) – edauce | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
+ | ===== 2.2 Réseau de neurones ===== | ||
+ | * Plusieurs neurones connectés entre eux via des axones constituent un **réseau de neurones**. | ||
+ | * Le schéma de connexion, sous la forme d'un **graphe orienté**, | ||
+ | |||
+ | <note important> | ||
+ | //Les messages transitant de neurone à neurone via les axones d'un réseau de neurones contiennent une succession d' | ||
+ | d' | ||
+ | numériques. Cette analogie de forme n' | ||
+ | de transformation de ces signaux soient les mêmes.// | ||
+ | </ | ||
+ | |||
+ | |||
+ | |||
+ | ====Graphe et fonction de couplage==== | ||
+ | |||
+ | Le réseau est décrit par une **fonction de couplage** : | ||
+ | * définie le plus souvent par un tableau à double entrée noté $G$. | ||
+ | * Chaque neurone se voit attribuer un indice $i \in 1,...,N$ | ||
+ | * où $N$ est le nombre de neurones dans le réseau. | ||
+ | * Le tableau $G[i,j]$ contient alors les caractéristiques du lien du neurone $j$ vers le neurone $i$. | ||
+ | |||
+ | * Un exemple de paramètres associés au lien $(i,j)$ est | ||
+ | * le temps de propagation $\tau_{ij}$ | ||
+ | * et poids synaptique $J_{ij}$. | ||
+ | |||
+ | * Lorsque le poids synaptique $J_{ij}$ est non nul, | ||
+ | * on dit que les neurones $i$ et $j$ sont couplés. | ||
+ | |||
+ | * Si $N$ est le nombre de neurones, | ||
+ | * le nombre de paramètres du réseau est en $O(N^2)$, | ||
+ | * correspondant à un principe de transmission du signal //de plusieurs à plusieurs// (un neurone envoie son message de sortie vers plusieurs destinataires, | ||
+ | |||
+ | < | ||
+ | |||
+ | **Notations: | ||
+ | * Le **vecteur d' | ||
+ | $$\boldsymbol{s}(t) = (s_1^\text{out}(t), | ||
+ | * Le **patron d' | ||
+ | * entre l' | ||
+ | * et l' | ||
+ | * soit: | ||
+ | $$\boldsymbol{S}(t)=\{\boldsymbol{s}(t' | ||
+ | </ | ||
+ | |||
+ | ==== Signal d' | ||
+ | Dans un réseau de neurones, la mise en œuvre d'un calcul : | ||
+ | * repose sur la présence de neurones d' | ||
+ | * qui sont donc les opérandes du calcul. | ||
+ | * C'est le cas chez l' | ||
+ | * On note $\boldsymbol{I}(t) = \{I_i(t' | ||
+ | * Si le neurone $i$ est un neurone d' | ||
+ | \begin{align} | ||
+ | V_i(t) = g(s_{i, | ||
+ | \end{align} où $s_{i, | ||
+ | * Si le neurone $i$ n'est pas un neurone d' | ||
+ | $$\forall t : I_i (t) = 0$$ | ||
+ | |||
+ | | ||
+ | ==== Fonction de réponse du réseau ==== | ||
+ | |||
+ | Les échanges de signaux entre les différentes neurones, via les liens du graphe, constituent le **calcul** du réseau de neurones. | ||
+ | |||
+ | * Les activités des différents neurones sont donc **inter**dépendantes du fait des couplages. | ||
+ | * La **fonction de réponse** du réseau $f$ : | ||
+ | * est une fonction paramétrique | ||
+ | * décrite par le tableau de paramètres $G$, | ||
+ | * telle que l' | ||
+ | |||
+ | \begin{align} | ||
+ | \boldsymbol{s}(t) = f(\boldsymbol{S}(t), | ||
+ | \end{align} | ||
+ | avec $\boldsymbol{S}(t)$ l' | ||
+ | |||
+ | |||
+ | La **réponse** du réseau de neurones au signal d' | ||
+ | par le signal d' | ||
+ | |||
+ | On dit également que le réseau de neurones **transforme** le signal d' | ||
+ | |||
+ | <note important> | ||
+ | //Il faut ici préciser, dans la mesure où les temps de transport sont supposés strictement positifs, que l' | ||
+ | \begin{align} | ||
+ | s^\text{in}_{ij}(t) = s^\text{out}_{j}(t - \tau_{ij}) | ||
+ | \end{align} | ||
+ | </ | ||
+ | |||
+ | ==== Fonction de sortie du réseau ==== | ||
+ | |||
+ | Il est possible de définir une **fonction de sortie** qui **décode** ce patron d' | ||
+ | * La sortie du réseau est alors : | ||
+ | $$\boldsymbol{u} = h(\boldsymbol{s})$$ | ||
+ | * avec $h$ fonction de décodage (ou de " | ||
+ | |||
+ | Plus globalement, | ||
+ | \begin{align}\label{eq: | ||
+ | \boldsymbol{u} = h(f(\boldsymbol{S}, | ||
+ | \end{align} | ||
+ | |||
+ | <note important> | ||
+ | //La sortie $\boldsymbol{u}$ peut ainsi être interprétée comme le résultat du calcul réalisé à partir des données d' | ||
+ | Dans la mesure où ce résultat est le produit de | ||
+ | l' | ||
+ | séquentiel centralisé réalisé par les ordinateurs traditionnels.// | ||
+ | </ |