next up previous contents index
suivant: Comportement statistique de la monter: Covariance des activations précédent: Covariance des activations   Table des matières   Index


Règle de covariance

Les limites des règles d'apprentissage qui reposent sur les caractéristiques statiques des activations ont été à peu près cernées. En particulier, il est apparu sur la première règle étudiée (4.1), qui est fondée sur un produit entre les activations effectives, que le terme constant $ x_i^*$ intervient de façon décisive dans le changement synaptique. De manière globale, la règle tend à renforcer l'influence des neurones dont l'activation est la plus forte en moyenne, c'est à dire les neurones saturés. Sachant que les neurones saturés produisent un signal d'activation d'amplitude très faible, on augmente l'influence des neurones qui sont les moins représentatifs de la dynamique.

Il paraît dès lors logique de mettre en place une règle qui gomme les aspects statiques du signal d'activation, c'est à dire qui néglige autant que possible sa partie constante. Lorsque l'on souhaite renforcer l'intensité des signaux propagés, la quantité qui nous intéresse est la partie dynamique du signal d'activation $ a_i(t)=x_i(t)-x_i^*$.

La mise en \oeuvre de cette nouvelle règle nécessite d'utiliser l'estimation instantanée de l'activation moyenne $ \tilde{x}_i^*(t)$. Cette variable conserve à tout instant une mémoire de l'activation moyenne , remise à jour à chaque pas de temps selon le paramètre d'habituation $ \beta=0.1$ (voir page [*]). On accède ainsi à tout instant $ T$ à une estimation de l'activité dynamique

$\displaystyle \tilde{a}_i(T)=x_i(T)-\tilde{x}_i^*(T)$

Et (en régime stationnaire) on a :

$\displaystyle \tilde{a}_i(T) = (x_i(T)-x_i^* \underbrace{\beta \sum_{t=0}^{T-1}...
...ghtarrow 1 (T\rightarrow \infty)})-\beta \sum_{t=0}^{T-1} (1-\beta)^t a_i(T-t)
$

Pour $ T$ grand :

$\displaystyle \tilde{a}_i(T) \simeq a_i(T) - e_i^*(T)
$

Comme précédemment, une valeur de $ \beta$ proche de zéro améliore l'estimation sur l'activité dynamique. La valeur opérationnelle $ \beta=0.1$ nécessite un temps de convergence d'environ 60 pas de temps.

Le mécanisme d'adaptation synaptique proposé ici reste fondamentalement un mécanisme Hebbien. Le but de la nouvelle règle d'apprentissage est de modifier les liens synaptiques $ J_{ij}$ selon les caractéristiques de l'activité dynamique $ a_i(t)$ exclusivement. Dans notre système, le principe général de Hebb doit subir quelques adaptations :

On traduit le mécanisme de Hebb par la dynamique sur les poids (4.4), fondée sur le produit des activités dynamiques entre l'activité des neurones émetteurs au temps $ t-1$ et l'activité des neurones récepteurs au temps $ t$. Il est important de bien insister sur le rôle majeur que joue à présent le délai de transmission $ \tau=1$. Le renforcement des liens se fonde sur les caractéristiques des signaux antérieurs d'un pas de temps au signal actuel. Les règles analogues présentes dans la littérature [55] ne prennent pas en compte ce délai temporel. [59] montre l'importance de la prise en compte du délai de transmission pour des systèmes visant à apprendre des motifs spatio-temporels.

À chaque pas de temps, chaque neurone $ i$ modifie ses poids afférents $ J_{ij}$ selon la règle :

$\displaystyle J_{ij}(t+1)=J_{ij}(t)+\frac{\alpha}{N} a_i(t) a_j(t-1)$ (4.4)

La notation $ a_i(t)$ qui apparaît dans la règle d'apprentissage, désigne en fait $ \tilde{a}_i(t)$ dans la mise en \oeuvre numérique, avec pour valeur opérationnelle $ \beta=0.1$.

On voit que les liens ``excitateur'' et ``inhibiteur'' jouent des rôles symétriques, ce qui n'est pas le cas des neurones biologiques.

Si un des deux neurones est saturé ou silencieux, le produit $ a_i(t) a_j(t-1)$ est proche de zéro, et par conséquent le poids change très peu. L'essentiel des modifications de poids s'effectue sur les liaisons entre neurones actifs.


La règle que nous avons mise en place repose fondamentalement, comme nous allons le voir, sur une estimation de la covariance effective entre les signaux d'activation afférents et efférents. Au prix d'une hypothèse de stationnarité du processus d'apprentissage, on peut montrer que les modifications synaptiques inscrites par la règle sont en effet proportionnelles à cette covariance. Ainsi, si l'apprentissage est effectué entre $ t=t_0$ et $ t=T$, et si dans ce cas on prend une valeur d'$ \alpha$ suffisamment petite pour que l'hypothèse de stationnarité soit correctement approchée, alors :

\begin{displaymath}
\begin{array}{rl}
J_{ij}(T)-J_{ij}(t_0)
&=\displaystyle{\fra...
...ystyle{\frac{T \alpha}{N}\mbox{cov}_{ij}^{[1]}}\\
\end{array}\end{displaymath}

Dans le cas général, l'influence de la covariance des activations sur le renforcement des poids reste, comme nous le verrons plus loin, tout à fait fondamentale. La règle renforce les liens propageant des signaux corrélés à $ t-1$ au signal du neurone au temps $ t$, ce qui revient à renforcer les liens entre les différentes étapes du circuit d'activation.

Avant l'étude des effets de l'apprentissage sur la dynamique, la section suivante propose un aperçu de la répartition de ces covariances sur nos réseaux.


next up previous contents index
suivant: Comportement statistique de la monter: Covariance des activations précédent: Covariance des activations   Table des matières   Index
Dauce Emmanuel 2003-05-07