next up previous contents index
suivant: Absence d'apprentissage sur les monter: Apprentissage de séquences précédent: Apprentissage de séquences   Table des matières   Index

Séquences non ambiguës

L'apprentissage de séquences non ambiguës (voir page [*]) permet ici d'illustrer la méthode d'évaluation des résultats de l'apprentissage.

On fixe par avance les paramètres $ g$, $ \alpha$, $ N^{(1)}$, $ N^{(2)}$, la période $ \tau $, la séquence $ s_\tau$ et le nombre de présentations $ n$. Rapelons que par défaut, un motif conditionnant $ D$ est présent sur la couche dynamique à chaque instant. Après une centaine de transitoires, la dynamique d'apprentissage est itérée sur $ n\tau$ pas de temps. À l'issue de l'apprentissage, on modifie le signal en entrée avec une séquence dont on a supprimé une partie des valeurs. Pour la simuation qui suit, la séquence d'apprentissage est $ s_8=(1,2,3,4,5,6,7,8)$, la séquence test est $ s_8'=(1,0,0,0,5,0,0,0)$ où la valeur 0 signifie une absence de stimulation.

Pour évaluer la réponse du réseau, on regarde les signaux d'activation sur la couche primaire pendant les plages temporelles où la stimulation est absente. Ces signaux donnent une information sur la manière dont le système complète les informations absentes. On calcule à chaque instant l'indice du neurone dont le signal d'activation est maximal. On a alors un uplet $ s_\mathrm{max}$ que l'on compare avec l'uplet qui correspond aux valeurs d'indices qu'on a enlevées de la séquence initiale : $ s_\mathrm{ref}$. Pour l'exemple donné, $ s_\mathrm{ref}=(2,3,4,6,7,8)$. La réussite de l'apprentissage est donnée par le rapport entre le nombre d'indices correctement restitués et la durée totale des plages où le signal est absent. En moyennant cette réussite sur plusieurs réseaux, on obtient un taux de réussite moyen $ R_\mathrm{app}$.

Pour chaque réseau, on change ensuite le motif conditionnant, ce qui a pour effet de modifier la structure du circuit d'activation. On calcule le nouveau taux de réussite $ R_\mathrm{cond}$ dans ces conditions. Comme vu précédemment, la valeur de ce taux nous aide à mesurer la réussite de l'apprentissage. Il repose sur les seules propriétés réactives de la couche dynamique. Plus l'écart entre $ R_\mathrm{app}$ et $ R_\mathrm{cond}$ est important, plus la structure de circuit interne à la couche dynamique joue un rôle prépondérant dans la restitution du signal appris.

En dernier lieu, on réinitialise les liens directs $ J^{(21)}$ et les liens récurrents $ J^{(22)}$. Ces nouvelles valeurs sont donc sans rapport avec l'apprentissage précédemment effectué, et la nouvelle dynamique qui se développe est sans lien avec la dynamique précédente. On peut alors considérer que le signal retour se comporte comme un bruit. Dans ces conditions, on calcule à nouveau le taux de réussite $ R_\mathrm{test}$, cette fois ci avec le motif conditionnant utilisé pendant l'apprentissage. La valeur de ce taux nous donne une indication sur la part de réussite qui provient des liens latéraux. En l'absence d'apprentissage sur les liens latéraux, ce taux correspond au taux de réussite que l'on obtiendrait en déterminant la réponse aléatoirement, et sert alors de valeur plancher par rapport aux deux autres taux de réussite.

Sur la figure [*], on présente l'évolution de $ R_\mathrm{app}$, $ R_\mathrm{cond}$ et $ R_\mathrm{test}$ en fonction du nombre $ n$ de présentations de la séquence pendant l'apprentissage. Chaque triplet $ (R_\mathrm{app},R_\mathrm{cond},R_\mathrm{test})$ est issu d'une moyenne sur 50 réseaux, et pour chaque valeur de $ n$ on tire des réseaux différents. La figure du haut correspond à un apprentissage sans liens latéraux, et la figure du bas correspond à un apprentissage avec liens latéraux. Pour tracer chacune de ces figures, il a fallu mettre en \oeuvre l'apprentissage sur 5000 réseaux différents.

Figure: Évolution des taux de réussite avec le nombre de présentations pendant l'apprentissage, signal non ambigu. En ligne pleine : $ R_\mathrm{app}$. Pointillé long : $ R_\mathrm{cond}$. Pointillé fin : $ R_\mathrm{test}$. La séquence d'apprentissage est $ s_8=(1,2,3,4,5,6,7,8)$, et la séquence test $ s_8'=(1,0,0,0,5,0,0,0)$. Figure du haut : pas d'apprentissage sur les liens latéraux. Figure du bas : on autorise l'apprentissage sur les liens latéraux. Paramètres : $ \alpha =0.1$, $ g=8$, $ N^{(1)}=100$, $ N^{(2)}=200$.
\includegraphics[]{stat_tau8.eps}
\includegraphics[]{stat_tau8_refl.eps}



Sous-sections
next up previous contents index
suivant: Absence d'apprentissage sur les monter: Apprentissage de séquences précédent: Apprentissage de séquences   Table des matières   Index
Dauce Emmanuel 2003-05-07