Lorsque l'on effectue un apprentissage sur les liens latéraux uniquement, les liens retour, initialisés à 0, restent inertes. Par conséquent, le signal qui se développe sur la couche dynamique est sans effet sur la couche primaire. L'activation des neurones de la couche primaire dépend donc uniquemement du motif d'entrée et des changements sur les liens latéraux. Tout se passe comme si l'apprentissage avait lieu sur un réseau récurrent unique, dont les poids sont initialisés à zéro.
Étant donné la nature du signal (au plus un seul neurone actif sur la couche à chaque instant), la stimulation du neurone , puis du neurone
entraîne le renforcement du lien
et celui-là seul.
Si on stimule ultérieurement le neurone
, la valeur positive du lien tendra à favoriser l'activation du neurone
au temps suivant.
Si une chaîne d'inférences non ambiguë
est projetée sur la couche primaire pendant l'apprentissage, les liens correspondants sont renforcés.
Après apprentissage, la stimulation du neurone
favorise l'activation du neurone
, qui à son tour favorise l'activation de l'élément suivant, ainsi de suite jusqu'à
.
S'il s'agit d'une séquence périodique
, l'activation après apprentissage d'un seul élément de la séquence favorise l'activation en boucle de la séquence.
Bien sûr, la mise en place de telles chaînes d'activation dépend de la valeur des liens qui relient les neurones successifs.
Si ces liens sont faibles, le signal est atténué à chaque relais et finit par disparaître.
La valeur des liens après apprentissage conditionne donc la capacité à évoquer la totalité de la séquence apprise à partir d'un seul élément de la séquence.
On suppose que le couple appartient à la séquence apprise, et donc que le lien
est non-nul après apprentissage.
Supposons de plus qu'au cours de la dynamique, on a
.
On dira alors que le neurone
est capable d'activer son successeur
si le champ local
dépasse le seuil
, soit
.
D'après les caractéristiques que l'on a fixées pour la couche primaire, les seuils sont tous égaux et valent
.
La valeur critique du lien est donc
.
Lorsque cette valeur critique est dépassée sur plusieurs liens successifs, la stimulation d'un neurone de la séquence apprise permet d'activer les éléments suivants.
La sortie de la fonction de transfert n'étant pas binaire, la valeur de l'activation est décroissante à chaque relais, mais reste significative pendant un certain temps.
La couche primaire est capable, en quelque sorte, de s'auto-stimuler.
La présentation d'un élément de la séquence permet d'activer les quelques neurones suivants.
Le fait d'avoir
dépend à la fois du paramètre d'apprentissage
, qui fixe l'amplitude de la modification à chaque passage, et de
, le nombre de passages de la séquence pendant l'apprentissage :
Pour un tel apprentissage ``express'', on doit avoir une valeur d'
très élevée, supérieure à 5 dans le cas où
et
.
Cette valeur de
est largement supérieure à la valeur usuelle, qui est de l'ordre de 0.1.
Une valeur faible est en effet nécessaire lorsque l'apprentissage porte sur un système dynamique où de nombreux neurones sont activés et où l'apprentissage nécessite des temps longs pour capter les régularités statistiques de la dynamique et les inscrire progressivement dans les poids synaptiques.
On a représenté sur la figure les résultats d'un apprentissage express sur les liens latéraux, après apprentissage de deux séquences de périodes 4 et 5,
,
, avec
.
On constate que la matrice des poids permet de reconstituer explicitement les deux circuits appris.
La stimulation du neurone 1 (premier élément de la séquence
) produit une activation en chaîne, dont l'activité se maintient environ sur 5 pas de temps. La séquence
est évoquée.
La stimulation du neurone 5 (premier élément de la séquence
) produit une chaîne d'activation beaucoup plus durable, dans la mesure où les activations successives atteignent la valeur de saturation.
La séquence
est restituée.
![]() |
L'apprentissage en ligne de séquences dans un modèle récurrent est une tâche facile, tant qu'il n'y a pas d'ambiguïté ni de recouvrement sur les séquences. L'apprentissage en ligne de séquences temporelles bute généralement sur les problèmes rencontrés avec les séquences ambiguës. Lever les ambiguïtés est l'une des fonctions de la couche dynamique, comme nous le verrons plus loin.
Dans le cas général d'un apprentissage sur tous les liens, les liens latéraux permettent de capter les enchaînements contenus dans le signal, et participent, en coordination avec les autres liens, à l'évocation ou à la restitution du signal appris.