On utilise comme séquence d'apprentissage un motif
de taille
, qui peut être disposé sous forme de carré
, et représente alors le déplacement d'un petit bonhomme en six étapes (rappelons qu'il n'y a aucune géométrie de connexion dans la couche primaire, donc la disposition visuelle, signifiante pour nous, ne se distingue pas, pour le réseau, d'une disposition quelconque contenant le même nombre d'éléments).
La période est donc de 6, la densité vaut 0,075 et le recouvrement est de 1%.
Par ailleurs, la taille de la couche dynamique reste
.
Le signal est représenté figure
.
La séquence est présentée fois au cours de l'apprentissage, en présence d'un motif conditionnant.
Pour des raisons de rapidité et d'espace mémoire, l'apprentissage n'est pas autorisé sur les
liens latéraux qui pour ce modèle n'ont donc pas d'existence.
Après apprentissage, on présente une version tronquée du motif qui ne restitue que la partie supérieure de la stimulation (c'est à dire le déplacement de la tête).
Ce signal tronqué fournit environ 25%
du signal d'origine.
On regarde alors le signal retour
, représenté sous forme carrée sur la séquence du bas de la figure
- rappelons que le signal retour n'est pas égal à l'activation
-.
![]() |
Après apprentissage, le système est donc capable de reconstituer à chaque instant le motif spatial complet à partir d'une partie de ce motif. On a vérifié par ailleurs que cette propriété de reconstitution n'est pas purement réactive, dans la mesure où la présentation d'un motif conditionnant différent annule la propriété de reconstitution du signal. Cette reconstitution nécessite donc la contribution du circuit d'activation de la couche dynamique.
La figure représente l'évolution du signal moyen pendant l'apprentissage, lorsque l'on présente le signal tronqué puis lorsque l'on modifie le motif conditionnant associé.
Pendant l'apprentissage, le régime chaotique évolue progressivement vers un régime périodique, dont la période reproduit celle du signal.
La présentation du motif tronqué fait passer la dynamique sur un régime légèrement chaotique, qui conserve les propriétés d'organisation du régime périodique, et permet donc de reproduire la séquence apprise sur le signal retour.
Lorsque le motif conditionnant est modifié, l'organisation dynamique change complètement et un régime de chaos profond se développe, ne permettant pas de reconstituer le signal.
![]() |
La séquence apprise ne se distingue pas fondamentalement des séquences simples non ambiguës utilisées dans la section précédente.
En ce sens, les résultats obtenus dans le cas précédent concernant le nombre critique de pas d'apprentissage reste valable.
Rappelons que ce nombre critique
donne le nombre de présentations au delà duquel le signal retour tend à évoquer sur la couche une activation concurrente de celle qui provient du signal extérieur.
La séquence ayant été présentée
fois pendant l'apprentissage, le signal retour se maintient à une amplitude faible relativement à l'amplitude de la stimulation.
L'influence externe reste prépondérante par rapport à l'influence interne.
Ainsi, lorsqu'une stimulation partielle est présentée en entrée, le signal retour n'est pas à un niveau suffisant pour activer significativement les neurones de la couche primaire correspondant aux parties manquantes du signal.
Dans des conditions d'apprentissage plus difficiles (avec un signal bruité), il peut être intéressant d'utiliser l'information du signal retour pour compléter explicitement l'image perçue, c'est à dire de se servir de cette reconstitution pour améliorer la reconstitution ! Pour obtenir un signal retour d'amplitude significative, il faut effectuer un apprentissage dont la durée se rapproche de la durée critique. Bien sûr, cette façon de faire est plus risquée dans la mesure où le dépassement de la valeur critique tend à faire chuter les performances du réseau et à entretenir une activation fantôme sur la couche primaire en l'absence de stimulation.