next up previous contents index
suivant: Différentiels d'activation monter: Historique précédent: Historique   Table des matières   Index


La règle initiale

La première règle a été présentée dans la thèse de Mathias Quoy [95].

La règle de Hebb, qui porte sur des liens excitateurs, dit que le lien synaptique est renforcé lorsqu'un pic d'activation sur le neurone afférent est suivi, dans un intervalle de temps $ \tau $, d'un pic d'activation sur le neurone récepteur. Dans le cas où l'activation du neurone afférent n'est pas suivie par une activation du neurone récepteur, le lien est légèrement diminué.

La première règle proposée sur notre modèle, d'inspiration hebbienne, repose par ailleurs sur deux principes forts :

  1. La dynamique sur les poids repose sur un produit des activations, avec un délai d'un pas de temps entre le neurone source et le neurone cible qui représente le délai de transmission sur l'axone.
  2. La dynamique d'apprentissage est adiabatique. C'est une dynamique lente par rapport à la dynamique sur les activations. À chaque modification des poids, on a une centaine de pas de relaxation permettant à la dynamique de rejoindre son nouvel attracteur. On fixe par avance le temps de relaxation : $ T$.
Trois contraintes complètent cette règle :


Ce qui donne, sous forme algorithmique :

(Tous les $ T$ pas de temps, pour tout $ i$, pour tout $ j \neq i$)
Si $ x_j(t-1)>0.5$ alors

$\displaystyle J_{ij}(t)=J_{ij}(t-1)+\frac{\alpha}{N}(x_i(t)-0.5)(x_j(t-1)-0.5)$ (4.1)


		Sinon on ne modifie pas les poids.

Si l'activation du neurone cible est $ > 0.5$, le poids est augmenté. Si l'activation du neurone cible est $ < 0.5$, le poids est diminué. Le paramètre qui règle la force de l'apprentissage est $ \alpha$. On prend souvent des valeurs d'$ \alpha$ comprises entre 0.01 et 0.1. La normalisation d'$ \alpha$ en $ 1/N$ permet d'avoir un impact équivalent en moyenne sur le champ local du neurone, quelle que soit la taille du réseau. En contrepartie, plus la taille est grande, plus l'effet de l'apprentissage sur un lien particulier est faible.

Une expérience d'apprentissage se déroule typiquement comme suit : après initialisation des poids $ J$ et du motif $ I_1$, on itère les transitoires jusqu'à atteindre la dynamique stationnaire. Chaque modification des poids est suivie de $ T=100$ transitoires, et l'opération est répétée jusqu'à l'obtention d'une dynamique périodique (voir premier point ci-dessous). La nouvelle matrice des poids $ J_{app}$ sert ensuite de base aux différents tests sur les caractéristiques de cet apprentissage.

Cette règle a permis de mettre en évidence les résultats suivants :

Ces résultats présentés dans la thèse de Mathias Quoy ont pu être approfondis grâce à un apport personnel portant sur la répartition de l'activité dynamique des neurones (voir section 3.1.1). Tous ces résultats ont donné lieu à publication [82]

L'évolution de ces répartitions en cours d'apprentissage a permis de mieux comprendre les mécanismes mis en jeu :

Le résultat principal est donc que l'apprentissage a des effets de bord. Par malheur, ces effets de bord deviennent prépondérants lorsque l'on veut apprendre plusieurs motifs. Chaque nouvel apprentissage sur un motif $ I_m$ déplace les potentiels d'une partie des neurones vers des valeurs excentrées, ce qui tend à effondrer la dynamique pour tout motif $ I_k$ tel que l'entretien de cette dynamique reposait initialement sur certains des neurones déplacés. Plus on apprend de motifs, plus l'ensemble des neurones ainsi déplacés est important, et plus il est probable que la présentation d'un motif quelconque $ I_k$ effondre la dynamique du réseau. On perd ainsi progressivement la propriété de spécificité dynamique associée aux motifs appris. La capacité maximale du réseau est en fait rapidement atteinte.

Cette capacité dépend en grande partie des choix des paramètres initiaux. Des mesures précises ont été effectuées pour les paramètres suivants, et sont présentées dans [82] :

Dans ces conditions, les effets de bord sont de l'ordre de 12 à 16% par motif appris, c'est à dire qu'après apprentissage, 12 à 16% des motifs quelconques présentés induisent une réduction dynamique non souhaitée. On voit donc dans ces conditions que la limitation en termes de capacité est sérieuse.

À l'issue de l'étude sur cette première règle d'apprentissage, deux constatations peuvent être faites  :

  1. La principale limitation de la règle vient du renforcement de neurones non-spécifiques. Il faut donc opérer une sélection plus importante sur le choix des poids à modifier afin de limiter les effets de bord.
  2. L'essentiel des modifications synaptiques provient des neurones saturés à activité dynamique faible. Dans les faits, la règle prend essentiellement en compte l'activation moyenne des neurones, et non la composante temporelle du signal d'activation. En conséquence, les délais présents dans la règle d'apprentissage n'ont aucun rôle en pratique. Il faut donc renforcer la prise en compte de cette information temporelle.

C'est pour pallier à cette capacité faible qu'on a cherché à mettre en place des règles d'apprentissage moins coûteuses. Ces considérations ont abouti à la mise en \oeuvre de deux nouveaux types de règles d'apprentissage, qui ont été explorés successivement :

C'est la deuxième voie qui a été la plus fructueuse, et qui sera développée en détail dans la suite de ce rapport, mais voyons dans un premier temps les résultats obtenus pour le premier type de règles d'apprentissage, et ce qu'ils apportent.


next up previous contents index
suivant: Différentiels d'activation monter: Historique précédent: Historique   Table des matières   Index
Dauce Emmanuel 2003-05-07