On peut distinguer deux grands types de règles d'apprentissage :
Formellement, la modification synaptique est une fonction du produit des activations pré et post-synaptiques
où
représente le délai de transmission (ce délai est souvent omis dans la littérature).
Une règle comparable, proposée par Sejnowski [55], repose non sur le produit des activations, mais sur la covariance.
Cette règle introduit ainsi la possibilité d'une dépression synaptique en cas de covariance négative.
La modification synaptique est alors une fonction du produit
.
Là encore, le délai
que j'introduis n'était pas présent dans la règle initiale.
La règle de Hebb est souvent implémentée dans le cadre de modèles récurrents inspirés du modèle de Hopfield.
Par ailleurs, du fait de sa plausibilité biologique (voir page
), elle est souvent présente dans les modèles dont la vocation est de simuler les processus neurobiologiques [53].
Les conditions de convergence des algorithmes de rétropropagation et leurs dérivés vers la réponse optimale commencent à être bien connues, et de nombreux outils statistiques [39] existent pour assurer de bonnes conditions de convergence.
Un des enjeux concernant l'apprentissage repose sur la possibilité d'associer dans un même processus la phase d'apprentissage et la phase d'utilisation, c'est à dire de mettre en place des systèmes qui apprennent tout en découvrant leur environnement.
Ces formes d'apprentissage ``en prise directe'' (on line) sont par exemple mis en
uvre dans le cadre d'algorithmes stochastiques inspirés de la programmation dynamique et des processus de Markov [56], et peuvent être étendus à des modèles neuronaux dans le cadre d'un apprentissage Hebbien [57].
Il existe également des modèles récurrents qui évaluent en temps réel l'erreur commise, ce qui permet de mettre en
uvre la méthode de rétropropagation [58], et de proposer une alternative aux algorithmes d'approximation stochastique de type filtre de Kalman.