next up previous contents index
suivant: Attracteurs monter: Systèmes dynamiques précédent: Systèmes dynamiques   Table des matières   Index

Propriétés générales et définitions

Un système dynamique est défini par un triplet $ D=(X,T,\phi)$, constitué de l'espace d'états $ X$, du domaine temporel $ T$ et d'une fonction de transition d'état $ \phi : X \times T \rightarrow X$, qui possède la propriété :

Pour tout $ x \in X$ et $ t,\tau \in T$,

\begin{displaymath}
\left\{
\begin{array}{l}
\phi(x,0)=x \\
\phi(\phi(x,t),\tau)=\phi(x,t+\tau)
\end{array}\right.
\end{displaymath}

La fonction $ \phi$ décrit la façon dont le système évolue au cours du temps. Si cette fonction ne dépend pas du temps, le système est autonome. La taille de $ X$ (nombre de variables d'état) est $ N$. On l'appelle aussi $ N$ l'ordre du système.

Le choix de l'espace temporel $ T$ est décisif, et dépend en général du phénomène que l'on souhaite modéliser. Si $ T=\mathbb{R}^+$, le système est dit à temps continu, et si $ T=\mathbb{N}$, le système est dit à temps discret.

Quelques définitions :


next up previous contents index
suivant: Attracteurs monter: Systèmes dynamiques précédent: Systèmes dynamiques   Table des matières   Index
Dauce Emmanuel 2003-05-07