Fiche de mathématiques
> >

Systèmes différentiels linéaires à coefficients constants

Partager :
Cette fiche suppose connus les résultats présentés dans Réduction des endomorphismes linéaires

I. Suites, séries et fonctions vectorielles

On se place dans le \mathbb{C}-espace vectoriel normé E = \mathbb{C}^mm est un entier strictement positif. On définit une norme sur E en posant pour Y = (y_1,...,y_m)
||Y|| = \sup(|y_1|,...,|y_m|)
Soit (Y_n)_{n\in\mathbb{N}} une suite de vecteurs de \mathbb{C}^m et soit Y \in \mathbb{C}^m. On dit que la suite(Y_n) converge vers Y et on écrit \displaystyle \lim_{n\to +\infty} Y_n = Y si et seulement si \displaystyle \lim_{n\to +\infty}||Y- Y_n|| = 0. Soit Y_n = (y_{n,1},...,y_{n,m}) et si Y = (y_1,...,y_m), on voit que \displaystyle \lim_{n\to +\infty} Y_n = Y si et seulement si \displaystyle \lim_{n \to +\infty} y_{n,j} = y_j pour 1 \leq j \leq m.

Soit (Y_n) une suite d'éléments de E. On pose S_n = Y_0 + ... + Y_n pour tout n \in \mathbb{N}. La série \sum Y_n est le couple ((Y_n),(S_n)). On dit que la série \sum Y_n est convergente de somme S si et seulement si \displaystyle \lim_{n\to +\infty} S_n = S. On note S = \displaystyle \sum_{n=0}^\infty Y_n.
Proposition.

Soit \sum Y_n une série de vecteurs de E.
Si la série réelle \sum ||Y_n|| est convergente, alors la série \sum Y_n est convergente et \left\|\displaystyle \sum_{n=0}^\infty\right\|\leq \displaystyle \sum_{n=0}^\infty ||Y_n||.

Soit \Psi : I \to E une fonction définie sur un intervalle ouvert I de \mathbb{R}. Pour tout t \in I on écrit \Psi(t) = \left(\psi_1(t),...,\psi_m(t)\right) avec \psi_j(t)\in \mathbb{C}. Les m fonctions complexes \psi_1,...,\psi_m ainsi définies sur I sont les fonctions coordonnées de \Psi.

Soit t_0\in I et soit Y = (y_1,...,y_m) \in \mathbb{C}^m. On dit que Y est la limite de \Psi au point t_0 et on écrit \displaystyle \lim_{t\to t_0} \Psi(t)=Y si et seulement si \displaystyle \lim_{t\to t_0}||\Psi(t)-Y||=0 ou encore si et seulement si \displaystyle \lim_{t\to t_0}\psi_j(t)=y_j pour 1\leq j\leq m. On dira que \Psi est continue au point t_0 si et seulement si \displaystyle \lim_{t\to t_0}\Psi(t) = \Psi(t_0).

On dira que \Psi est dérivable au point t_0 si et seulement si la fonction définie pour t\neq t_0 par \frac{1}{t-t_0}\left(\Psi(t)-\Psi_(t_0)\right) admet une limite au point t_0 ; si c'est le cas on pose \Psi'(t_0) = \displaystyle \lim_{t\to t_0}  \frac{1}{t-t_0}(\Psi(t)-\Psi(t_0)). On démontre que \Psi est dérivable au point t_0 si et seulement si toutes les fonctions \psi_1,...,\psi_m sont dérivables au point t_0 et, lorsque c'est le cas, on a \Psi'(t_0) = (\psi_1'(t_0),...,\psi_m'(t_0)).

Soient p un entier positif et soit {\cal M}_p(\mathbb{C}) l'espace vectoriel des matrices complexes carrées p\times p. Comme {\cal M}_p(\mathbb{C}) est un espace vectoriel de dimension p^2 on applique les définitions ci-dessus aux matrices de {\cal M}_p(\mathbb{C}).
Ainsi, on a :
|| A||=\sup_{{1\leq i\leq p}\atop {1\leq j\leq p}} |a_{ij}| pour toute matrice A=(a_{ij})_{{1\leq i\leq p}\atop {1\leq j\leq p}}\in {\cal M}_p(\mathbb{C}).
Proposition.

Si A_1 et A_2 sont des matrices de {\cal M}_p(\mathbb{C}) et si Y\in \mathbb{C}^p on a
||A_1A_2||\leq p||A_1||\ ||A_2|| et ||A_1Y||\leq p||A_1||\ ||Y||.

Proposition.

Soient \Psi : I\to{\cal M}(\mathbb{C})^p et \Theta : I\to \mathbb{C}^p deux fonctions dérivables définies sur un intervalle ouvert I de \mathbb{R} et soit \Phi:I\to\mathbb{C}^p la fonction définie par \Phi(t) = \Psi(t)\Theta(t).
Alors \Phi est dérivable sur I et pour tout t\in I, on a \Phi'(t) = \Psi'(t)\Theta(t) + \Psi(t)\Theta'(t).


II. Exponentielle d'une matrice

Soit A\in{\cal M}_p(\mathbb{C}). Considérons la série \displaystyle \sum \frac{1}{n!}A^n. Comme \left\| \frac{1}{n!} A^n \right\|\leq \frac{p^{n-1}||A||^n}{n!} et comme la série numérique \displaystyle \sum \frac{p^{n-1}||A||^n}{n!} est convergente, la série de matrices \displaystyle \sum \frac{1}{n!} A^n est convergente. On définit l'exponentielle de la matrice A en posant e^A = \displaystyle \sum_{n=0}^\infty\frac{1}{n!}A^n.
    On a e^{0_p} = I_p.
    Si D = Diag(d_1,...,d_p) on a e^D = Diag(e^{d_1},...,e^{d_p}).
    Si N est une matrice nilpotente telle que N^q = 0 on a e^N = I_p + N + \dfrac{1}{2!}N^2 + ... + \dfrac{1}{(q-1)!}N^{q-1}.
    Si P \in GL_p(\mathbb{C}) on a e^{P^{-1}AP}=P^{-1}e^AP
Proposition.

Soient A et B deux matrices telles que AB = BA.
On a e^A e^B = e^{A+B} = e^B e^A.

En particulier, pour toute matrice A on a e^A e^{-A} = e^{-A} e^A = e^O = I, ce qui montre que e^A \in GL_p(\mathbb{C}).

Toutes ces propriétés permettent de calculer e^A. En effet, le théorème de Dunford assure l'existence d'une matrice diagonalisable B et d'une matrice nilpotente Ntelles que BN = NB et A = B+N. On a donc e^A = e^B e^N et les calculs de e^B et de e^N sont aisés.

Si A = \lambda I + N avec N triangulaire telle que N^m = 0 on voit que e^A = e^\lambda Q(N)Qest un polynôme de degré strictement inférieur à m.

Exemple.
Considérons les matrices N = \left(\begin{array}{cc}0 & 1\\ 0 & 0\end{array}\right), et D = \left(\begin{array}{cr}1 & 0\\ 0 & -1\end{array}\right). Comme N^2 = O et comme Dest diagonale, on a
e^N = \left(\begin{array}{cc}1 & 1\\ 0 & 1\end{array}\right) \hspace{25pt} e^D=\left(\begin{array}{cc}e & 0\\ 0 & e^{-1} \end{array}\right) \hspace{25pt} e^Ne^D=\left(\begin{array}{cc}e & e^{-1} \\ 0 & e^{-1} \end{array}\right) \hspace{25pt} e^De^N=\left(\begin{array}{cc}e & e\\ 0 & e^{-1} \end{array}\right)
De plus, on voit que (D+N)^2 = I d'où e^{(D+N)} = \left(\begin{array}{cc}e & Sh(1)\\ 0 & e^{-1} \end{array}\right). Ceci montre que si ND \neq DN les trois matrices e^N e^D, e^D e^N et e^{D+N} peuvent être différentes.
Théorème.

Soit A \in{\cal M}_p(\mathbb{C}) et soit \Psi:\mathbb{R}\to {\cal M}_p(\mathbb{C}) la fonction définie par \Psi(t) = e^{tA}.
La fonction \Psi est dérivable sur \mathbb{R} et \Psi'(t) = Ae^{tA} pour tout t\in\mathbb{R}.


III. Systèmes différentiels

Un système différentiel linéaire à coefficients constants est un système de la forme
\quad(S)\qquad\left\left \lbrace \begin{array}{l} y'_1 = a_{11}y_1+... +a_{1p}y_p+b_1(t)\\ \vdots \\ y'_p = a_{p1}y_1+\cdots+a_{pp}y_p+b_p(t) \end{array}\right.
p est un entier supérieur à 1, les a_{ij} sont des nombres complexes pour 1\leq i\leq p et 1\leq j\leq p et où b_1,...,b_p sont des fonctions continues définies sur un intervalle ouvert I de \mathbb{R} et à valeurs dans \mathbb{C}.

Une solution du système (S) est une famille f_1,...f_p de fonctions à valeurs dans \mathbb{C} dérivables sur I et telles que
(\forall t\in I)\qquad\left\left \lbrace \begin{array}{l}  f'_1(t) = a_{11}f_1(t)+... +a_{1p}f_p(t)+b_1(t)\\  \vdots \\ f'_p(t) = a_{p1}f_1(t)+\cdots+a_{pp}f_p(t)+b_p(t) \end{array}\right.
Soit A la matrice (a_{ij})_{{1\leq i\leq p}\atop{1\leq j\leq p}}. Soit F:I\to\mathbb{C}^p la fonction définie par F(t) = (f_1(t),...,f_p(t)) et soit B:I\to\mathbb{C}^p la fonction définie par B(t) = (b_1(t),...,b_p(t)). Alors Fest solution de (S)si et seulement si F'(t)=AF(t)+B(t) pour tout t\in I. Le système se présente donc sous la forme
{}  \quad (S)\qquad Y'=AY+B(t)

On appelle système homogène ou système sans second membre associé au système (S) le système
{}\quad (S_0)\qquad Y'=AY
Théorème.

Si t_0\in I et si Y_0\in \mathbb{C}^p il existe une et une seule solution F de (S) telle que F(t_0)=Y_0.

L'ensemble des solutions de (S_0)est un \mathbb{C}-espace vectoriel de dimension p.
Soit F_0 une solution de (S); alors F est solution de (S) si et seulement si F - F_0 est solution de (S_0).

Cas p = 1. Il s'agit de l'équation différentielle
y'=ay+bt
a \in \mathbb{C} et b : I \to \mathbb{C} est une fonction continue. Si t_0\in I et y_0\in\mathbb{C} l'unique solution f de cette équation qui vérifie f(t_0)=y_0 est définie sur I par
f(t) = e^{(t-t_0)a}y_0 + e^{at} \displaystyle \int_{t_0}^t e^{-as}b(s)\,ds.
Une méthode de résolution dans le cas général. On reprend le système (S) avec p quelconque. La matrice A étant triangulable, il existe une matrice triangulaire T et une matriceP\in GL_p(\mathbb{C}) telles que T=P^{-1}AP.
Considérons le système
(\tilde S)\quad Z'=TZ+P^{-1} B
On voit que F est solution de (S) si et seulement si G = P^{-1}F est solution de (\tilde S). Or le système (\tilde S) est de la forme
\quad(\tilde S)\qquad \left \lbrace \begin{array}{l}  z'_1= \lambda_1z_1+t_{12}z_2+\cdots +t_{1p}z_p+\tilde b_1(t)\\ z'_2=\lambda_2z_2 +  \cdots+t_{2p}z_p+\tilde b_2(t)\\ \vdots  \\ z'_p = \lambda_pz_p+\tilde b_p(t)\end{array}\right.
\lambda_1,...,\lambda_p sont les valeurs propres de A et où on a posé P^{-1}B(t) = (\tilde b_1(t),...,\tilde b_p(t)). Mais on sait résoudre la dernière équation ; si g_p est une solution de cette équation, l'avant dernière équation devient
z'_{p-1} = \lambda_{p-1}z_{p-1}+t_{p-1,p}g_p+\tilde b_{p-1}(t)
et on peut la résoudre. Ainsi, de proche en proche on trouve les solutions de (\tilde S). Pour avoir une solution de(S) il suffit de calculer F = PGG est une solution de (\tilde S).
Théorème.
Soit Y\in\mathbb{C}^p.
La fonction F:\mathbb{R}\to\mathbb{C}^p définie par F(t)=e^{(t-t_0)A}Y_0est la seule solution du système sans second membre Y'=AY telle que F(t_0)=Y_0.

Proposition.
Soit \lambda une valeur propre de A de multiplicité m et soit E'_\lambda le sous-espace caractéristique relatif à \lambda.
Si Y_0\in E'_\lambda, la fonction F : \mathbb{R} \to \mathbb{C} définie par
F(t) = e^{\lambda( t-t_0)}\left( Y_0+(t-t_0)(A-\lambda I)Y_0+\cdots +\frac{(t-t_0)^{m-1}}{(m-1)!}(A-\lambda I)^{m-1}Y_0\right) est la solution du système (S_0) telle que F(t_0)=Y_0.

En choisissant une base dans chaque sous-espace caractéristique et en prenant les fonctions définies par la formule ci-dessus, on trouve donc une base de l'espace vectoriel des solutions du système sans second membre (S_0).

Soit \chi_A = (X-\lambda_1)^{m_1}\cdots(X-\lambda_k)^{m_k}, la décomposition du polynôme caractéristique de A. On sait que \dim E'_{\lambda_j}=m_j pour 1\leq j \leq k. Ceci montre qu'une solution F de (S_0) peut s'écrire
F(t)=\sum_{j=1}^ke^{\lambda_jt}P_j(t) où chaque P_j est un "polynôme" à coefficients dans \mathbb{C}^p de degré au plus m_j-1.

Méthode de la "variation des constantes"

On vient de voir que la fonction F(t)=e^{tA}Y_0 est une solution de (S_0). On cherche une solution du système avec second membre (S) sous la forme F(t) = e^{tA}C(t),C:I\to\mathbb{C}^p est une fonction dérivable. On a F'(t) = Ae^{tA}C(t) + e^{tA}C'(t), donc F est solution de (S) si et seulement si C'(t) = e^{-tA}B(t) ce qui permet de trouver C en déterminant ses fonctions coordonnées.

Solutions réelles

Supposons que A \in{\cal M}_p(\mathbb{R}) et que la fonction B est à valeurs dans \mathbb{R}. Alors les solutions du système sans second membre qui sont à valeurs réelles, forment un \mathbb{R}-espace vectoriel de dimension p et, comme dans le cas complexe, il suffit de connaître une solution du système (S) pour les avoir toutes. Comme e^{tA}\in {\cal M}_p(\mathbb{R}), on obtient les solutions de (S) de manière analogue au cas complexe. Si Aa toutes ses valeurs propres réelles, A est triangulable dans{\cal M}_p(\mathbb{R}) et le calcul de e^{tA} ou la résolution du système triangulaire équivalent sont faciles. Si A a des valeurs propres complexes non réelles, il y a plusieurs stratégies possibles.
On peut remarquer que si F est une solution de (S_0) à valeurs complexes, alors sa partie réelle et sa partie imaginaire sont des solutions de (S_0) qui sont à valeurs réelles. On peut donc construire une base de solutions réelles, à partir d'une base de solutions complexes.

En écrivant toutes les solutions complexes, on peut jouer sur le choix des constantes complexes, pour obtenir des solutions à valeurs réelles.

On sait que la matrice A est semblable dans {\cal M}_p(\mathbb{R}) à une matrice M formée d'un bloc diagonal réel et de blocs sur la diagonale de la forme
M(a,b) = \left(\begin{array}{rr} a & b \\ -b & a\end{array}\right)
avec b\neq 0. Après changement de variable, il suffit donc de résoudre des systèmes de la forme
\left \lbrace \begin{array}{l} y'_1 = ay_1+by_2  \\ y'_2 =  -by_1+ay_2 \end{array}\right.

La matrice M(a,b) a les valeurs propres conjuguées a\pm ib. En cherchant les parties réelles et imaginaires des solutions complexes, on trouve les solutions réelles suivantes :
F(t) = C_1\left(\begin{array}{r} e^{at}\cos bt\\ -e^{at} \sin bt\end{array}\right) + C_2\left(\begin{array}{l} e^{at}\sin bt\\ e^{at}\cos bt \end{array}\right)\quad {\rm avec}\ (C_1,C_2)\in\mathbb{R}^2


IV. Equations différentielles linéaires d'ordre p à coefficients constants

Une équation différentielle linéaire d'ordre p à coefficients constants est une équation de la forme
(E)\quad y^{(p)}+a_{p-1}y^{(p-1)}+\cdots +a_1y'+a_0y=b(t)
a_0,...,a_{p-1} sont des nombres complexes et où b : I\to\mathbb{C} est une fonction continue à valeurs complexes.
Une solution de (E) est une fonction f : I\to\mathbb{C} qui est p fois dérivable et telle que
(\forall t\in I)\ f^{(p)}(t)+a_{p-1}f^{(p-1)}(t)+\cdots+a_0f(t)=b(t)
Soit f : I\to\mathbb{C} une fonction p fois dérivable et soit F : I\to\mathbb{C}^p la fonction F = (f,f', f'', ..., f^{(p-1)}). Alors f est solution de (E) si et seulement si F est solution du système
(S(E)) \quad\left \lbrace \begin{array}{l} y'_1= y_2 \\ y'_2= y_3 \\ \vdots    \\   y'_p  = -a_0y_1-a_1y_2-\cdots -a_{p-1}y_p+b(t)\end{array}\right. \\
La matrice A de ce système est la transposée de la matrice compagnon du polynôme P = X^p+a_{p-1}X^{p-1}+\cdots+a_0.
Ce polynôme, visible dès la donnée de l'équation est le polynôme caractéristique de l'équation (E). On sait que \chi_A=P. Les valeurs propres et les sous-espaces caractéristiques de A sont donc déterminés par P.
On appelle équation homogène ou équation sans second membre associée à (E), l'équation
(E_0)\quad  y^{(p)}+a_{p-1}y^{(p-1)}+\cdots +a_1y'+a_0y=0
L'ensemble des solutions de (E_0) est un \mathbb{C}-espace vectoriel de dimension p et si f_0 est une solution de (E) une fonction f est solution de (E) si et seulement si f-f_0 est solution de (E_0).
Soit P=(X-\lambda_1)^{m_1}\cdots (X-\lambda_k)^{m_k} la décomposition de P en facteurs du premier degré dans \mathbb{C}\left[X\right]. Compte tenu du fait qu'une solution f de (E_0) est la première fonction coordonnée d'une solution F de S(E)_0 et de la description des solutions de ce système on voit que toute solution f de (E_0) est de la forme
f(t) = e^{\lambda_1t}P_1(t)+\cdots+e^{\lambda_kt}P_k(t)
P_j est un polynôme de degré inférieur à m_j-1 pour 1\leq j\leq k.
Pour trouver les solutions de (E) on peut utiliser la méthode de "variation des constantes".
Si a_0,...a_{p-1} sont réels et si la fonction b est à valeurs dans \mathbb{R} on peut chercher les solutions de (E) qui sont à valeurs réelles. Dans ce cas, comme pour les systèmes, il suffit de remarquer que la partie réelle et la partie imaginaire d'une solution à valeurs complexes de (E_0) sont encore des solutions.
Publié le
ceci n'est qu'un extrait
Pour visualiser la totalité des cours vous devez vous inscrire / connecter (GRATUIT)
Inscription Gratuite se connecter
Merci à
Camélia Correcteur
pour avoir contribué à l'élaboration de cette fiche


Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1291 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !