Fiche de mathématiques
> >

Déterminants

Partager :
Dans ce chapitre, \mathbb{K} désigne un corps commutatif (en général: \mathbb{R} ou \mathbb{C}).


I. Applications multilinéaires

1. Généralités

Définition :
Soient n\in\mathbb{N}^{*}, E_{1},\ldots, E_{n},F des \mathbb{K}-ev.
Une application \phi:E_{1}\times \ldots \times E_{n}\longrightarrow F est dite multilinéaire ou plus précisément n-linéaire si et seulement si \phi est linéaire par rapport à chaque variable, c'est-à-dire :
\forall i \in\lbrace 1,\ldots, n\rbrace , \forall \lambda\in\mathbb{K} , \forall x_{1}\in E_{1}, \ldots , \forall x_{i}\in E_{i} , \forall y_{i}\in E_{i} , \ldots , \forall x_{n}\in E_{n} :
\phi(x_{1},\ldots,x_{i-1},\lambda x_{i}+y_{i},x_{i+1},\ldots,x_{n})=\lambda \phi (x_{1},\ldots,x_{i},\ldots,x_{n})+\phi (x_{1},\ldots,y_{i},\ldots,x_{n})
Si F=\mathbb{K}, on dit que \phi est une forme n-linéaire.
Si n=2, on dit que \phi est une application bilinéaire.

Proposition :
L'ensemble \mathcal{L}_{n}(E_{1},\ldots,E_{n};F) des applications n-linéaires de E_{1}\times\ldots\times E_{n} vers F est un \mathbb{K}-ev.



2. Application multilinéaire alternée


Soient E un \mathbb{K}-ev, et n\in\mathbb{N}^{*}
Définition :
Une application n-linéaire \phi:E^{n}\longrightarrow F est dite alternée si et seulement si, pour tout couple (i,j)\in\lbrace 1,\ldots, n\rbrace^{2} tel que i \not{=} j, et pour tout (x_{1},\ldots,x_{n})\in E^{n} :
x_{i}=x_{j} \Longrightarrow \phi(x_{1},\cdots,x_{n})=0

On note \bigwedge_{n}(E,F) l'ensemble de ces applications. Et si F=\mathbb{K}, on notera cet ensemble \bigwedge_{n}(E) à la place de \bigwedge_{n}(E,\mathbb{K})


Remarque :
\bigwedge_{n}(E) est l'ensemble des formes n-linéaires alternées sur le \mathbb{K}-ev E.
Proposition :
L'ensemble \bigwedge_{n}(E) des formes n-linéaires alternées sur le \mathbb{K}-ev E de dimension n\geq 1 est un \mathbb{K}-ev de dimension 1.

Proposition :
Une application n-linéaire \phi:E^{n}\longrightarrow F est alternée si et seulement si: \forall \sigma\in \mathfrak{G}_{n} , \forall(x_{1},\ldots,x_{n})\in E^{n} : \phi(x_{\sigma(1)},\ldotes,x_{\sigma(n)})=\epsilon(\sigma)\phi(x_{1},\ldots,x_{n})

Proposition :
Soient \phi:E^{n}\longrightarrow F une application n-linéaire alternée, et (x_{1},\ldots,x_{n})\in E^{n}.
Si (x_{1},\ldots,x_{n}) est liée, alors \phi(x_{1},\ldots,x_{n})=0

Proposition :
Si n>\dim{(E)}, alors la seule application n-linéaire et alternée de E^{n} dans F est l'application nulle.



II. Notion de déterminant

1. Déterminant d'une famille de vecteurs

Définition :
Soient \mathcal{B}=(e_{1},\ldots,e_{n}) une base de E, \mathcal{F}=(x_{1},\ldots,x_{n}) une famille de vecteurs de E.
On appelle déterminant de la famille \mathcal{F} dans la base \mathcal{B} le scalaire det_{\mathcal{B}}(\mathcal{F})=det_{\mathcal{B}}(x_{1},\ldots,x_{n})=\displaystyle \sum_{\sigma\in\mathfrak{G}_{n}} \epsilon(\sigma) \prod_{i=1}^{n} a_{\sigma(i)i}.
où : pour chaque j\in\lbrace 1,\ldots,n\rbrace , (a_{i_{j}j})_{1\leq i_{j}\leq n} sont les composantes de x_{j} dans \mathcal{B} : x_{j}=\displaystyle \sum_{i_{j}=1}^{n} a_{i_{j}j}e_{i_{j}}


Remarques :
Si la formule est complexe, elle est néanmoins parfois utile et il est recommandé de la connaître.
det_{\mathcal{B}}(\mathcal{B})=1.
Théorème :
Soit E un \mathbb{K}-ev de dimension n muni d'une base \mathcal{B}=(e_{1},\ldots,e_{n}).
L'application det_{\mathcal{B}}:E^{n}\longrightarrow \mathbb{K} est une forme n-linéaire alternée non nulle.

Proposition :
Soit E un \mathbb{K}-ev de dimension n muni d'une base \mathcal{B}=(e_{1},\ldots,e_{n})
L'application det_{\mathcal{B}} est linéaire en chacune de ses variables.
L'application det_{\mathcal{B}} s'annule sur les familles liées.
L'application det_{\mathcal{B}} est vecteur directeur de \bigwedge_{n}(E), c'est-à-dire: \forall \phi \in\bigwedge_{n}(E) , \exists ! \lambda \in\mathbb{K} : \phi=\lambda det_{\mathcal{B}}

Théorème : (Changement de base)
Soient \mathcal{B}=(e_{1},\ldots,e_{n}) et \mathcal{C}=(u_{1},\ldots,u_{n}) deux bases d'un \mathbb{K}-ev E de dimension n.
\forall(x_{1},\ldots,x_{n})\in E^{n} : det_{\mathcal{C}}(x_{1},\ldots,x_{n})=det_{\mathcal{C}}(\mathcal{B}).det_{\mathcal{B}}(x_{1},\ldots,x_{n}).


Remarque :
Si \mathcal{B} et \mathcal{C} sont deux bases de E, alors det_{\mathcal{B}}(\mathcal{C})\times det_{\mathcal{C}}(\mathcal{B}) = 1
Théorème : (Caractérisation des bases)
Soit E un \mathbb{K}-ev de dimension n muni d'une base \mathcal{B} et soit \mathcal{C} une famille de vecteurs de E.
Les propositions suivantes sont équivalentes :
(i) \mathcal{C} est une base de E.
(ii) det_{\mathcal{B}}(\mathcal{C})\not{=}0.



2. Déterminant d'un endomorphisme

Théorème :
Soient u un endomorphisme d'un \mathbb{K}-ev E de dimension n et \mathcal{B}=(e_{1},\ldots,e_{n}) une base de E
\forall \phi\in\bigwedge_{n}(E) , \forall (x_{1},\ldots,x_{n})\in E^{n} : \phi(u(x_{1}),\ldots,,u(x_{n}))=det_{\mathcal{B}}(u(e_{1}),\ldots,u(e_{n})) \phi(x_{1},\ldots,x_{n})


Définition :
Soient u un endomorphisme d'un \mathbb{K}-ev E de dimension n et \mathcal{B}=(e_{1},\ldots,e_{n}) une base de E.
On appelle déterminent de u et on note det(u) le scalaire: det_{\mathcal{B}}(u(e_{1}),\ldots,u(e_{n}))

Corollaire :
Le déterminant d'un endomorphisme d'un \mathbb{K}-ev ne dépend pas du choix de la base de ce dernier.

Proposition :
Soit E un \mathbb{K}-ev de dimension n
det(Id_{E})=1
\forall \lambda \in\mathbb{K} , \forall u \in\mathcal{L}(E) : det(\lambda u)=\lambda^{n} det(u).
\forall u,v \in\mathcal{L}(E) : det(uov)=det(u)det(v).
\forall u \in\mathcal{L}(E) : u\in\mathcal{GL}(E)\Longleftrightarrow det(u)\not{=}0.
\forall u \in\mathcal{GL}(E) : det(u^{-1})=(det(u))^{-1}.



3. Déterminant d'une matrice carrée

Soit n\in\mathbb{N}^{*}
Définition :
Soit A=(a_{ij})_{1\leq i,j\leq n}\in\mathcal{M}_{n}(\mathbb{K}). On appelle déterminant de A, et on note det(A) ou \begin{vmatrix}a_{11}&\ldots&a_{1n}\\\vdots& \ldots &\vdots \\a_{n1}&\ldots&a_{nn}\end{vmatrix}, l'élément de \mathbb{K} défini par : det(A)=\displaystyle \sum_{\sigma\in\mathfrak{G}_{n}} \epsilon(\sigma) \prod_{i=1}^{n} a_{\sigma(i)i}


Remarque :
On ne calcule le déterminant que de matrices carrées.
Proposition :
Soient E un \mathbb{K}-ev de dimension n, \mathcal{B} une base de E, \mathcal{F} une famille de vecteurs de E, A=Mat_{\mathcal{B}}(\mathcal{F}), on a:
det(\mathcal{F})=det(A)

Proposition :
Soient E un \mathbb{K}-ev de dimension n, f\in\mathcal{L}(E), \mathcal{B} une base de E, A=Mat_{\mathcal{B}}(f), on a:
det(f)=det(A)


Remarque :
Tout problème de calcul de déterminant d'un endomorphisme, ou d'une famille de vecteurs dans une base, se ramène à un problème de calcul de déterminant d'une matrice carrée.
Proposition:

det(I_{n})=1
\forall \lambda \in\mathbb{K} , \forall A \in\mathcal{M}_{n}(\mathbb{K}) : det(\lambda A)=\lambda^{n} det(A).
\forall A,B \in\mathcal{M}_{n}(\mathbb{K}) : det(AB)=det(A)det(B).
\forall A \in\mathcal{M}_{n}(\mathbb{K}) : A\in\mathcal{GL}_{n}(\mathbb{K})\Longleftrightarrow det(A)\not{=}0.
\forall A \in\mathcal{GL}_{n}(\mathbb{K}) : det(A^{-1})=(det(A))^{-1}.
\forall A \in\mathcal{M}_{n}(\mathbb{K}) : det(^{t}A)=det(A).



III. Techniques de calcul des déterminants

1. Déterminants des matrices carrées d'ordre 2 et d'ordre 3

Définition - Proposition : (Matrices carrées d'ordre 2)
Le déterminant d'une matrice carré d'ordre 2 est le produit des éléments de la diagonale moins celui de ceux dans l?antidiagonale.


Exemples :
Soit A=\begin{pmatrix}1&4\\2&9\end{pmatrix}
det(A)=\begin{vmatrix}1&4\\2&9\end{vmatrix}=1\times9-4\times2=1

det(I_{2})=1
Définition - Proposition : (Matrices carrées d'ordre 3)
Soit A=(a_{ij})_{1\leq i,j\leq 3}\in \mathcal{M}_{3}(\mathbb{K}). On a :
det(A)=a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32}-a_{13}a_{22}a_{31}-a_{11}a_{23}a_{32}-a_{12}a_{21}a_{33}


Exemple :
Soit A=\begin{pmatrix}2&5&4\\1&2&9\\1&-1&3\end{pmatrix}
det(A)=\begin{vmatrix}2&5&4\\1&2&9\\1&-1&3\end{vmatrix}=2\times 2\times 3 - 1\times 5\times 3- 1\times 2\times 4-2\times (-1)\times 9+1\times (-1)\times 4 +1\times 5 \times 9 = 48

Remarque :
Cette relation est très difficile à apprendre, néanmoins, il existe une méthode très simple pour retrouver ce résultat sans l'avoir en tête, c'est la règle de Sarrus
Règle de Sarrus pour le calcul des déterminants des matrices d'ordre 3 :

On écrit à droite de la matrice ses deux premières colonnes et on additionne les produits obtenus en multipliant les éléments sur les diagonales, pris avec le signe (+) pour les produits qui sont parallèles à la diagonale principale et avec le signe (-) pour les autres.
\begin{vmatrix} a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{vmatrix}\begin{matrix}a_{11}&a_{12}\\a_{21}&a_{22}\\a_{31}&a_{32}\end{matrix}

On obtient aisément : \begin{vmatrix} a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{vmatrix}=a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32}-a_{13}a_{22}a_{31}-a_{11}a_{23}a_{32}-a_{12}a_{21}a_{33}


Remarque :
La règle de Sarrus reste valable pour les déterminants des matrices d'ordre 2...
La règle de Sarrus n'est pas applicable pour le calcul des déterminants des matrices d'ordre >3.


2. Développement par rapport à une rangée


Soit n\in\mathbb{N}^{*}
Définition :
Soit A=(a_{ij})_{1\leq i,j\leq n}\in\mathcal{M}_{n}(\mathbb{K}).
Pour chaque (i,j)\in \lbrace 1,\ldots,n\rbrace^{2}, on appelle mineur de la place (i,j) dans A (ou encore, par abus de langage : mineur de a_{ij} dans A), le déterminant \Delta_{ij} d'ordre n-1 obtenu en supprimant dans A la i^{\text{ème}} ligne et la j^{\text{ème}} colonne:
\Delta_{ij}=\begin{vmatrix}a_{11}&\ldots&a_{1 j-1}&a_{1 j+1}&\ldots & a_{1n}\\\vdots& \vdots &\vdots &\vdots\\a_{i-1 1}&\ldots&a_{i-1 j-1}&a_{i-1 j+1}&\ldots&a_{i-1 n}\\ a_{i+1 1}&\ldots&a_{i+1 j-1}&a_{i+1 j+1}&\ldots & a_{i+1 n}\\\vdots &\vdots &\vodts&\vdots\\ a_{n1}&\ldots & a_{n j-1}&a_{n j+1}&\ldots & a_{nn}\end{vmatrix}

Pour chaque (i,j)\in \lbrace 1,\ldots,n\rbrace^{2}, on appelle cofacteur de la place (i,j) dans A (ou encore, par abus : cofacteur de a_{ij} dans A), et on note A_{ij}, le produit de (-1)^{i+j} par le mineur de la place (i,j) dans A:
A_{ij}=(-1)^{i+j}\Delta_{ij}


Exemple :
Soit A=\begin{pmatrix}4&5&2&1\\-1&4&2&-1\\4&0&0&2\\0&0&1&1\end{pmatrix}
On a : \Delta_{23}=\begin{vmatrix}4&5&1\\ 4&0&2 \\0&0&1\end{vmatrix} et A_{23}=-\begin{vmatrix}4&5&1\\ 4&0&2 \\0&0&1\end{vmatrix}.
Proposition :(Développement par rapport à une rangée)
Soit A=(a_{ij})_{ij}\in\mathcal{M}_{n}(\mathbb{K}). On a:
\forall j\in\lbrace 1,\ldots,n\rbrace , det(A)=\displaystyle \sum_{i=1}^{n}a_{ij}A_{ij} (développement de det(A) par rapport à la j^{\text{ème}} colonne).
\forall i\in\lbrace 1,\ldots,n\rbrace , det(A)=\displaystyle \sum_{j=1}^{n}a_{ij}A_{ij} (développement de det(A) par rapport à la i^{\text{ème}} ligne).


Exemple :
Revenons à la matrice de l'exemple précédent: A=\begin{pmatrix}4&5&2&1\\-1&4&2&-1\\4&0&0&2\\0&0&1&1\end{pmatrix}.
Il est clair que le développement par rapport à la 4^{\text{ème}} ligne est le plus simple:
det(A)=\begin{vmatrix}4&5&2&1\\-1&4&2&-1\\4&0&0&2\\0&0&1&1\end{vmatrix}=-\Delta_{43}+\Delta_{44}=\Delta_{44}-\Delta_{43}=\begin{vmatrix}4&5&2\\-1&4&2\\4&0&0\end{vmatrix}-\begin{vmatrix}4&5&1\\-1&4&-1\\4&0&2\end{vmatrix}
On peut continuer le calcul en utilisant la règle de Sarrus, mais nous allons continuer de développer jusqu'à des déterminants d'ordre 2 afin de mieux illustrer la méthode.
Développent par rapport aux 3^{\text{ème}} lignes:
det(A)=\begin{vmatrix}4&5&2\\-1&4&2\\4&0&0\end{vmatrix}-\begin{vmatrix}4&5&1\\-1&4&-1\\4&0&2\end{vmatrix}=4\begin{vmatrix}5&2\\4&2\end{vmatrix}-4\begin{vmatrix}5&1\\4&-1\end{vmatrix}-2\begin{vmatrix}4&5\\-1&4\end{vmatrix}
Enfin : det(A)=4 (10-8)-4(-5-4)-2(16+5)=6

Remarques :
La technique du développement d'un déterminant par rapport à une rangée permet de calculer tout les déterminants, quelque soit l'ordre de la matrice carrée.
Pour les matrices d'ordre supérieur, les calculs deviennent trop longs voire ennuyeux, c'est pourquoi nous allons introduire des méthodes de simplification qui permettront de calculer les déterminants d'une façon plus ou moins aisée.


3. Opérations sur les déterminants : simplifications

Proposition : (matrices carrées triangulaires)

Le déterminant d'une matrice carrée triangulaire (inférieure ou supérieure) est égal au produit des éléments diagonaux.
Conséquence : Le déterminant d'une matrice carrée diagonale est égal au produit des éléments diagonaux.


Exemples :
\begin{vmatrix}4&5&2\\0&4&2\\0&0&-1\end{vmatrix}=-16
\begin{vmatrix}7&0&0&0&0\\6&1&0&0&0\\2&2&1&0&0\\5&6&17&1&0\\1000&1&-98&2&-1\end{vmatrix}=-7
\begin{vmatrix}7&0&0\\0&-1&0\\0&0&-3\end{vmatrix}=21
Proposition : (Opérations élémentaires):

L'utilisation de la multilinéarité du déterminant peut s'avérer utile, il se traduit schématiquement par:
\begin{vmatrix}&&\lambda a_{1j}+b_{1j}&&\\ &*&\vdots&*&\\&&\lambda a_{nj}+b_{nj}&&\end{vmatrix}=\lambda\begin{vmatrix}&& a_{1j}&&\\ &*&\vdots&*&\\&& a_{nj}&&\end{vmatrix} +\begin{vmatrix}&&b_{1j}&&\\&*&\vdots&*&\\&&b_{nj}&&\end{vmatrix}

Pour que le déterminant d'une matrice soit nul, il faut et il suffit que la famille de colonnes de cette matrice soit liée. En particulier, si un déterminant a une colonne nulle, ou deux colonnes colinéaires, ce déterminant est nul. (Résultat analogue pour les lignes).
On ne change pas la valeur d'un déterminant en remplaçant une colonne par la somme de celle-ci et d'une combinaison linéaire des autres colonnes. (Résultat analogue pour les lignes).
On ne change pas la valeur d'un déterminant en remplaçant (simultanément) chaque colonne par la somme de celle-ci et d'une combinaison linéaire des colonnes suivantes. (Résultat analogue pour les lignes).
On ne change pas la valeur d'un déterminant en remplaçant (simultanément) chaque colonne par la somme de celle-ci et d'une combinaison linéaire des colonnes précédentes. (Résultat analogue pour les lignes).
On change le signe du déterminant en permutant deux colonnes.


Remarque :
Par opérations élémentaires, on sait triangulariser une matrice et donc calculer son déterminant.

Exemple :
Calcul de \begin{vmatrix}5&2&1\\10&4&3\\15&8&1\end{vmatrix}
En factorisant 5 et 2 sur les deux premières colonnes:
\begin{vmatrix}5&2&1\\10&4&3\\15&8&1\end{vmatrix}=5\times 2\times \begin{vmatrix}1&1&1\\2&2&3\\3&4&1\end{vmatrix}
En opérant sur les lignes : L_{2}\longrightarrow L_{2}-2L_{1} et L_{3}\longrightarrow L_{3}-3L_{1}, on obtient:
\begin{vmatrix}5&2&1\\10&4&3\\15&8&1\end{vmatrix}=10 \begin{vmatrix}1&1&1\\0&0&1\\0&1&-2\end{vmatrix}
L_{2}\longleftrightarrow L_{3} : \begin{vmatrix}5&2&1\\10&4&3\\15&8&1\end{vmatrix}=-10 \begin{vmatrix}1&1&1\\0&1&-2\\0&0&1\end{vmatrix}
Enfin : \begin{vmatrix}5&2&1\\10&4&3\\15&8&1\end{vmatrix}=-10


4. Supplément : déterminant de Vandermonde

Définition :
Soient n\in\mathbb{N}^{*} et (x_{1},\ldots,x_{n})\in \mathbb{K}^{n}. On appelle déterminant de Vandermonde, et on note V(x_{1},\ldots,x_{n}), l'élément de \mathbb{K} défini par:
V(x_{1},\ldots,x_{n})=det((x_{i}^{j-1})_{1\leq i,j\leq n})=\begin{vmatrix}1&x_{1}&x_{1}^{2}&\ldots&x_{1}^{n-1}\\ \vline&\vdots&\vdots&&\vdots\\1&x_{n}&x_{n}^{2}&\ldots&x_{n}^{n-1}\end{vmatrix}

Proposition :
\forall n\in\mathbb{N}^{*} , \forall (x_{1},\ldots,x_{n})\in\mathbb{K}^{n} : V(x_{1},\ldots,x_{n})=\displaystyle \prod_{1\leq j< i\leq n} (x_{i}-x_{j})


Démonstration :
Il suffit d'exécuter l'opération élémentaire C_{i}\longleftarrow C_{i}-x_{1}C_{i-1} sur les colonnes, et ceci en partant de C_{n} et en remontant jusqu'à C_{2}.
On obtient alors: V(x_{1},\ldots,x_{n})=\begin{vmatrix}1&x_{1}&x_{1}^{2}&\ldots&x_{1}^{n-1}\\ \vline&\vdots&\vdots&&\vdots\\1&x_{n}&x_{n}^{2}&\ldots&x_{n}^{n-1}\end{vmatrix}=\begin{vmatrix}1&0&0&\ldots&0\\ 1&x_{2}-x_{1}&x_{2}(x_{2}-x_{1})&\ldots&x_{2}^{n-2}(x_{2}-x_{1})\\\vline&\vdots&\vdots&&\vdots\\ 1&x_{n}-x_{1}&x_{n}(x_{n}-x_{1})&\ldots&x_{n}^{n-2}(x_{n}-x_{1})\end{vmatrix}
Développons par rapport à la première ligne :
V(x_{1},\ldots,x_{n})=\begin{vmatrix} x_{2}-x_{1}&x_{2}(x_{2}-x_{1})&\ldots&x_{2}^{n-2}(x_{2}-x_{1})\\\vdots&\vdots&&\vdots\\ x_{n}-x_{1}&x_{n}(x_{n}-x_{1})&\ldots&x_{n}^{n-2}(x_{n}-x_{1})\end{vmatrix}
Factorisons par ligne :
V(x_{1},\ldots,x_{n})=(x_{2}-x_{1})(x_{3}-x_{1})\ldots (x_{n}-x_{1})\begin{vmatrix}1&x_{2}&x_{2}^{2}&\ldots&x_{2}^{n-2}\\ \vline&\vdots&\vdots&&\vdots\\1&x_{n}&x_{n}^{2}&\ldots&x_{n}^{n-2}\end{vmatrix}=\displaystyle \prod_{k=2}^{n}(x_{k}-x_{1})\begin{vmatrix}1&x_{2}&x_{2}^{2}&\ldots&x_{2}^{n-2}\\ \vline&\vdots&\vdots&&\vdots\\1&x_{n}&x_{n}^{2}&\ldots&x_{n}^{n-2}\end{vmatrix}=\prod_{k=2}^{n}(x_{k}-x_{1}) . V(x_{2},\ldots,x_{n})
En répétant le processus : \displaystyle V(x_{1},\ldots,x_{n})=\prod_{k=2}^{n}(x_{k}-x_{1}) . V(x_{2},\ldots,x_{n})=\prod_{k=2}^{n}(x_{k}-x_{1}) . \prod_{k=3}^{n}(x_{k}-x_{2}) . V(x_{3},\ldots,x_{n})=\ldots
D'où le résultat.

Remarque :
Le déterminant de Vandermonde est non nul ssi les x_{i} sont deux à deux distincts.


IV. Notions liées aux déterminants

1. Comatrice

Soit n\in\mathbb{N}^{*}
Définition :
Soit A=(a_{ij})_{ij}\in\mathcal{M}_{n}(\mathbb{K}). On appelle comatrice de A la matrice carrée d'ordre n, notée com(A), définie par :
com(A)=(A_{ij})_{ij}=\begin{pmatrix} A_{11}&\ldots&A_{1n}\\\vdots&&\vodts\\A_{n1}&\ldots&A_{nn} \end{pmatrix}

A_{ij} est le cofacteur de la place (i,j) dans A.


Exemples :
Soit A=\begin{pmatrix} 5&2\\4&3\end{pmatrix}, on a : com(A)=\begin{pmatrix} 3&-4\\-2&5\end{pmatrix}.
Soit A=\begin{pmatrix} 1&2&3\\4&5&6\\7&8&9\end{pmatrix}, on a : com(A)=\begin{pmatrix} -3&6&-3\\6&-12&6\\-3&6&-3\end{pmatrix}
Théorème :
\forall A\in\mathcal{M}_{n}(\mathbb{K}) : A.^{t}com(A)=^{t}com(A).A=det(A)I_{n}


Proposition :
\forall A\in\mathcal{GL}_{n}(\mathbb{K}) : A^{-1}=\frac{1}{det(A)} ^{t}com(A)



2. Orientation d'un espace vectoriel réel de dimension finie

Soient n\in\mathbb{N}^{*} et E un \mathbb{R}-ev de dimension n. On note \beta(E) l'ensemble des bases de E

Définitions :
On dit que deux bases \mathcal{B} et \mathcal{C} de E sont :
de même sens ssi: det_{\mathcal{B}}(\mathcal{C})>0
de sens contraires ssi: det_{\mathcal{B}}(\mathcal{C})<0

Définitions :
On appelle orientation de E le choix, dans l'ensemble \beta(E) des bases de E, de l'une des deux classes d'équivalence modulo la relation "est de même sens que". Les bases de cette classe sont dites dans ce cas directes, les autres bases (celles de l'autre classe) sont dites indirectes. On dit alors que E est un \mathbb{R}-ev orienté.
On convient que la base canonique de \mathbb{R}^{n} est directe (ce qui revient à un choix d'orientation dans \mathbb{R}^{n})
On appelle axe toute droite vectorielle orientée.

Définitions - Proposition :
Soit f\in\mathcal{GL}(E). On dit que :
f conserve l'orientation ssi det(f)>0, dans ce cas, pour toute base \mathcal{B} \in \beta(E), f(\mathcal{B}) est une base de même sens que \mathcal{B}.
f change l'orientation ssi det(f)<0, dans ce cas, pour toute base \mathcal{B} \in \beta(E), f(\mathcal{B}) est une base de sens contraire de \mathcal{B}.

Publié le
ceci n'est qu'un extrait
Pour visualiser la totalité des cours vous devez vous inscrire / connecter (GRATUIT)
Inscription Gratuite se connecter
Merci à
Panter Correcteur
pour avoir contribué à l'élaboration de cette fiche


Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1293 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !