Fiche de mathématiques
> >

Espaces vectoriels Euclidiens

Partager :

I. Produit scalaire

1. Définition

Définition :
Soit E un \mathbb{R}-ev, on appelle produit scalaire sur E toute application \phi: E^{2}\longrightarrow \mathbb{R} telle que:
1. \phi est bilinéaire : \forall \lambda \in\mathbb{R} , \forall (x,x^{'},y,y^{'})\in E^{4} : \begin{cases} \phi(\lambda x+x^{'},y)=\lambda\phi(x,y)+\phi(x^{'},y) \\ \phi(x,\lambda y+y^{'})=\lambda\phi(x,y)+\phi(x,y^{'}) \end{cases}.
2. \phi est symétrique : \forall (x,y)\in E^{2} : \phi(x,y)=\phi(y,x).
3. \phi est positive : \forall x\in E : \phi(x,x)\geq 0.
4. \phi est définie : \forall x\in E : \phi(x,x)=0\Longleftrightarrow x=0


Remarque :
Dans la pratique pour montrer que \phi est bilinéaire symétrique, on se contente d'établir la linéarité par rapport à une variable et de montrer la symétrie, ce qui est suffisant pour conclure.

Exemples :
Soit E=\mathbb{C}
On définit : \forall (z,z^{'})\in\mathbb{C}^{2} : \phi(z,z^{'})=\mathcal{R}e(\bar{z}z^{'})
Montrons que \phi est un produit scalaire sur E=\mathbb{C}
Soient \lambda \in\mathbb{R} et z,z^{'},z^{''} \in\mathbb{C}
\bullet \phi(z,\lambda z^{'}+z^{''})=\mathcal{R}e(\bar{z}(\lambda z^{'}+z^{''}))=\mathcal{R}e(\lambda \bar{z}z^{'}+\bar{z}z^{''}))=\mathcal{R}e(\lambda \bar{z}z^{'})+\mathcal{R}e(\bar{z}z^{''})=\lambda\mathcal{R}e(\bar{z}z^{'})+\mathcal{R}e(\bar{z}z^{''})=\lambda\phi(z,z^{'})+\phi(z,z^{''})
\bullet \phi(z,z^{'})=\mathcal{R}e(\bar{z} z^{'})=\mathcal{R}e(\overline{\bar{z} z^{'}})=\mathcal{R}e(z \bar{z^{'}})=\mathcal{R}e(\bar{z^{'}} z)=\phi(z^{'},z)
\bullet \phi(z,z)=\mathcal{R}e(\bar{z}z)=\mathcal{R}e(|z|^{2})=|z|^{2} \geq 0
\bullet \phi(z,z)=0 \Longleftrightarrow |z|^{2}=0 \Longleftrightarrow z=0
Conclusion : \boxed{\phi \text{ est un produit scalaire sur } \mathbb{C}}

Soit E=\mathbb{R}[X]
On définit : \forall (P,Q)\in(\mathbb{R}[X])^{2} : \phi(P,Q)=\displaystyle\int_{-1}^{1} P(t)Q(t) dt
Montrons que \phi est un produit scalaire sur E=\mathbb{R}[X]
Soient \lambda \in\mathbb{R} et P,Q,R \in\mathbb{R}[X]
\bullet \phi(P,\lambda Q+R)=\displaystyle\int_{-1}^{1} P(t)(\lambda Q+R)(t) dt=\displaystyle\int_{-1}^{1} P(t)(\lambda Q)(t)+P(t)R(t) dt=\displaystyle\lambda \int_{-1}^{1} P(t)Q(t) dt+\displaystyle \int_{-1}^{1} P(t)R(t) dt=\lambda\phi(P,Q)+\phi(P,R)
\bullet \phi(P,Q)=\displaystyle\int_{-1}^{1} P(t)Q(t) dt=\displaystyle\int_{-1}^{1} Q(t)P(t) dt=\phi(Q,P)
\bullet \phi(P,P)=\displaystyle\int_{-1}^{1} P^{2}(t) dt\geq 0
\bullet \phi(P,P)=0\Longleftrightarrow\displaystyle\int_{-1}^{1} P^{2}(t) dt= 0, puisque t\mapsto P^{2}(t) est continue positive sur [-1,1]
Donc cette fonction est nulle, or puisque un polynôme P\in\mathbb{R}[X] admet une infinité de racines, alors P=0.
Conclusion : \boxed{\phi \text{ est un produit scalaire dans } \mathbb{R}[X]}
Notation :
Le produit scalaire sera désormais noté (.|.)


Remarque :
On trouve aussi les notations: <.,.> , (.,.)


2. Propriétés


Soit E un \mathbb{R}-ev et (.|.) un produit scalaire sur E.

a) Inégalités de produit scalaire
Théorème : (Inégalité de Cauchy-Schwarz)
\forall (x,y)\in E^{2} : (x|y)^{2}\leq (x|x)(y|y)
Cas d'égalité : (x|y)^{2}= (x|x)(y|y) si et seulement si la famille (x,y) est liée.

Théorème : (Inégalité de Minkowski)
\forall (x,y)\in E^{2} : \sqrt{(x+y|x+y)}\leq \sqrt{(x|x)}+\sqrt{(y|y)}
Cas d'égalité : \sqrt{(x+y|x+y)}=\sqrt{(x|x)}+\sqrt{(y|y)} \Longleftrightarrow \begin{cases} x=0\\ \text{ ou }\\ \exists \lambda \in\mathbb{R}^{+} : y=\lambda x\end{cases}



b) Norme et distance Euclidienne
Rappel 1 : (Définition d'une norme)
On appelle norme sur E toute application ||.||:E\rightarrow \mathbb{R} tel que :
\forall x\in E : ||x||\geq 0
\forall x\in E : ||x||=0 \Longleftrightarrow x=0_{E}
\forall x\in E, \forall \lambda\in \mathbb{R} : ||\lambda x||=|\lambda|||x||
\forall (x,y)\in E^{2} : ||x+y||\leq ||x||+||y||

Rappel 2 : (Définition d'une distance)
On appelle distance sur E toute application d:E^{2}\rightarrow \mathbb{R} tel que :
\forall (x,y)\in E^{2} : d(x,y)\geq 0
\forall (x,y)\in E^{2} : d(x,y)=0 \Longleftrightarrow x=y
\forall (x,y)\in E^{2} : d(x,y)=d(y,x)
\forall (x,y,z)\in E^{3} : d(x,y)\leq d(x,z)+d(z,y)


Remarque :
Voir cours : "Normes sur un \mathbb{K}-espace vectoriel" pour plus de détails.
Proposition - Définition :
L'application : \begin{array}{clcl}||.||: &E&\rightarrow &\mathbb{R}\\ &x &\mapsto&\sqrt{(x|x)}\\ \end{array} est une norme sur E, appelée norme euclidienne associée à (.|.)

L'application : \begin{array}{clcl}d: &E\times E&\rightarrow &\mathbb{R}\\ &(x,y) &\mapsto&||x-y||\\ \end{array} est appelée distance euclidienne associée à (.|.)

Propriétés :
Inégalité triangulaire : \forall (x,y)\in E^{2} : ||x+y||\leq ||x||+||y||.
Inégalité triangulaire renversée : \forall (x,y)\in E^{2} : | ||x||-||y|| |\leq d(x,y)\leq ||x||+||y||
Identité du parallélogramme : \forall (x,y)\in E^{2} : ||x+y||^{2}+||x-y||^{2}=2(||x||^{2}+||y||^{2})
Identité de polarisation : \forall (x,y)\in E^{2} : ||x+y||^{2}-||x-y||^{2}=4(x|y)
Identités remarquables : \forall (x,y)\in E^{2} : \begin{cases} ||x+y||^{2}=||x||^{2}+2(x|y)+||y||^{2} \\ ||x-y||^{2}=||x||^{2}-2(x|y)+||y||^{2} \\ (x+y|x-y)=||x||^{2}-||y||^{2} \end{cases}



II. Orthogonalité - Orthonormalité


Soient E un \mathbb{R}-ev, (.|.) un produit scalaire sur E et ||.|| la norme euclidienne associée à (.|.)

1. Orthogonalité

Définition :
Soit (x,y)\in E^{2}.
On dit que x est orthogonal à y (ou x et y sont orthogonaux), et on note x\perp y, si et seulement si : (x|y)=0


Exemple :
Soit E=\mathfrak{C}^{0}([0,2\pi],\mathbb{R}).
\forall (f,g)\in E^{2}, on pose : (f|g)=\displaystyle \int_{0}^{2\pi} f(t)g(t)dt.
(.|.) est un produit scalaire sur E. (Démonstration laissée en exercice)

Soient f:t\mapsto sin(t) , g:t\mapsto cos(t) deux fonctions de E .
(f|g)=\displaystyle \int_{0}^{2\pi} f(t)g(t)dt= \int_{0}^{2\pi} sin(t)cos(t)dt=[\frac{1}{2}sin^{2}(t)]_{0}^{2\pi}=0
Donc : f\perp g

Remarque :
Le vecteur nul est orthogonal à tout vecteur de l'espace car \forall x\in E : (x|0)=0.
Inversement, puisqu'un vecteur orthogonal à tout vecteur est orthogonal à lui-même et puisque (x|x)=0 \Longleftrightarrow x=0, on peut affirmer que le vecteur nul est le seul vecteur orthogonal à tout vecteur.
Définition : (Famille orthogonale)
On dit qu'une famille (x_{i})_{i\in I} de vecteurs de E est orthogonale si et seulement si elle est constituée de vecteurs deux à deux orthogonaux, c'est-à-dire :
\forall(i,j)\in I^{2} : i \neq j\Longrightarrow (x_{i}|x_{j})=0

Rappelons que I est l'ensemble des indices de la famille


Exemple :
Dans \mathbb{R}^{n} (n\in\mathbb{N}^{*}) muni du produit scalaire canonique défini par :
\forall x=(x_{i})_{1\leq i\leq n} \in \mathbb{R}^{n}, \forall y=(y_{i})_{1\leq i\leq n} \in \mathbb{R}^{n} : (x|y)=\displaystyle \sum_{k=1}^{n} x_{k}y_{k} (démonstration laissée en exercice)

La base canonique de \mathbb{R}^{n} est une famille orthogonale.
Théorème : (Dit de Pythagore)
Pour toute famille (x_{i})_{i\in I} orthogonale, on a : ||\displaystyle\sum_{i\in I} x_{i}||^{2}=\sum_{i\in I} ||x_{i}||^{2}

Proposition :
Toute famille orthogonale ne comportant pas le vecteur nul est libre.



2. Orthonormalité

Définition :
On dit qu'un vecteur x de E est unitaire (ou normé) si et seulement si ||x||=1.

Définition :
On dit qu'une famille (x_{i})_{i\in I} d'éléments de E est orthonormale (ou orthonormée) si et seulement si : \begin{cases} (x_{i})_{i\in I} \text{ est orthogonale } \\ \forall i \in I, \text{  } ||x_{i}||=1 \end{cases}, c'est-à-dire que toute famille orthonormée est constituée de vecteurs unitaires deux à deux orthogonaux.


Remarque :
Si (x_{i})_{i\in I} est orthonormée, alors: \forall i,j\in I : (x_{i}|x_{j})=\delta_{i,j} (symbole de Kronecker)
Définition :
On dit qu'on norme un vecteur x de E si on le multiplie par l'inverse de sa norme, cela veut dire qu'on considère le vecteur unitaire u=\dfrac{x}{||x||}.

Proposition :
i la famille (x_{i})_{i\in I} de vecteurs de E est orthogonale ne comportant pas le vecteur nul, alors la famille \left(\dfrac{x_{i}}{||x_{i}||} \right)_{i\in I} est orthonormée.

Proposition :
Toute famille orthonormée est libre.



3. Orthogonal d'une partie

Définition :
Soient x\in E et A une partie de E.
On dit que x est orthogonal à A, et on note x \perp A, si et seulement si : \forall a\in A, (x|a)=0

Définition : (Orthogonal d'une partie)
Pour toute partie A de E, on définit l'orthogonal de A, noté A^{\perp}, par :
A^{\perp}=\lbrace x\in E / x\perp A\rbrace

Proposition :
Pour toute partie A de E, A^{\perp} est un sous-espace vectoriel de E.
Pour toutes parties A,B de E : A\subset B\Longrightarrow B^{\perp}\subset A^{\perp}.
Pour toute partie A de E : A^{\perp}=(Vect(A))^{\perp}.
Pour toute partie A de E : A\subset A^{\perp\perp}.
E^{\perp}=\lbrace 0\rbrace , \lbrace 0\rbrace^{\perp}=E.
Pour toute partie A de E, A\cap A^{\perp} \subset \lbrace 0 \rbrace.
Pour tous sous-espaces vectoriels F,G de E : (F+G)^{\perp}=F^{\perp}\cap G^{\perp} , F^{\perp}+G^{\perp} \subset (F\cap G)^{\perp}.



4. Sous-espaces vectoriels orthogonaux

Définition :
Deux sous-espaces vectoriels F et G de E sont dits orthogonaux si et seulement si: \forall (x,y)\in F\times G : (x|y)=0

Proposition :
Soient F et G deux sous-espaces vectoriels de E.
Si F et G sont orthogonaux alors F\cap G=\lbrace 0\rbrace

Proposition :
Soient F et G deux sous-espaces vectoriels de E. Les propositions suivantes sont équivalentes :
(i) F et G sont orthogonaux.
(ii) F\subset G^{\perp}.
(iii) G\subset F^{\perp}.



III. Espaces vectoriels euclidiens

1. Définition et généralités

Définition :
On appelle espace vectoriel euclidien tout \mathbb{R}-espace vectoriel de dimension finie muni d'un produit scalaire.

Théorème : (Orthogonalisation/Orthonormalisation de Schmidt)
Soit p\in\mathbb{N}^{*}, soit \mathcal{F}=(e_{1},\ldots,e_{p}) une famille libre de vecteurs d'un espace vectoriel euclidien E.
On peut construire une famille orthogonale (v_{1},\ldots,v_{p}) de vecteurs de E ou encore une famille orthnormée (V_{1},\ldots,V_{p}) de vecteurs de E vérifiant: \forall k\in \lbrace 1,\ldots, p\rbrace : Vect(e_{1},\ldots,e_{k})=Vect(v_{1},\ldots,v_{k})=Vect(V_{1},\ldots,V_{k}).


Procédé d'orthonormalisation de Schmidt :
Dans la pratique, pour orthonormaliser une famille libre (e_{1},\ldots,e_{p}) :
on pose v_{1}=e_{1}.
pour 1\leq k\leq p-1, lorsque v_{1},\ldots,v_{k} sont trouvés, on cherche v_{k+1} de la forme : v_{k+1}=e_{k+1}+\lambda_{1}v_{1}+\lambda_{k}v_{k} (où \forall i\in\lbrace 1,\ldots k\rbrace : \lambda_{i}\in \mathbb{R}) , de sorte que \forall  m\in\lbrace 1,\ldots,k\rbrace : (v_{k+1}|v_{m})=0, ce qui fournit la valeur de \lambda_{m}.
une fois la famille (v_{1},\ldots,v_{p}) obtenue, on normalise chaque vecteur en posant \displaystyle V_{m}=\frac{v_{m}}{||v_{m}||}.
La famille (V_{1},\ldots,V_{p}) ainsi formée est appelée famille orthonormalisée de (e_{1},\ldots,e_{p}) selon le procédé de Schmidt.

Remarque :
On peut se contenter d'orthogonaliser une famille libre en utilisant le même procédé (qui sera appelé procédé d'orthogonalisation de Schmidt), c'est la famille (v_{1},\ldots,v_{p}) pas normalisée, appelée dans ce cas la famille orthogonalisée de (e_{1},\ldots,e_{p}).

Exemple :
Dans \mathbb{R}^3 muni du produit scalaire canonique : \forall x=(x_{1},x_{2},x_{3}) et y=(y_1,y_2,y_3) de \mathbb{R}^{3} : (x|y)=\displaystyle \sum_{k=1}^{3}x_{k}y_{k}
Soient e_1=(0,1,1),e_2=(1,0,1),e_3=(1,1,0).
La famille (e_1,e_2,e_3) est libre puisque \begin{vmatrix}0&1&1\\1&0&1\\1&1&0\end{vmatrix}=2.
Formons son orthonormalisée selon le procédé de Schmidt.
On pose : v_1=e_1=(0,1,1)
v_2=e_2+\lambda v_1
(v_2|v_1)=0 donne \lambda=-\displaystyle\frac{1}{2} , donc: v_2 \displaystyle=(1,-\frac{1}{2},\frac{1}{2}).
v_3=e_3+\lambda v_1+\mu v_2
(v_3|v_1)=0 donne \lambda=-\displaystyle\frac{1}{2}
(v_3|v_2)=0 donne \mu=-\displaystyle\frac{1}{3} , donc: v_3=(\displaystyle\frac{2}{3},\frac{2}{3},-\frac{2}{3}).
Il ne reste qu'à normaliser la famille (v_1,v_2,v_3) (qui n'est autre que l'orthogonalisée de (e_1,e_2,e_3) ) :
\begin{cases}V_1=\displaystyle\frac{v_1}{||v_1||}=(0,\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}})\\ V_2=\displaystyle\frac{v_2}{||v_2||}=(\frac{2}{\sqrt{6}},-\frac{1}{\sqrt{6}},\frac{1}{\sqrt{6}})\\V_3=\displaystyle\frac{v_3}{||v_3||}=(\frac{1}{\sqrt{3}},\frac{1}{\sqrt{3}},-\frac{1}{\sqrt{3}})\end{cases}
La famille (V_1,V_2,V_3) est l'orthonormée de (e_1,e_2,e_3)
Définition : (Base Orthonormée)
On appelle base orthonormée d'un espace vectoriel euclidien E (en abrégé : b.o.n) toute base de E constituée de vecteurs unitaires deux à deux orthogonaux.

Proposition :
Tout espace vectoriel euclidien E possède une b.o.n.


Démonstration immédiate d'après le procédé d'orthonormalisation de Schmidt
Proposition :
Tout sous-espace vectoriel d'un espace euclidien possède une b.o.n.

Théorème : (de la b.o.n incomplète)
Soit E un espace vectoriel euclidien de dimension n.
Pour toute famille (e_1,\ldots,e_p) de vecteurs dans E (p \text{ un entier }\leq n), il existe e_{p+1},\ldots,e_{n} \in E tels que la famille (e_1,\ldots,e_n) soit une b.o.n de E.



2. Composantes dans une base orthonormée


Soit E un espace vectoriel euclidien de dimension n, muni d'une b.o.n \mathcal{B}=(e_1,\ldots,e_n)
Théorème :
Les composantes de tout vecteur x de E dans la b.o.n \mathcal{B} sont les (e_1|x),\ldots,(e_n|x).


Preuve :
Puisque \mathcal{B} est une base de E, on peut écrire x=\displaystyle \sum_{k=1}^{n} \lambda_k e_k avec \forall k\in\lbrace 1,\ldots, n\rbrace : les \lambda_k sont les composantes de x dans \mathcal{B}.
Or, par bilinéarité du produit scalaire: \forall i\in\lbrace 1,\ldots, n\rbrace : (e_i|x)=(e_i|\displaystyle \sum_{k=1}^{n} \lambda_k e_k)=\displaystyle \sum_{k=1}^{n}\lambda_k(e_i|e_k)=\displaystyle \sum_{k=1}^{n}\lambda_k \delta_{i,k}=\lambda_i.
Donc: \forall x\in E, on a: x=\displaystyle\sum_{k=1}^{n}(e_k|x)e_k.
Théorème :
Si x et y sont de vecteurs de E de composantes respectives x_1,\ldots,x_n et y_1,\ldots,y_n dans la b.o.n \mathcal{B}, alors :
\begin{cases}(x|y)=\displaystyle\sum_{k=1}^{n} x_ky_k \\ ||x||=\sqrt{\displaystyle\sum_{k=1}^{n} x_k^{2}}\end{cases}

Proposition : (représentation matricielle)
Soient x,y \in E de composantes respectives x_1,\ldots,x_n et y_1,\ldots,y_n dans la b.o.n \mathcal{B}, si on pose :
X=Mat_{\mathcal{B}}(x)=\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix} et Y=Mat_{\mathcal{B}}(y)=\begin{pmatrix}y_1\\\vdots\\y_n\end{pmatrix}
Alors : (x|y)=^{t}XY=\displaystyle\sum_{k=1}^{n} x_ky_k et ||x||^{2}=^{t}XX

Proposition :
L'application \psi:E\rightarrow \mathbb{R}^n définie par \psi(x)=(x_1,\ldots,x_n) est un isomorphisme de \mathbb{R}-espace vectoriel.
De plus, \forall x,y\in E : (x|y)_{E}=(\psi(x)|\psi(y))_{\mathbb{R}^{n}}(.|.)_{E} un produit scalaire sur E et (.|.)_{\mathbb{R}^{n}} le produit scalaire canonique de \mathbb{R}^{n}


Ainsi E muni d'une b.o.n devient semblable à \mathbb{R}^{n} .


3. Supplémentaire orthogonal


Soit E un espace vectoriel euclidien.
Proposition - définition :
Pour tout sous-espace vectoriel F de E, F^{\perp} est un supplémentaire de F dans E, appelé supplémentaire orthogonal de F dans E.
En particulier : dim(F^{\perp})=dim(E)-dim(F)

Proposition :
Pour tout sous-espace vectoriel F de E : F^{\perp \perp}=F
Pour tous sous-espaces vectoriels F,G de E : (F\cap G)^{\perp}=F^{\perp}+G^{\perp}



4. Projection et symétrie orthogonales


E désigne un espace vectoriel euclidien de dimension n muni d'un produit scalaire (.|.).

a) Projection orthogonale
Définition :
Pour tout sous-espace vectoriel F de E, on appelle projecteur orthogonal sur (ou projection orthogonale sur)F et on note p_{F} le projecteur sur F parrallèlement à F^{\perp}


Remarque :
p_{\lbrace 0\rbrace}=0 et p_{E}=Id

Exemples :
Projection sur droite vectorielle: Soit D=Vect(a) avec a\neq0.
\forall x\in E : p_D(x)=\displaystyle\frac{(a|x)}{||a||^{2}}a

Projection sur hyperplan vectorielle: Soit H=Vect(a)^{\perp} avec a\neq0.
\forall x\in E : p_H(x)=x-\displaystyle\frac{(a|x)}{||a||^{2}}a

Théorème :
Soit F un sous-espace vectoriel de E, si \mathcal{B}=(e_1,\ldots,e_p) est une b.o.n de F alors :
\forall x \in E : p_F(x)=\displaystyle \sum_{i=1}^{p}(e_i|x)e_i.

Théorème : (Caractérisation des projections orthogonales)
Soit p\in\mathcal{L}(E). On a équivalence entre :
(i) p est une projection orthogonale.
(ii) p^2=p et \forall x,y\in E : (p(x)|y)=(x|p(y)).

Corollaire :
La matrice représentative d'une projection orthogonale dans une base orthonormée est symétrique.

Définition :
Soient F un sous-espace vectoriel de E et x\in E , on appelle distance de x à F, et on note d(x,F), le réel défini par: d(x,F)=\displaystyle Inf_{y\in F} ||x-y||

Proposition :
Soient F un sous-espace vectoriel de E et x\in E. On a :
\begin{cases} \forall y\in F, ||x-y||\geq ||x-p_{F}(x)||\\ \forall y\in F,  ||x-y||=||x-p_{F}(x)|| \Longleftrightarrow y=p_{F}(x) \end{cases}

Corollaire :
Soient F un sous-espace vectoriel de E et x\in E :
d(x,F)=||x-p_F(x)||


Exemples :
Projection sur droite vectorielle: Soit D=Vect(a) avec a\neq0.
\forall x\in E : p_D(x)=\displaystyle\frac{(a|x)}{||a||^{2}}a
Donc : d(x,D)=||x-\displaystyle\frac{(a|x)}{||a||^{2}}a||.

Projection sur hyperplan vectorielle: Soit H=Vect(a)^{\perp} avec a\neq0.
\forall x\in E : p_H(x)=x-\displaystyle\frac{(a|x)}{||a||^{2}}a
Donc : d(x,H)=||x-(x-\displaystyle\frac{(a|x)}{||a||^{2}}a)||= \dfrac{|(a|x)|}{||a||}

b) Symétrie orthogonale
Définition :
Pour tout sous-espace vectoriel F de E, on appelle symétrie orthogonale par rapport à F l'endomorphisme s_{F} de E défini par: s_{F}=2p_{F}-Id_{E}p_{F} est le projecteur orthogonal sur F.


Remarques :
s_{\lbrace 0\rbrace}=-Id_{E}.
s_{E}=Id_{E}.

Exemple :
Symétrie par rapport à une droite vectorielle : Soit D=Vect(a) avec a\neq0.
\forall x\in E : s_D(x)=\displaystyle 2\frac{(a|x)}{||a||^{2}}a-x
Théorème :
Soient F un sous-espace vectoriel de E, si \mathcal{B}=(e_1,\ldots,e_p) est une b.o.n de F alors :
\forall x\in E : s_F(x)=\displaystyle\sum_{j=1}^{p}(e_j|x)e_j-x.

Théorème : (Caractérisation des symétries orthogonales)
Soit s\in\mathcal{L}(E). On a équivalence entre :
(i) s est un symétrie orthogonale.
(ii) s^{2}=Id et \forall x,y\in E: (s(x)|y)=(x|s(y)).

Corollaire :
La matrice d'une symétrie orthogonale dans une base orthonormée est symétrique.

Corollaire :
Les symétries orthogonales conservent le produit scalaire: \forall x,y\in E : (s(x)|s(y))=(x|y) (où s est une symétrie quelconque de \mathcal{L}(E))
Les symétries orthogonales conservent la norme : \forall x\in E : ||s(x)||=||x||. (où s est une symétrie quelconque de \mathcal{L}(E))

Définition :
On appelle réflexion de E toute symétrie orthogonale par rapport à un hyperplan de E.


Exemple :
Soit H=Vect(a)^{\perp} avec a \neq 0.
\forall x\in E : s_H(x)=x- 2 \dfrac{(a|x)}{||a||^{2}}a


IV. Groupe orthogonal


Soient n \in \mathbb{N}^{*}, E un espace vectoriel euclidien de dimension n muni d'un produit scalaire (.|.)


Rappel :
Dans \mathbb{R}^{n}, le produit scalaire canonique est défini par:
\forall x=(x_{i})_{1\leq i\leq n} \in \mathbb{R}^{n}, \forall y=(y_{i})_{1\leq i\leq n} \in \mathbb{R}^{n} : (x|y)=\displaystyle \sum_{k=1}^{n} x_{k}y_{k}
Dans \mathcal{M}_{n,p}(\mathbb{R}), le produit scalaire canonique est défini par:
\forall A,B\in \mathcal{M}_{n,p}(\mathbb{R}) : (A|B)=tr(^{t}AB)


1. Endomorphismes orthogonaux

Définition :
Un endomorphisme f de E est dit orthogonal si et seulement si f conserve le produit scalaire, c'est-à-dire :
\forall x,y\in E : (f(x)|f(y))=(x|y)
On note \mathcal{O}(E) l'ensemble des endomorphismes orthogonaux.


Exemple :
Id_{E} et -Id_{E} sont des endomorphismes orthogonaux.

Remarque :
Les symétries orthogonales, et en particulier les réflexions, sont des endomorphismes orthogonaux, tandis que Les projections orthogonales ne le sont pas en général.
Théorème :
Soit f un endomorphisme de E. On a équivalence entre :
(i) f est orthogonal.
(ii) f conserve la norme (\forall x\in E, ||f(x)||=||x|| )

Proposition :
Soit f\in \amthcal{L}(E). les propriétés suivantes sont deux à deux équivalentes :
(i) f\in\mathcal{O}(E)
(ii) Pour toute b.o.n \mathcal{B} de E, f(\mathcal{B}) est une b.o.n de E.
(iii) Il existe une b.o.n \mathcal{B} de E telle que f(\mathcal{B}) soit une b.o.n de E

Corollaire :
Un endomorphisme orthogonal de E est un automorphisme de E.
On parle indifféremment d'endomorphisme ou d'automorphisme orthogonal.


Preuve :
Si f\in\mathcal{O}(E), alors par conservation de la norme : f(x)=0\Longrightarrow x=0 et donc ker(f)=\lbrace 0\rbrace.
Proposition - Définition :
\mathcal{O}(E) est un sous-groupe de (\mathcal{GL}(E),o).
(\mathcal{O}(E),o) est appelé groupe orthogonal de E.

Corollaire :
Si f\in\mathcal{O}(E) alors det(f)\in\lbrace -1,1\rbrace.

Définition :
Les automorphismes orthogonaux de déterminant 1 (resp. -1) sont appelés positifs (ou directs) (resp. négatifs (ou indirects)).

Proposition - définition :
\mathcal{SO}(E)=\lbrace f\in\mathcal{O}(E) / det(f)=1\rbrace est un sous-groupe de (\mathcal{GL}(E),o) appelé groupe spécial orthogonal de E.



2. Matrices orthogonales

Définition :
Une matrice A\in\mathcal{M}_{n}(\mathbb{R}) est dite orthogonale si et seulement si l'endomorphisme de \mathbb{R}^{n} représenté par A dans la base canonique de \mathbb{R}^{n} est un endomorphisme orthogonal de \mathbb{R}^{n} muni du produit scalaire usuel.
On note \mathcal{O}_{n}(\mathbb{R}) l'ensemble de ces matrices.

Proposition :
A\in\mathcal{O}_{n}(\mathbb{R}) \Longleftrightarrow A\in GL_{n}(\mathbb{R}) \text{ et } A^{-1}=^{t}A

Proposition :
Soit A\in\mathcal{M}_{n}(\mathbb{R}) ; Les propositions suivantes sont 2 à 2 équivalentes :
A\in\mathcal{O}_{n}(\mathbb{R})
^{t}AA=I_{n}
A^{t}A=I_{n}
Pour toute b.o.n \mathcal{B} de E, l'endomorphisme de E représenté par A dans \mathcal{B} est orthogonal.
Il existe une b.o.n de E dans laquelle l'endomorphisme représenté par A est orthogonal.
Les colonnes de A forment une b.o.n de \mathcal{M}_{n,1}(\mathbb{R}) pour le produit scalaire usuel.
Les lignes de A forment une b.o.n de \mathcal{M}_{1,n}(\mathbb{R}) pour le produit scalaire usuel.

Proposition :
\mathcal{O}_{n}(\mathbb{R}) est un groupe pour la multiplication, appelé groupe orthogonal d'ordre n.

Proposition :
Soit \mathcal{B} une b.o.n de E, \mathcal{B}^{'} une base de E, P la matrice de passage de \mathcal{B} à \mathcal{B}^{'}. Alors :
\mathcal{B}^{'} est une b.o.n si et seulement si P\in\mathcal{O}_{n}(\mathbb{R})

Proposition - définition :
[puce ]Soit A\in\mathcal{O}_{n}(\mathbb{R}). On dit que A est orthogonale droite (resp. gauche) si et seulement si det(A)=1 (resp. -1).
L'ensemble des matrices orthogonales droites d'ordre n est un sous-groupe de \mathcal{O}_{n}(\mathbb{R}), appelée groupe spécial orthogonal d'ordre n, noté \mathcal{SO}_{n}(\mathbb{R})

Définition - Proposition :
Soit (V_{1},\ldots,V_{n})\in E^{n}. Le déterminant det_{\mathcal{B}}(V_{1},\ldots,V_{n}) ne dépend pas du choix de la b.o.n directe \mathcal{B}, et est appelé produit mixte de (V_{1},\ldots,V_{n}) et noté [V_{1},\ldots,V_{n}]

Publié le
ceci n'est qu'un extrait
Pour visualiser la totalité des cours vous devez vous inscrire / connecter (GRATUIT)
Inscription Gratuite se connecter
Merci à
Panter Correcteur
pour avoir contribué à l'élaboration de cette fiche


Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1675 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !