Espaces vectoriels Euclidiens
I. Produit scalaire
1. Définition
Définition :
Soit

un

ev, on appelle
produit scalaire sur 
toute application

telle que:
1. 
est
bilinéaire :

,
\in E^{4})
:
=\lambda\phi(x,y)+\phi(x^{'},y) \\ \phi(x,\lambda y+y^{'})=\lambda\phi(x,y)+\phi(x,y^{'}) \end{cases})
.
2. 
est
symétrique :
\in E^{2})
:
=\phi(y,x))
.
3. 
est
positive :

:
\geq 0)
.
4. 
est
définie :

:
=0\Longleftrightarrow x=0)
Remarque :
Dans la pratique pour montrer que

est bilinéaire symétrique, on se contente d'établir la linéarité par rapport à une variable et de montrer la symétrie, ce qui est suffisant pour conclure.
Exemples :
Soit
On définit :
\in\mathbb{C}^{2})
:
Montrons que

est un produit scalaire sur
Soient

et
Conclusion :
Soit
On définit :
![\forall (P,Q)\in(\mathbb{R}[X])^{2}](https://latex.ilemaths.net/latex-0.tex?\forall (P,Q)\in(\mathbb{R}[X])^{2})
:
Montrons que

est un produit scalaire sur
Soient

et
=0\Longleftrightarrow\displaystyle\int_{-1}^{1} P^{2}(t) dt= 0)
, puisque
)
est continue positive sur
Donc cette fonction est nulle, or puisque un polynôme
![P\in\mathbb{R}[X]](https://latex.ilemaths.net/latex-0.tex?P\in\mathbb{R}[X])
admet une infinité de racines, alors

.
Conclusion :
Notation :
Le produit scalaire sera désormais noté
)
Remarque :
On trouve aussi les notations:

,
2. Propriétés
Soit

un

ev et
)
un produit scalaire sur

.
a) Inégalités de produit scalaire
Théorème : (Inégalité de Cauchy-Schwarz)
\in E^{2})
:
Cas d'égalité :
^{2}= (x|x)(y|y))
si et seulement si la famille
)
est liée.
Théorème : (Inégalité de Minkowski)
b) Norme et distance Euclidienne
Rappel 1 : (Définition d'une norme)
On appelle
norme sur 
toute application

tel que :

:

:

,

:
\in E^{2})
:
Rappel 2 : (Définition d'une distance)
On appelle
distance sur 
toute application

tel que :
\in E^{2})
:
\in E^{2})
:
\in E^{2})
:
\in E^{3})
:
Remarque :
Voir cours : "Normes sur un

-espace vectoriel" pour plus de détails.
Proposition - Définition :
L'application :
}\\ \end{array})
est une norme sur

, appelée
norme euclidienne associée à
L'application :
 &\mapsto&||x-y||\\ \end{array})
est appelée
distance euclidienne associée à
Propriétés :
Inégalité triangulaire :
\in E^{2})
:

.
Inégalité triangulaire renversée :
\in E^{2})
:
Identité du parallélogramme :
\in E^{2})
:
Identité de polarisation :
\in E^{2})
:
Identités remarquables :
\in E^{2})
:
II. Orthogonalité - Orthonormalité
Soient

un

ev,
)
un produit scalaire sur

et

la norme euclidienne associée à
1. Orthogonalité
Définition :
Soit
\in E^{2})
.
On dit que
est orthogonal à 
(ou
et
sont orthogonaux), et on note

, si et seulement si :
Exemple :
Soit
![E=\mathfrak{C}^{0}([0,2\pi],\mathbb{R})](https://latex.ilemaths.net/latex-0.tex?E=\mathfrak{C}^{0}([0,2\pi],\mathbb{R}))
.
\in E^{2})
, on pose :
=\displaystyle \int_{0}^{2\pi} f(t)g(t)dt)
.
)
est un produit scalaire sur

. (Démonstration laissée en exercice)
Soient
)
,
)
deux fonctions de

.
Donc :
Remarque :
Le vecteur nul est orthogonal à tout vecteur de l'espace car

:
=0)
.
Inversement, puisqu'un vecteur orthogonal à tout vecteur est orthogonal à lui-même et puisque
=0 \Longleftrightarrow x=0)
, on peut affirmer que le vecteur nul est le seul vecteur orthogonal à tout vecteur.
Définition : (Famille orthogonale)
Exemple :
Dans

(

) muni du produit scalaire canonique défini par :
_{1\leq i\leq n} \in \mathbb{R}^{n})
,
_{1\leq i\leq n} \in \mathbb{R}^{n})
:
=\displaystyle \sum_{k=1}^{n} x_{k}y_{k})
(démonstration laissée en exercice)
La base canonique de

est une famille orthogonale.
Théorème : (Dit de Pythagore)
Pour toute famille
_{i\in I})
orthogonale, on a :
Proposition :
Toute famille orthogonale ne comportant pas le vecteur nul est libre.
2. Orthonormalité
Définition :
On dit qu'un vecteur

de

est
unitaire (ou
normé) si et seulement si

.
Définition :
On dit qu'une famille
_{i\in I})
d'éléments de

est
orthonormale (ou
orthonormée) si et seulement si :
_{i\in I} \text{ est orthogonale } \\ \forall i \in I, \text{ } ||x_{i}||=1 \end{cases})
, c'est-à-dire que toute famille orthonormée est constituée de vecteurs unitaires deux à deux orthogonaux.
Remarque :
Si
_{i\in I})
est orthonormée, alors:

:
=\delta_{i,j})
(symbole de Kronecker)
Définition :
On dit qu'
on norme un vecteur 
de

si on le multiplie par l'inverse de sa norme, cela veut dire qu'on considère le vecteur unitaire

.
Proposition :
i la famille
_{i\in I})
de vecteurs de

est orthogonale ne comportant pas le vecteur nul, alors la famille
_{i\in I})
est orthonormée.
Proposition :
Toute famille orthonormée est libre.
3. Orthogonal d'une partie
Définition :
Soient

et

une partie de

.
On dit que
est orthogonal à 
, et on note

, si et seulement si :

,
Définition : (Orthogonal d'une partie)
Pour toute partie

de

, on définit
l'orthogonal de 
, noté

, par :
Proposition :
Pour toute partie

de

,

est un sous-espace vectoriel de

.
Pour toutes parties

de

:

.
Pour toute partie

de

:
)^{\perp})
.
Pour toute partie

de

:

.

,

.
Pour toute partie

de

,

.
Pour tous sous-espaces vectoriels

de

:
^{\perp}=F^{\perp}\cap G^{\perp})
,
^{\perp})
.
4. Sous-espaces vectoriels orthogonaux
Définition :
Deux sous-espaces vectoriels

et

de

sont dits
orthogonaux si et seulement si:
\in F\times G)
:
Proposition :
Soient

et

deux sous-espaces vectoriels de

.
Si

et

sont orthogonaux alors
Proposition :
Soient

et

deux sous-espaces vectoriels de

. Les propositions suivantes sont équivalentes :
(i) 
et

sont orthogonaux.
(ii) 
.
(iii) 
.
III. Espaces vectoriels euclidiens
1. Définition et généralités
Définition :
On appelle
espace vectoriel euclidien tout

-espace vectoriel de dimension finie muni d'un produit scalaire.
Théorème : (Orthogonalisation/Orthonormalisation de Schmidt)
Soit

, soit
)
une famille libre de vecteurs d'un espace vectoriel euclidien

.
On peut construire une famille orthogonale
)
de vecteurs de

ou encore une famille orthnormée
)
de vecteurs de

vérifiant:

:
=Vect(v_{1},\ldots,v_{k})=Vect(V_{1},\ldots,V_{k}))
.
Procédé d'orthonormalisation de Schmidt :
Dans la pratique, pour orthonormaliser une famille libre
)
:
on pose

.
pour

, lorsque

sont trouvés, on cherche

de la forme :

(où

:

) , de sorte que

:
=0)
, ce qui fournit la valeur de

.
une fois la famille
)
obtenue, on normalise chaque vecteur en posant

.
La famille
)
ainsi formée est appelée famille orthonormalisée de
)
selon le procédé de Schmidt.
Remarque :
On peut se contenter d'orthogonaliser une famille libre en utilisant le même procédé (qui sera appelé procédé
d'orthogonalisation de Schmidt), c'est la famille
)
pas normalisée, appelée dans ce cas la famille orthogonalisée de
)
.
Exemple :
Dans

muni du produit scalaire canonique :
)
et
)
de

:
Soient
)
,
)
,
)
.
La famille
)
est libre puisque

.
Formons son orthonormalisée selon le procédé de Schmidt.
On pose :
=0)
donne

, donc:
)
.
=0)
donne
=0)
donne

, donc:
)
.
Il ne reste qu'à normaliser la famille
)
(qui n'est autre que l'orthogonalisée de
 )
) :
La famille
)
est l'orthonormée de
Définition : (Base Orthonormée)
On appelle
base orthonormée d'un espace vectoriel euclidien

(en abrégé :
b.o.n) toute base de

constituée de vecteurs unitaires deux à deux orthogonaux.
Proposition :
Tout espace vectoriel euclidien

possède une b.o.n.
Démonstration immédiate d'après le procédé d'orthonormalisation de Schmidt
Proposition :
Tout sous-espace vectoriel d'un espace euclidien possède une b.o.n.
Théorème : (de la b.o.n incomplète)
Soit

un espace vectoriel euclidien de dimension

.
Pour toute famille
)
de vecteurs dans
)
, il existe

tels que la famille
)
soit une b.o.n de

.
2. Composantes dans une base orthonormée
Soit

un espace vectoriel euclidien de dimension

, muni d'une b.o.n
Théorème :
Les composantes de tout vecteur

de

dans la b.o.n

sont les
,\ldots,(e_n|x))
.
Preuve :
Puisque

est une base de

, on peut écrire

avec

: les

sont les composantes de

dans

.
Or, par bilinéarité du produit scalaire:

:
=(e_i|\displaystyle \sum_{k=1}^{n} \lambda_k e_k)=\displaystyle \sum_{k=1}^{n}\lambda_k(e_i|e_k)=\displaystyle \sum_{k=1}^{n}\lambda_k \delta_{i,k}=\lambda_i)
.
Donc:

, on a:
e_k)
.
Théorème :
Si

et

sont de vecteurs de

de composantes respectives

et

dans la b.o.n

, alors :
=\displaystyle\sum_{k=1}^{n} x_ky_k \\ ||x||=\sqrt{\displaystyle\sum_{k=1}^{n} x_k^{2}}\end{cases})
Proposition : (représentation matricielle)
Soient

,

de composantes respectives

et

dans la b.o.n

, si on pose :
=\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix})
et
Alors :
=^{t}XY=\displaystyle\sum_{k=1}^{n} x_ky_k)
et

Proposition :
L'application

définie par
=(x_1,\ldots,x_n))
est un isomorphisme de

espace vectoriel.
De plus,

:
_{E}=(\psi(x)|\psi(y))_{\mathbb{R}^{n}})
où
_{E})
un produit scalaire sur

et
_{\mathbb{R}^{n}})
le produit scalaire canonique de
Ainsi

muni d'une b.o.n devient semblable à

.
3. Supplémentaire orthogonal
Soit

un espace vectoriel euclidien.
Proposition - définition :
Pour tout sous-espace vectoriel

de

,

est un supplémentaire de

dans

, appelé
supplémentaire orthogonal de
dans 
.
En particulier :
Proposition :
Pour tout sous-espace vectoriel

de

:
Pour tous sous-espaces vectoriels

de

:
4. Projection et symétrie orthogonales

désigne un espace vectoriel euclidien de dimension

muni d'un produit scalaire
)
.
a) Projection orthogonale
Définition :
Pour tout sous-espace vectoriel

de

, on appelle
projecteur orthogonal sur (ou
projection orthogonale sur)

et on note

le projecteur sur

parrallèlement à
Remarque :

et
Exemples :
Projection sur droite vectorielle: Soit
)
avec

.

:
Projection sur hyperplan vectorielle: Soit
^{\perp})
avec

.

:
Théorème :
Soit

un sous-espace vectoriel de

, si
)
est une b.o.n de

alors :

:
=\displaystyle \sum_{i=1}^{p}(e_i|x)e_i)
.
Théorème : (Caractérisation des projections orthogonales)
Soit
)
. On a équivalence entre :
(i) 
est une projection orthogonale.
(ii) 
et

:
|y)=(x|p(y)))
.
Corollaire :
La matrice représentative d'une projection orthogonale dans une base orthonormée est symétrique.
Définition :
Soient

un sous-espace vectoriel de

et

, on appelle
distance de
à 
, et on note
)
, le réel défini par:
Proposition :
Soient

un sous-espace vectoriel de

et

. On a :
Corollaire :
Soient

un sous-espace vectoriel de

et

:
Exemples :
Projection sur droite vectorielle: Soit
)
avec

.

:
Donc :
=||x-\displaystyle\frac{(a|x)}{||a||^{2}}a||)
.
Projection sur hyperplan vectorielle: Soit
^{\perp})
avec

.

:
Donc :
b) Symétrie orthogonale
Définition :
Pour tout sous-espace vectoriel

de

, on appelle
symétrie orthogonale par rapport à 
l'endomorphisme

de

défini par:

où

est le projecteur orthogonal sur

.
Remarques :

.

.
Exemple :
Symétrie par rapport à une droite vectorielle : Soit
)
avec

.

:
Théorème :
Soient

un sous-espace vectoriel de

, si
)
est une b.o.n de

alors :

:
Théorème : (Caractérisation des symétries orthogonales)
Soit
)
. On a équivalence entre :
(i) 
est un symétrie orthogonale.
(ii) 
et

:
|y)=(x|s(y)))
.
Corollaire :
La matrice d'une symétrie orthogonale dans une base orthonormée est symétrique.
Corollaire :
Les symétries orthogonales conservent le produit scalaire:

:
|s(y))=(x|y))
(où

est une symétrie quelconque de
)
)
Les symétries orthogonales conservent la norme :

:
||=||x||.)
(où

est une symétrie quelconque de
)
)
Définition :
On appelle
réflexion de 
toute symétrie orthogonale par rapport à un hyperplan de

.
Exemple :
Soit
^{\perp})
avec

.

:
IV. Groupe orthogonal
Soient

,

un espace vectoriel euclidien de dimension

muni d'un produit scalaire
Rappel :
Dans

, le produit scalaire canonique est défini par:
_{1\leq i\leq n} \in \mathbb{R}^{n})
,
_{1\leq i\leq n} \in \mathbb{R}^{n})
:
Dans
)
, le produit scalaire canonique est défini par:
)
:
1. Endomorphismes orthogonaux
Définition :
Un endomorphisme

de

est dit
orthogonal si et seulement si

conserve le produit scalaire, c'est-à-dire :

:
On note
)
l'ensemble des endomorphismes orthogonaux.
Exemple :

et

sont des endomorphismes orthogonaux.
Remarque :
Les symétries orthogonales, et en particulier les réflexions, sont des endomorphismes orthogonaux, tandis que Les projections orthogonales ne le sont pas en général.
Théorème :
Soit

un endomorphisme de

. On a équivalence entre :
(i) 
est orthogonal.
(ii) 
conserve la norme (

,
||=||x||)
)
Proposition :
Soit
)
. les propriétés suivantes sont deux à deux équivalentes :
(i)
(ii) Pour toute b.o.n

de

,
)
est une b.o.n de

.
(iii) Il existe une b.o.n

de

telle que
)
soit une b.o.n de
Corollaire :
Un endomorphisme orthogonal de

est un automorphisme de

.
On parle indifféremment d'endomorphisme ou d'automorphisme orthogonal.
Preuve :
Si
)
, alors par conservation de la norme :
=0\Longrightarrow x=0)
et donc
=\lbrace 0\rbrace)
.
Proposition - Définition :
)
est un sous-groupe de
,o))
.
,o))
est appelé
groupe orthogonal de 
.
Corollaire :
Si
)
alors
\in\lbrace -1,1\rbrace)
.
Définition :
Les automorphismes orthogonaux de déterminant 1 (resp. -1) sont appelés positifs (ou directs) (resp. négatifs (ou indirects)).
Proposition - définition :
=\lbrace f\in\mathcal{O}(E) / det(f)=1\rbrace)
est un sous-groupe de
,o))
appelé
groupe spécial orthogonal de 
.
2. Matrices orthogonales
Définition :
Une matrice
)
est dite
orthogonale si et seulement si l'endomorphisme de

représenté par

dans la base canonique de

est un endomorphisme orthogonal de

muni du produit scalaire usuel.
On note
)
l'ensemble de ces matrices.
Proposition :
Soit
)
; Les propositions suivantes sont 2 à 2 équivalentes :
Pour toute b.o.n

de

, l'endomorphisme de

représenté par

dans

est orthogonal.
Il existe une b.o.n de

dans laquelle l'endomorphisme représenté par

est orthogonal.
Les colonnes de

forment une b.o.n de
)
pour le produit scalaire usuel.
Les lignes de

forment une b.o.n de
)
pour le produit scalaire usuel.
Proposition :
)
est un groupe pour la multiplication, appelé
groupe orthogonal d'ordre 
.
Proposition :
Soit

une b.o.n de

,

une base de

,

la matrice de passage de

à

. Alors :

est une b.o.n si et seulement si
Proposition - définition :
[puce ]Soit
)
. On dit que

est
orthogonale droite (resp.
gauche) si et seulement si
=1)
(resp.

).
L'ensemble des matrices orthogonales droites d'ordre

est un sous-groupe de
)
, appelée
groupe spécial orthogonal d'ordre 
, noté
Définition - Proposition :
Soit
\in E^{n})
. Le déterminant
)
ne dépend pas du choix de la b.o.n directe

, et est appelé
produit mixte de )
et noté