Fiche de mathématiques
> >

Dualité - Chapitre III
Orthogonalité et transposition

Partager :

III - 1. Hyperplans

III - 1 - 1. Image d'une forme linéaire

Dans tout ce chapitre, E désigne un K-ev non réduit à {0E}, et E* son dual. Rappelons que tout élément de E* est une forme linéaire, donc, une application linéaire f de E dans K, K considéré comme K-ev de dimension 1. Le noyau et l'image de f ont la signification habituelle. Intéressons nous d'abord à l'image Im(f), l'étude du noyau Ker(f) demandant plus de préparation.
Im(f) étant un sev du but, ici K, cela ne laisse que deux possibilités : soit Im(f) = {0}, soit Im(f) = K.
Im(f) = {0} \Longleftrightarrow \: \forall x \in E, f(x) = 0 \: \Longleftrightarrow \: f = O* (forme nulle).
Im(f) = K \: \Longleftrightarrow \: f est surjective.
Théorème III - 1.
Toute forme linéaire non nulle est surjective.


Cela signifie que si f est non nulle, pour tout élément a de K, l'équation f(x) = a possède des solutions dans E.

III - 1 - 2. Hyperplans de E

Définition III - 1.
Soit E un K-ev non réduit à {0E}.
On appelle hyperplan de E tout sev H de E, distinct de E vérifiant la propriété suivante : si F est un sev de E contenant H, alors, F = H ou F = E.


Cela signifie que si  \scr{V} désigne l'ensemble des sev de E ordonné par inclusion, les hyperplans de E sont les éléments maximaux de \scr{V}\{E}. On peut dire aussi qu'il n'existe aucun sev de E strictement compris entre H et E. Cette propriété de maximalité donne une caractérisation fondamentale des hyperplans.

Notation :
Soit a un vecteur non nul de E, la droite vectorielle engendrée par a est le sev D de E formé par les vecteurs du type k.a, où k décrit K. Nous écrirons : D = K.a.
Théorème III - 2.
E un K-ev non réduit à {0E}, H un sev de E, distinct de E. Si H admet un sous-espace vectoriel supplémentaire de dimension 1, alors H est un hyperplan de E.
Réciproquement, si H est un hyperplan de E, alors, pour tout a \in E \ H, E = H \bigoplus K.a.

Preuve :
1. On suppose donc que H \neq E et qu'il existe une droite vectorielle D telle que E = H \bigoplus D. Si a est un vecteur non nul de D, nous avons D = K.a, avec a \not \in H, puisque E et H sont distincts. Considérons un sev F de E contenant H strictement. Il existe donc un élément b non nul dans F \ H. La décomposition E = H \bigoplus D signifie qu'il existe un unique couple (h,k) \in H × K tel que b = h + k.a. Comme b n'est pas dans H, k est non nul, donc inversible dans K et on peut écrire a = k-1(b - h). Mais b et h sont dans F, donc a également par combinaison linéaire. Cela signifie que E = H \bigoplus D \subset F, donc que F = E. H est bien un hyperplan de E.
2. Soit H un hyperplan de E. Par définition, H est strictement inclus dans E, donc, il existe a non nul, appartenant à E \ H. La droite vectorielle D = K.a vérifie H \cap D = {0E}. La somme de H et de D est donc directe et H \bigoplus D est un sev de E contenant H strictement. Par définition des hyperplans : H \bigoplus D = E.

III - 1 - 3. Premières conséquences

Tout hyperplan possède des supplémentaires, ces supplémentaires étant des droites vectorielles. Réciproquement, si un sev H de E possède une droite pour supplémentaire, H est un hyperplan de E.
Si E est de dimension finie n > 0, le théorème III - 2 entraine : les hyperplans de E sont les sev de dimension n-1.
Théorème III - 3.
Si dim(E) = n > 0, les hyperplans de E sont les sev de E de dimension n-1.


Cas particuliers :
Si n = 1, un seul hyperplan H = {0E}. Si n = 2, les hyperplans de E sont tous les sev de E de dimension 1 : ce sont les droites vectorielles de E. Si n = 3, les hyperplans de E sont les sev de dimension 2 : ce sont les plans vectoriels de E.
Pour un hyperplan H donné, la décompositon E = H \bigoplus D = H \bigoplus K.a n'est pas unique : tout vecteur a de E \ H convient. Par exemple dans E = R3, H étant un plan vectoriel donné, toute droite vectorielle D non incluse dans H fera l'affaire.
Par contre, pour une décomposition donnée de E : E = H \bigoplus K.a, l'écriture d'un vecteur quelconque x de E est unique : \forall x \in E, \exists! (hx , kx) \in H×K, x = hx + kx.a. Les indices indiquent la dépendance des éléments de H et de K par rapport à x. En fait, hx et kx.a sont les images de x par les deux projecteurs associés à la somme directe.

III - 1 - 4. Noyau d'une forme linéaire

Voici le lien entre les hyperplans et les noyaux des formes linéaires.
D'abord, si f \in E* est la forme nulle, on a bien sûr Ker(f) = E. Sinon :
Théorème III - 4 - a)
E \neq {0E} un K-ev, f \in E*, non nulle. Alors, Ker(f) est un hyperplan de E.

Preuve :
Si f est non nulle, alors H = Ker(f) est un sev de E strictement inclus dans E et Im(f) = K. Prenons un vecteur a dans E \ H, donc, f(a) est un scalaire non nul. Appelons D la droite vectorielle K.a. Comme f(a) est non nul, D \cap H = {0E}. La somme H + D est donc directe et F = H \bigoplus D est un sev de E contenant strictement H. Soit b un vecteur quelconque de E, considérons c = b - f(b)[f(a)]-1.a. On a immédiatement f(c) = 0, donc c est dans H. Or, on peut écrire que : b = c + f(b)[f(a)]-1.a, ce qui prouve que b appartient à H \bigoplus D. Donc, E = H \bigoplus K.a, ce qui prouve que H admet pour supplémentaire une droite vectorielle. Par le théorème III - 2 : H est un hyperplan.
Ce théorème possède une réciproque très importante :
Théorème III - 4 - b).
E un Kev, E \neq {0E}, H un hyperplan de E. Il existe au moins une forme linéaire non nulle f telle que H = Ker(f).
Si f0 est l'une d'elles, alors toute autre forme linéaire g telle que Ker(g) = H est du type g = k.f0 où k est un élément non nul de K.

Preuve :
Soient H un hyperplan de E, a \in E \ H et D = K.a. On sait qu'alors E = H \bigoplus K.a (théorème III - 2). Donc, pour tout x dans E, x = hx + kx.a (hx \in H, kx \in K).
Considérons l'application f : E \rightarrow K définie par f(x) = f( hx + kx.a) = kx. Montrons qu'elle est linéaire. Soient r et r' deux éléments de K, x et x' deux vecteurs de E.
f(r.x + r'.x') = f[r(hx + kx.a) + r'(hx' + kx'.a)] = f[(r.hx + r'.hx') + (r.kx + r'.kx').a]. Dans le crochet figurent un élément de H : r.hx + r'.hx' et un élément de K.a : (r.kx + r'.kx').a. L'unicité de la décomposition sur la somme directe permet d'écrire : f(r.x + r'.x') = (r.kx + r'.kx').a = r.kx.a + r'.kx'.a = r.f(x) + r'.f(x'). f est bien élément de E*. De plus, f(a) = 1, donc, f est non nulle. Enfin, f(x) = 0 \Longleftrightarrow kx = 0 \Longleftrightarrow x = hx \Longleftrightarrow x \in H. Donc H = Ker(f). Nous avons bien mis en évidence une forme linéaire non nulle de noyau H.
Cherchons maintenant toutes les formes linéaires non nulles g telles que H = Ker(g). Soit f0 une forme linéaire non nulle telle que Ker(f0) = H.
a) Pour tout scalaire t \in K \ {0}, t.f0(x) = 0 \Longleftrightarrow f0(x) = 0, donc, H = Ker(t.f0).
b) Soit g non nulle telle que Ker(g) = H. Considérons la forme linéaire : F = f0(a).g - g(a).f0.
\forall x \in E, F(x) = F(hx + kx.a) = f0(a).g(hx + kx.a) - g(a).f0(hx + kx.a) = f0(a).kx.g(a) - g(a).kx.f0(a) = 0. Donc F = O*. Comme f0(a) est non nul, on en déduit que g = g(a)[f0(a)]-1.f0 : du type t.f0, t \in K \ {0}. On peut dire que les formes linéaires de noyau H forment une droite vectorielle de E*, privée de O*.

Remarque :
Le fait de ne pas travailler en dimension finie rend les preuves plus difficiles. Par contre, ces théorèmes ont l'avantage de s'appliquer dans toutes les situations.

III - 2. Conséquences

III - 2 - 1. Exemples

Ex III - 1. E est le C-ev des applications continues de [0,1] dans C. Soit F : E \rightarrow C définie par F(f) = \displaystyle \int_0^1 f(t)dt. F est une forme linéaire sur E. De plus, F est non nulle. En effet, si l'on prend par exemple g dans E telle g(t) = 1, alors, F(g) = 1. En appliquant le théorème III - 4 a), l'ensemble \scr{H} des applications h de E telles que \displaystyle \int_0^1 h(t)dt = 0 est un hyperplan de E. On peut même écrire que E = \scr{H} \: \bigoplus C.g.

Ex III - 2. E = Mn(K) le K-ev des matrices carrées d'ordre n. Nous savons que ( II - 2.), tr : M fleche2 tr(M) est une forme linéaire sur E. Elle est non nulle puisque tr(E11) = 1. Donc, l'ensemble \scr{H} des matrices H de E telles que tr(H) = 0 est un hyperplan de E. Comme ici, dim(E) = n², on peut même dire que dim(\scr{H}) = n² - 1.

Ex III - 3. E = C[X] le C-ev des polynômes à une indéterminée à coefficients complexes. Soit a un élément fixé de C. Appelons \scr{H}l'ensemble des polynômes P de E tels que P(a) = 0 (c'est-à-dire des polynômes ayant a pour racine). On sait que fa : P fleche2 P(a) est une forme linéaire sur E. Elle est non nulle puisque fa(1) = 1 est non nul. Or, par construction, \scr{H} = Ker(fa), donc, \scr{H}est un hyperplan de E.

Ex III - 4. Pour n > 1, soit J la matrice de Mn(R) dont tous les coefficients sont égaux à 1 (II - 4 - 5). J est la matrice d'un endomorphisme u de Rn dans la base canonique Bn de Rn. On sait que u est de rang 1, donc dim(Ker(u)) = n - 1. Ceci prouve que \scr{H} = Ker(u) est un hyperplan de Rn. Il existe donc une forme linéaire f non nulle sur Rn telle que : Ker(u) = \scr{H} = Ker(f). Pour trouver les éléments x de Rn appartenant à Ker(u) au moyen de leurs coordonnées (x1 , ... , xn) dans Bn, on résout le système matriciel : J.X = O, X = t(x1 ... xn), O = t(0 , ... , 0). On obtient n fois la même condition : x1 + ... + xn = 0. Par le théorème I - 4, cette écriture nous donne les coordonnées de f dans la base duale de la base Bn : f(1 , ... , 1). On remarque que toute forme linéaire g ayant même noyau que f s'écrira k.f, k non nul et donnera donc k.x1 + ... + k.xn = 0, donc la même condition : x1 + ... + xn = 0.

III - 2 - 2. Equation d'un hyperplan

Soient E un K-ev, E \neq {0E}, H un hyperplan de E, f une forme linéaire (non nulle) telle que H = Ker(f). Nous avons donc : x \in H \Longleftrightarrow f(x) = 0 \Longleftrightarrow < x , f > = 0. Si g est une autre forme linéaire de noyau H, alors, g = k.f, (k non nul) et l'équation < x , g > = 0 s'écrira < x , k.f > = 0, donc : k.< x , f > = 0. Comme k \neq 0, cela donne encore < x , f > = 0. L'équation d'inconnue x : < x , f > = 0 est donc indépendante du choix de la forme linéaire f de noyau H. Cette équation s'appelle une équation cartésienne de H. Elle est définie à un coefficient non nul près.
Définition III - 2.
Soient E \neq {0E} un K-ev, H un hyperplan de E. On appelle équation cartésienne de H l'équation < x , f > = 0, d'inconnue x \in E, f étant l'une des formes linéaires de E* vérifiant Ker(f) = H.


La situation la plus intéressante est lorsque dim(E) est finie, égale à n > 0. Prenons une base BE de E et sa duale (BE)* dans E*. Alors, si f a pour coordonnées (a1 , ... , an) non toutes nulles sur (BE)* et si x a pour coordonnées (x1 , ... , xn) sur BE nous savons (théorème I - 4) que < x , f > = 0 \Longleftrightarrow a1x1 + a2x2 + ... + anxn = 0.
Théorème III - 5.
Soient E un K-ev de dimension n > 0, H un hyperplan de E, f une des formes linéaires de E* de noyau H. Si l'on munit E et E* de deux bases duales BE et (BE)*, l'équation cartésienne de H se présente sous la forme : < x , f > = 0 \Longleftrightarrow a1x1 + a2x2 + ... + anxn = 0, où (x1 , ... , xn) et (a1 , ... , an) sont les coordonnées de x et de f respectivement sur BE et (BE)*. f étant non nulle, les ai sont non tous nuls.


On retrouve ce que l'on sait depuis longemps. Si n = 2, une droite vectorielle s'écrit a.x + by = 0, (a,b) \neq (0,0). Si n = 3, un plan vectoriel s'écrit : ux + vy + wz = 0, (u,v,w) \neq (0,0,0).

III - 3. Orthogonalité

III - 3 - 1. Définitions

Définition III - 3.
E un K-ev, E* son dual. x \in E et f \in E* sont dits orthogonaux ssi f(x) = < x , f > = 0. On dit aussi que x est orthogonal à f ou que f est orthogonal à x.

Premiers exemples :
0E est orthogonal à toute forme linéaire f de E*. La forme linéaire nulle O* est orthogonale à tout vecteur x de E.
Soit E de dimension finie rapporté à une base BE = (e1 , ... , en) et (BE)* = (e1* , ... , en*) sa base duale dans E*. Alors, ei et ej* sont orthogonaux pour j \neq i.
La définition relie les éléments de E et de E*. On peut de même parler d'orthogonalité entre E* et E** : f \in E* et F \in E** sont orthogonaux ssi < f , F > = 0. Pour tenir compte de ces différents cas, nous considérerons l'écriture de gauche à droite : E \rightarrow E* \rightarrow E**. Alors, l'orthogonalité vers la droite se notera : A° et l'orthogonalité vers la gauche se notera : °B.
Définition III - 4 - a) :
E un K-ev, E* son dual. Considérons une partie A non vide de E. On appelle orthogonal de A dans E* le sous-ensemble de E* : A° = {f \in E*, \forall x \in A, < x , f > = 0}. A° est ainsi l'ensemble des formes linéaires f s'annulant sur la partie A de E, donc les formes linéaires dont le noyau contient A.

Définition III - 4 - b).
E un K-ev, E* son dual. Considérons une partie B non vide de E*. On appelle orthogonal de B dans E le sous-ensemble de E : °B = {x \in E, \forall f \in B, < x , f > = 0}. °B est donc l'ensemble des vecteurs de E communs à tous les noyaux des éléments de B.

Définition III - 4 - c).
E un K-ev, E* son dual, E** son bidual. Considérons une partie B non vide de E*. On appelle orthogonal de B dans E** le sous-ensemble de E** : B° = {F \in E**, \forall f \in B, < f , F > = 0}.

Par convention, nous poserons : (vide E)° = E* et °(videE*) = E.
Finalement : A° = {f \in E*, A \subset Ker(f)} et °B = \cap_{\small f\in B} Ker(f).

III - 3 - 2. Exemples

{0E}° = {f \in E*, < 0E , f > = 0} = E*
E° = {f \in E*, \forallx \in E, < x , f > = 0} = {O*}
°{O*} = {x \in E, < x , O* > = 0} = E
°{f} = {x \in E, < x , f > = 0} = Ker(f). Donc Ker(f) = E si f = O* ou Ker(f) est un hyperplan de E si f est non nulle.
Soit H un hyperplan de E, H° = {f \in E*, \forallx \in H, < x , f > = 0} = {f \in E*, H \subset Ker(f)}. La maximalité de H nous permet de distinguer deux cas : Ker(f) = E ou Ker(f) = H. Dans le premier cas, f = O*, dans le second cas, f est du type k.f0 où f0 est une forme linéaire non nulle de noyau H, et k un scalaire non nul. Ces deux cas se résument en un seul : f = k.f0 , f0 forme linéaire non nulle de noyau H, k scalaire quelconque.
Finalement, H° = K.f0 : c'est la droite vectorielle engendrée par f0.
Théorème III - 6.
{0E}° = E* ; E° = {O*} ; °{O*} = E ; °{f} = Ker(f). Pour tout hyperlan H de E, on aura : H° = K.f0 (avec Ker(f0) = H)



III - 3 - 3. Lien entre parties et sous-espaces

Dans chaque cas du théorème III - 6, on voit que l'orthogonal est toujours un sev ( de E ou de E*). Cette propriété est toujours vraie :
Théorème III - 7.
E, un K-ev, E* son dual, A une partie non vide de E et B une partie non vide de E*. Alors : A° est un sev de E* et °B est un sev de E.

Preuve :
Par définition : A° = {f \in E*, \forall x \in A, < x , f > = 0}. La forme nulle s'annulant sur tout élément de A, O* \in A°, donc, A° est une partie non vide de E*. Si k et k' sont deux éléments de K, f et f ' deux éléments de A°, \forall x \in A, < x , a.f + a'.f ' > = a.< x , f > + a'.< x , f ' > = 0. Donc, a.f + a'.f ' appartient à A°. Conclusion : pour toute partie A non vide de E, A° est un sev de E*.
Même principe pour °B. On remarque que le vecteur nul 0E annule toute forme de B, donc 0E \in °B, donc, °B est non vide. Si k et k' sont dans K, x et x' dans °B, \forall f \in B, < k.x + k'.x' , f > = k.< x , f > + k'.< x' , f > = 0. Donc, k.x + k'.x' appartient à °B. Conclusion : pour toute partie B non vide de E*, °B est un sev de E.
Pour °B, on aurait pu utiliser la caractérisation : °B = \cap_{\small f\in B} Ker(f), l'intersection de sev de E étant un sev de E.
Les conventions : (videE)° = E* et °(videE*) = E montrent que A vide ou B vide vérifient encore le théorème III - 7.
Théorème III - 8.
. Si A est une partie non vide de E, et si B est une partie non vide de E*, alors, nous avons les deux égalités : A° = [vec(A)]°, °B = °[vec(B)]

A une partie non vide de E. Désignons par (xa)a\inA la famille des éléments de A. On sait que vec(A) est le plus petit sev de E contenant A, et aussi l'ensemble des combinaisons linéaires finies d'éléments de A. Donc, tout élément x de vec(A) s'écrira : x = \displaystyle \sum_{a\in A}ka.xa où les scalaires ka sont nuls sauf un nombre fini d'entre eux.
f \in\Longrightarrow \forallxa \in A, < xa , f > = 0 \Longrightarrow \forallx \in vec(A), < x , f > = <\displaystyle \sum_{a\in A}ka.xa , f > = \displaystyle \sum_{a\in A}ka.< xa , f > = 0. Donc : f \in [vec(A)]°. D'où A° \subset [vec(A)]°. Réciproquement, si la forme f appartient à [vec(A)]°, elle prend la valeur 0 sur tous les éléments de vec(A), en particulier sur les éléments de A. Donc : f \in A°.
La méthode pour prouver que °B = °[vec(B)] est exactement la même.
Ce résultat est précieux : la recherche de l'orthogonal d'un sev revient à chercher seulement l'orthogonal d'une partie génératrice de ce sev.

III - 3 - 4. Inclusions, réunion

Théorème III - 9.
E, un K-ev, E* son dual, A et A' deux parties non vides de E, B et B' deux parties non vides de E*. Alors :
(I) A \subset A' \subset E \Longrightarrow (A')° \subset
et (II) B \subset B' \subset E* \Longrightarrow °(B') \subset °B.

Preuve :
(I) A \subset A' \subset E. f \in (A')° \Longrightarrow \foralla' \in A', < a' , f > = 0 \Longrightarrow \foralla \in A, < a , f > = 0 \Longrightarrow f \in A°.
(II) Même méthode pour B et B'.
Remarquer que l'orthogonalité "inverse les inclusions".
Théorème III - 10.
(Ai)i \in I une famille de parties de E. Alors : ( \cupi Ai )° = \capi (Ai)°.
Propriété analogue dans E* : (Bi)i \in I une famille de parties de E*. Alors : °( \cupi Bi ) = \capi °(Bi).
En clair : l'orthogonal d'une union est égal à l'intersection des orthogonaux.

Preuve :
f \in \capi (Ai \Longrightarrow \foralli, f \in (Ai\Longrightarrow\foralli, \forallx \in Ai, < x , f > = 0 \Longrightarrow f \in ( \cupi Ai )°. Donc : \capi (Ai\subset (\cupi Ai
Réciproquement : \foralli, Ai \subset \cupi Ai \Longrightarrow \foralli, (\cupi Ai\subset (Ai )° (Théorème III - 9) \Longrightarrow ( \cupi Ai \subset \capi (Ai)°.
La preuve pour les parties de E* est la même.

III - 3 - 5. Somme directe

Soit E un K-ev, on suppose que E est somme directe de deux sev F et G.
E = F \bigoplus G = vec(F \cup G) \Longrightarrow E° = [vec(F \cup G)]° \Longrightarrow {O*} = (F \cup G)° \Longrightarrow {O*} = F° \cap G° (I)
Nous savons que E = F \bigoplus G \Longrightarrow pour tout x de E, il existe un unique couple (y,z) de F×G tel que x = y + z. Soient p et q les projecteurs associés à la décomposition E = F \bigoplus G. En clair, p et q sont les deux endomorphismes de E définis par p(x) = y et q(x) = z. Alors, \forallx \in E, x = p(x) + q(x) signifie que IdE = p + q. En composant à gauche par un élément quelconque f de E*, cela donne : \forallf \in E*, f o IdE = f o p + f o q \Longrightarrow f = f o p + f o q. les deux applications f o p et f o q sont linéaires de E dans K, donc ce sont deux éléments de E*.


De plus, \forally \in F, f o q(y) = 0, donc, f o q \in F° et, \forallz \in G, f o p(z) = 0, donc, f o p \in G°. D'après ce qui précède, cela signifie que E* = F° + G° (II). En rassemblant (I) et (II), on a bien E* = F° \bigoplus G°.
Théorème III - 11.
E un K-ev. Alors, E = F \bigoplus G \Longrightarrow E* = F° \bigoplus G°.


Exemple :
Pour tout hyperplan H de E, on a E = H \bigoplus K.a, a \in E \ H. Le théorème III - 11 permet alors d'écrire dans ce cas la décomposition E* = H° \bigoplus (K.a)°. Le théorème III - 6 donne H° = K.f0, avec Ker(f0) = H. Donc, on en déduit que (K.a)° = {a}° est un hyperplan de E*. Une conséquence : il existe au moins une forme linéaire f ne s'annulant pas sur le vecteur (non nul) a.

Remarque :
On peut se poser des questions d'orthogonaux itérés en effectuant des aller-retours entre E et E*. Soient F un sev de E, F° (sev de E*) l'orthogonal de F, °(F°) (sev de E) l'orthogonal de F° et enfin, (°(F°))° (sev de E*) l'orthogonal de °(F°). Nous avons donc deux sev de E : F et °(F°) et deux sev de E* : F° et (°(F°))°. Comparons ces sev.

a) Etude dans E : comparaison de F et °(F°)

x \in F \Longrightarrow \forall f \in F°, < x , f > = 0 \Longrightarrow x \in °(F°). Donc : F \subset °(F°). La preuve de l'inclusion réciproque est plus délicate à prouver en dimension non finie. Nous l'admettrons.

b) Etude dans E* : comparaison de F° et (°(F°))°

f \in\Longrightarrow \forall x \in °(F°), < x , f > = 0 \Longrightarrow f \in (°(F°))°. Donc : F° \subset (°(F°))°. Mais ici, la réciproque fonctionne facilement. En effet, si l'on admet a), F \subset °(F°), donc, d'après le théorème III - 9, (°(F°))° \subset F°. Finalement : F° = (°(F°))°.
Théorème III - 12
Soit F un sev de E. Alors : F = °(F°) (dans E) et F° = (°(F°))° (dans E*).



III - 4. Transposition

III - 4 - 1. Définition

Soient E1 et E2 deux K-ev, u un élément de \scr{L}(E1 , E2). Appelons y* un élément quelconque de (E2)*. Alors, l'application y*° u est linéaire (composée de deux applications linéaires) de E1 dans K. Donc, y*° u est un élément de (E1)*. Finalement, on construit une application de (E2)* vers (E1)* définie par : y* fleche2 y*° u. Appelons tu cette application. Nous avons donc : \forally*\in (E2)*, tu(y*) = y*o u.
\forall (a,b)\inK², \forall(y*,z*)\in[(E2)*]², tu(a.y* + b.z*) = (a.y* + b.z*) ° u = a.(y*° u) + b.(z*° u) = a.tu(y*) + b.tu(z*). Ceci montre que tu est élément de \textrm\scr{L}((E2)*, (E1)*).
La formule tu(y*) = y*o u donne aussi :\forallx \in E1, \forally* \in (E2)*, [tu(y*)](x) = [y*° u](x). En utilisant les crochets de dualité : < x , tu(y*) > = < u(x) , y* >.
Soit v \in \scr{L}((E2)*, (E1)*) telle que \forallx \in E1, \forally* \in (E2)*, < x , v(y*) > = < u(x) , y* >. Alors, \forallx \in E1, \forally* \in (E2)*, v(y*)(x) = (y*° u)(x) \Longrightarrow \forally* \in (E2)*, v(y*) = y*° u = tu(y*) \Longrightarrowv = tu. Cela entraine l'unicité de tu.
Cette propriété sera exploitée ainsi : \forallx \in E1, \forally* \in (E2)*, < x , v(y*) > = < u(x) , y* > \Longrightarrow v = tu.
Définition III - 5.
E1 et E2 deux K-ev. A tout élément u de \scr{L}(E1 , E2) on peut faire correspondre un élément tu de \scr{L}((E2)*, (E1)*) par la formule : pour tout y* dans (E2)*, tu(y*) = y*° u.
L'application linéaire tu ainsi définie s'appelle la transposée de u.


Remarque :
u : E1 \rightarrow E2 donne tu : (E2)* \rightarrow (E1)* : on retourne et on passe aux duaux.
Théorème III - 13. Etant donné u \in \scr{L}(E1 , E2), tu est l'unique élément de \scr{L}((E2)*, (E1)*) défini par la formule : \forallx \in E1, \forally*\in (E2)*, < x , tu(y*) > = < u(x) , y* >.


III - 4 - 2. Premières propriétés

a) \forall(a,b) \in K², \forall(u,v)\in[\scr{L}(E1 , E2)]², < x , t(a.u + b.v)(y*) > = < (a.u + b.v)(x) , y* >
\Longrightarrow < x , t(a.u + b.v)(y*) > = a.< u(x) , y* > + b.< v(x) , y* > = a.< x , tu(y*) > + b.< x , tv(y*) >
\Longrightarrow < x , t(a.u + b.v)(y*) > = a.< u(x) , y* > + b.< v(x) , y* > = < x , a.tu(y*) > + b.tv(y*) >
Donc : t(a.u + b.v) = a.tu + b.tv. (I)
Cela signifie que l'application T : \scr{L}(E1 , E2) \rightarrow \scr{L}((E2)*, (E1)*), définie par : T(u) = tu, est linéaire.
Théorème III - 14 - a)
T : \scr{L}(E1 , E2) \rightarrow \scr{L}((E2)*, (E1)*), définie par : T(u) = tu, est linéaire.



b) u \in \scr{L}(E1 , E2), v \in \scr{L}(E2 , E3), \Longrightarrow v ° u \in \scr{L}(E1 , E3), tu \in \scr{L}((E2)*, (E1)*), tv \in \scr{L}((E3)* , (E2)*), et enfin t(v ° u) \in \scr{L}((E3)*, (E1)*). Nous avons les schémas suivants :
E1 \longrightarrow^{u} E2 \longrightarrow^{v} E3 \Longrightarrow E1 \longrightarrow^{v o u} E3 \Longrightarrow (E3)* \longrightarrow^{^t(v o u)} (E1)*
\Longrightarrow (E3)*\longrightarrow^{^tv}(E2)*\longrightarrow^{^tu}(E1)* \Longrightarrow (E3)* \longrightarrow^{^tu o ^tv} (E1)*. Il est donc légitime de comparer t(v o u) et tu o tv.
\forall x \in E1, \forallz*\in (E3)*, < x , t(v ° u)(z*) > = < (v ° u)(x) , z* > = < u(x) , tv(z*) > = < x , (tu ° tv)(z*) >
Donc : t(v ° u) = tu ° tv. (II).
Théorème III - 14 - b)
Sous les hypothèses de b), t(v ° u) = tu ° tv.



c) Supposons que E1 = E2 = E. Alors, u \in \textrm\scr{L}(E) et tu \in \textrm\scr{L}(E*).
\forallx \in E, \forally* \in E*, < x, y* > = < IdE(x) , y* > = < x , IdE*(y*) >. Donc t(IdE) = IdE*. (III)

d) Soient E et E' deux K-ev isomorphes, u un isomorphisme de E sur E'. Il existe donc un isomorphisme v de E' sur E tel que : u ° v = IdE' et v ° u = IdE. Les propriétés précédentes donnent par transposition :
tv ° tu = Id(E')* et tu ° tv = IdE*. Donc : u isomorphisme de E sur E' \Longrightarrow tu isomorphisme de E' sur E. (IV).
En particulier, si E = E', on en déduit que : t( u-1 ) = ( tu )-1 (V).
Théorème III - 14 - c)
t(IdE) = IdE*. Si u est un isomorphisme de E sur E', alors, tu est un isomorphisme de (E')* sur E*. u ° v = IdE' et v ° u = IdE \Longrightarrow tv ° tu = Id(E')* et tu ° tv = IdE*. En particulier, si E = E', nous aurons : t( u-1 ) = ( tu )-1. On peut donc écrire tu-1 sans ordre d'exécution.



III - 4 - 3. Comparaison entre certains sous-espaces

Soient u un élément de \scr{L}(E1 , E2), et F un sev de E1. Alors, l'orthogonal de F : F° est un sev de (E1)*. Il est donc intéressant de regarder les correspondances. (Un schéma sagittal est très conseillé).
F \subset E1 \Longrightarrow u(F) \subset E2 \Longrightarrow (u(F))° \subset (E2)*. Par ailleurs, F° \subset (E1)* \Longrightarrow tu-1(F°) \subset (E2)*. Il est donc naturel de vouloir comparer dans (E2)* les deux sous-espaces : (u(F))° et tu-1(F°).
y* \in (u(F))° \Longleftrightarrow \forallz \in u(F), < z , y* > = 0. Or, \forallz \in u(F), il existe x \in F tel que z = u(x). Ainsi, nous aurons donc : \forallx \in F, < u(x) , y* > = 0. Or, \forallx \in F, < u(x) , y* > = 0 \Longleftrightarrow \forallx \in F, < x , tu(y*) > = 0. Cette dernière égalité signifie que : y* \in (u(F))° \Longleftrightarrow y* \in tu-1(F°).
Théorème III - 15.
Soit u \in \scr{L}(E1 , E2). Alors, pout tout sev F de E1, (u(F))° = tu-1(F°).

Conséquences :
Prenons F = E1, alors, d'une part u(F) = u(E1) = Im(u), d'autre part (F)° = (E1)° = {O1*} (forme nulle sur E1). Enfin, par définition, tu-1({O1*}) = Ker( tu ). D'où : (Im(u))° = Ker( tu ). Supposons maintenant que u soit surjective, c'est-à-dire Im(u) = E2, alors : (Im(u))° = (E2)° = {O2*} = Ker( tu ). Donc tu est injective.
Théorème III - 16.
Soit u \in \scr{L}(E1 , E2). Alors, (Im(u))° = Ker( tu ) : l'orthogonal de l'image est égal au noyau de la transposée. En particulier : u surjective \Longrightarrow tu injective.



III - 4 - 4. Passage aux quotients

Rappelons que si E est un K-ev et F un sev de E, la relation \scr{R} définie dans E par : x \scr{R} y \Longleftrightarrow x - y \in F, est une relation d'équivalence dans E. La classe de tout élément x est \bar x= {x + ?, ? \in F} = x + F. L'ensemble de ces classes se note E/F. On peut alors munir E/F d'une structure de K-ev en posant \bar x+\bar y = \bar{x+y} et a.\bar x = \bar{a.x}.
L'application linéaire surjective \phi : E \rightarrow E/F définie par \phi(x) = \bar x est appelée la surjection canonique.
Cela étant, il existe un théorème universel très utile dans la pratique.
Théorème III - 17.
E1 et E2 deux K-ev, u \in \scr{L}(E1 , E2). Pour tout sev F de E1 tel que F \subset Ker(u), il existe une unique application linéaire \bar u: E1/F \rightarrow E2 telle que \bar u° \phi = u. En particulier, si F = Ker(u), \bar u est un isomorphisme de E1/Ker(u) sur Im(u).

Soient E un K-ev, F un sev de E. Nous savons que F°, orthogonal de F, est le sev de E* constitué des formes linéaires f telles que F \subset Ker(f). Appliquons le théorème III - 17 à tout élément f de F°. Considérons la surjection canonique \phi : E \rightarrow E/F. D'après le théorème III - 16, sa transposée t \phi : (E/F)* \rightarrow E* est injective. Donc, par le théorème III - 17, (E/F)* est isomorphe à Im(t \phi ). Mais cette propriété étant vraie pour tout élément f de F°, on a Im(t \phi ) = F°. Conclusion :
Théorème III - 18.
E un K-ev, F un sev de E. Alors les espaces (E/F)* et F° sont canoniquement isomorphes.



III - 5. Etude en dimensions finies

III - 5 - 1. Introduction

Dans toute la suite, nous allons travailler dans des K-ev de dimensions finies strictement positives. Nous savons d'après le chapitre I que cela entraine des résultats remarquables.
dim(E) = dim(E*) = dim(E**) (théorème I - 1)
E et E** sont canoniquement isomorphes (théorème I - 3). Cet isomorphisme T de E sur E** étant défini par : pour tout x dans E, pour tout y* dans E*, < y* , T(x) > = < x , y* >. On peut se permettre d'identifier E et E** en confondant x et T(x).
La présence de bases duales.
Enfin, dans le chapitre III, nous avons donné la dimension commune à tous les hyperplans de E : si dim(E) = n > 0, tout hyperplan H a pour dimension n-1.

III - 5 - 2. Dimension de l'orthogonal

Soient E un K-ev de dimension n > 0, F un sev de E, dim(F) = p.
Si p = 0, F = {0E} \Longrightarrow F° = {0E}° = E*. Donc, dim(F°) = n
Si p = n, F = E \Longrightarrow F° = E° = {O*}. Donc, dim(F°) = 0
Si 0 < p < n, soit BF = (e1 , ... , ep) une base de F complétée pour former une base de E, BE = (e1 , ... , en). Considérons la base duale de BE : (BE)* = (e1* , ... , en*).
f \in\Longleftrightarrow f \in [vec((e1 , ... , ep)]° = {e1 , ... , ep\Longleftrightarrow \forallj, 1 < j < p, < f , ej > = 0. Or, nous savons (théorème I - 5) que les scalaires < f , ej > sont les coordonnées de f sur (BE)*. Donc, f \in\Longleftrightarrow f = ap+1.ep+1* + ... + an.en*. Cela signifie que F° = vec(ep+1* , ... , en*). Ceci montre que dim(F°) = n-p.
Théorème III - 19.
E un K-ev de dimension finie > 0. Pour tout sev F de E, dim(F°) = dim(E) - dim(F). On appelle parfois dim(E) - dim(F) la codimension de F dans E. Donc : dim(F°) = codim(F).

Ce résultat va enfin nous permettre de comparer sans trop de difficulté les deux sev de E : F et °(F°) du théorème III - 12. En effet, on a déjà F \subset °(F°). D'autre part, dim[°(F°)] = codim(F°) = dim(F). Donc, en dimension finie, on a bien F = °(F°). Rappelons que cela induit : F° = (°(F°))°

III - 5 - 3. Quelques conséquences

E un K-ev de dimension n > 0, G un sev du dual E*. Nous savons que °G est un sev de E et que G° est un sev de E**. En dimensions non finies il était délicat de comparer les trois sev de E* : G, (°G)° et °(G°).
x** \in\Longleftrightarrow \: \forall y* \in G, < y* , x** > = 0 \Longleftrightarrow \forall y*\in G, < y* , T(x) > = 0 \Longleftrightarrow T(x) \in G°.
Donc, G° = T(°G) : G° et °G sont canoniquement isomorphes. De plus, le théorème III - 19 appliqué à E* nous donne dim(G°) = dim(E*) - dim(G) = dim(E) - dim(G). D'où : dim(°G) = dim(G°) = dim(E) - dim(G) = codim(G). On remarquera la symétrie entre E et E** par rapport à E*. Certains auteurs appelle cette propriété l'effet miroir. Si l'on identifie E et E**, on peut alors confondre °G avec G°, ce qui revient à replier autour de E* le schéma : E ? E* ? E** qui transmet : °G ? G ? G°. Finalement, en identifiant E et E**, on peut se dispenser de distinguer °G et G°.
Théorème III - 20.
E un K-ev de dimension n > 0, G un sev de E*. Alors, le sev °G de E et le sev G° de E** sont canoniquement isomorphes. De plus dim(°G) = dim(G°) = codim(G).

Soit G un sev de E*, °G son orthogonal dans E, (°G)° l'orthogonal de °G dans E*. On dispose ainsi de deux sev de E* : G et (°G)°. Pour les dimensions : dim((°G)°) = codim(codim(G)) = dim(G). Pour une inclusion : f \in G \Longrightarrow\forall x \in °G, < x , f > = 0 \Longrightarrow x \in (°G)°. On en déduit que G = (°G)°.
Soit G un sev de E*, G° son orthogonal dans E**, °(G°) l'orthogonal de G° dans E*. On a donc encore deux sev de E* : G et °(G°). Pour les dimensions : dim(°(G°)) = codim(codim(G)) = dim(G). Pour une inclusion : f \in G \Longrightarrow\forall F \in G°, < f , F > = 0 \Longrightarrow f \in °(G°). On en déduit que G = °(G°).
Théorème III - 21.
E un K-ev de dimension n > 0. Pour tout sev G de E* on a : G = (°G)° = °(G°)



III - 5 - 4 - Double transposition

Soient E1 et E2 deux K-ev de dimensions finies n1 et n2, u \in \scr{L}(E1 , E2). On sait qu'alors tu \in \scr{L}(E2* , E1*). On peut également considérer t(tu) \in \scr{L}(E1** , E2**). Appelons T1 : E1 \rightarrow E1** et T2 : E2 \rightarrow E2** les isomorphismes canoniques. Nous avons, \forallx1 \in E1, \forally2* \in E2* :
< y2* , t(tu) ° T1(x) > = < tu(y2*) , T1(x1) > = < x1 , tu(y2*) > = < u(x1) , y2* >
< y2* , T2 ° u(x1) > = < u(x1) , y2* >
On en déduit que t(tu) ° T1 = T2 ° u. Donc que : t(tu) = T2 ° u ° (T1)-1.
Ceci montre que si l'on identifie E1 et E2 avec leurs biduaux, on a t(tu) = u.

III - 5 - 5. Etude de la transposée

Rappelons que E1 et E2 étant deux K-ev, u un élément de \scr{L}(E1 , E2), y* un élément quelconque de (E2)*, la transposée de u est l'élément tu de \scr{L}((E2)*, (E1)*) défini par : \forally* \in (E2)*, tu(y*) = y*° u. Tout ce qui a été vu en dimensions quelconques reste naturellement valable. En particulier, nous savons déjà que : Ker(tu) = (Im(u))°.

a) Appelons n1 et n2 les dimensions de E1 et E2. Dans (E2)*, dim[(Im(u))°] = codim(Im(u)) = n2 - rg(u). D'autre part, toujours dans (E2)*, dim(Ker(tu)) = n2 - rg(tu). Conclusion : rg(tu) = rg(u).

b) Im(tu) et (Ker(u))° sont deux sev de (E1)*. D'abord, il est simple de vérifier que ces deux sev de E1* ont même dimension. Montrons une inclusion. x* \in Im(tu) \Longrightarrow il existe y* \in (E2)* tel que x* = tu(y*). Alors,\forallx \in Ker(u) : < x , x* > = < x , tu(y*) > = < u(x) , y* > = < 0(E2) , y* > = 0. Donc, x* \in Im(tu) \Longrightarrow x* \in (Ker(u))°. Ceci montre que Im(tu) = (Ker(u))°.
Théorème III - 22
Si E1 et E2 sont de dimensions finies, alors, pour tout élément u de \scr{L}(E1 , E2), nous avons les propriétés suivantes : rg(tu) = rg(u), Im(tu) = (Ker(u))°, Ker(tu) = (Im(u))°. On peut en déduire en particulier que : u injective \Longleftrightarrow tu surjective et u surjective \Longleftrightarrow tu injective.



c) Posons dim(E1) = p, dim(E2) = q et munissons E1 et E2 de bases B1 = (a1 , ... , ap) et B2 = (b1 , ... , bq). Nous munissons E1* et E2* des bases duales correspondantes. (B1)* = (a1* , ... , ap*) et (B2)* = (b1* , ... , bq*). Soient A = Mat(u, B1, B2) = (aij), et A' = Mat( tu, (B2)*, (B1)*) = (bij). Nous savons que aij est la coordonnée n°i du vecteur colonne n°j. Cela signifie que aij = < u(aj) , bi* >.
Si nous adaptons ce résultat à A', en notant (B1)** = (a1** , ... , ap**) la base duale de (B1)* dans E1**, cela donne : bij = < tu(bj*) , ai** >. En identifiant E1 et son bidual, bij = < ai , tu(bj*) > = < u(ai) , bj* > = aji.
Théorème III - 23.

Mat( tu, (B2)*, (B1)*) = t [ Mat(u, B1, B2) ]. En clair : à condition de travailler dans les bases duales, la matrice de la transposée de u est la transposée de la matrice de u.



III - 5 - 6. Conclusion

Comme nous le voyons, les propriétés concernant la dualité sont très étendues. Ce chapitre III a donné quelques pistes pour faire face à la plupart des questions concernant cette théorie.
Dans un chapitre IV on trouvera quelques exercices portant sur la dualité.
Il faut savoir que la dualité est également omniprésente en analyse : formes différentielles, mesures, distributions... Cependant, les formes linéaires utilisées sont continues ou ont des restrictions continues. L'espace des formes linéaires continues sur un R ou un C-espace vectoriel topologique E s'appelle le dual topologique de E.
Publié le
ceci n'est qu'un extrait
Pour visualiser la totalité des cours vous devez vous inscrire / connecter (GRATUIT)
Inscription Gratuite se connecter
Merci à
raymond Correcteur
pour avoir contribué à l'élaboration de cette fiche


Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1336 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !