Dualité - Chapitre IV
Utilisation
IV - 1. Comparaison entre G et (°G)°
IV - 1 - 1. Exercice 1 - 1. Inégalité stricte en dimension non finie
E = R[X] représente le R-ev des polynômes à une indéterminée, à coefficients réels. Pour tout entier k, on définit l'application f
k par : pour tout élément P de E s'écrivant P(X) = a
0 + a
1X + ... + a
pX
p, on pose : f
k(P) = a
k.
1. Montrer que la famille (f
k)
k
N est une famille libre de E*, espace dual de E.
2. On pose H
k = Ker(f
k). Que dire de H
k ? Ecrire une décomposition de E en somme directe associée.
3. On appelle G le sev de E* engendré par la famille (f
k)
k
N. Soit f définie sur E par f(P) = P(1). Montrer que f est dans E* mais pas dans G. On a donc : G est un sev de E* strictement inclus dans E*.
4. Etudier °G, puis (°G)°. Conclure.
Correction de l'exercice 1- 1.
1. Si P(X) =

a
iX
i et Q(X) =

b
jX
j, et si r et s sont deux réels quelconques, (r.P + s.Q)(X) =

(ra
p + sb
p)X
p. Donc, f
k(r.P + s.Q) = ra
k + sb
k = rf
k(P) + sf
k(P). Ceci prouve que :

k

N, f
k 
E*.
Considérons une sous-famille finie f
0 , ... , f
N de (f
k)
k
N. Etudions : r
0.f
0 + ... + r
N.f
N = O*. Pour tout polynôme P nous aurons donc r
0.f
0(P) + ... + r
N.f
N(P) = 0, en particulier si P(X) = X
k : on trouve r
k = 0. La famille f
0 , ... , f
N est donc libre. On en déduit que (f
k)
k
N. est libre dans E*.
Nous remarquons que (f
k)
k
N est duale de la base canonique de E : < X
p , f
q > = δ
pq.
2. Puisque f
k(X
k) = 1, la forme linéaire f
k est non nulle. On sait qu'alors H
k = Ker(f
k) est un hyperplan de E. On peut écrire que E = H
k 
R.X
k.
3. Résultat classique : f est une forme linéaire sur E. Si f était élément de G, il existerait n réels r
0 , ... , r
n tels que l'on ait : f = r
0.f
0 + ... + r
n.f
n. Donc, pour tout P dans E, f(P) = r
0.f
0(P) + ... + r
n.f
n(P).
Si l'on prend P(X) = X
n+1, cela donne : 1 = 0. Ce qui est faux. Donc f n'appartient pas à G. Ceci prouve qu'en dimension non finie, E* est "beaucoup plus grand" que E.
4. P

°G

k

N, < P , f
k > = 0 : tous les coefficients de P sont nuls. Donc °G = {0
E}.
F

(°G)°

< 0
E , F > = 0. Donc (°G)° = E*. Comme G est strictement inclus dans E*, on en déduit que, contrairement à la dimension finie, l'inclusion G

(°G)° peut être stricte.
IV - 1 - 2. Exercice 1 - 2. Utilisation de l'égalité en dimension finie
On donne le résultat suivant :
(t-b)(t-c)dt = \frac{1}{12}(b-a)^3(2c-a-b))
.
Soient E = R
3[X] le R-ev (de dimension 4) des polynômes de degré

3 et du polynôme nul et a, b, c trois réels distincts. On considère les quatre applications définies sur E par
f
a : P

P(a), f
b : P

P(b), f
c : P

P(c),
1. Montrer que (f
a , f
b , f
c) est libre dans E*. On pose G = vec(f
a , f
b , f
c). En déduire dim(G) et la nature de G.
2. En utilisant la relation G = (°G)°, montrer que : f

G

c =
3. En déduire, pour tout P dans E, la valeur de f(P) en fonction de P(a), P(b), P
)
.
Correction de l'exercice 1 - 2.
1. Pas de difficulté pour cette question (voir dans I - 2 - 2, l'exemple I - 6). On a alors dim(G) = 3. On remarquera que G est un hyperplan de E*.
2. D'abord, P

°G

< P , f
a > = < P , f
b > = < P , f
c > = 0

P(a) = P(b) = P(c) = 0. Donc P admet les trois racines distinctes a, b, c et par suite P(X) = k.(X-a)(X-b)(X-c), où k est un réel quelconque.
Remarquons que l'on trouve que °G = vec[(X-a)(X-b)(X-c)], donc dim(°G) = 1, ce qui est normal puisque dim(°G) = codim(G).
f

G = (°G)°

f

(vec[(X-a)(X-b)(X-c)])° = f((X-a)(X-b)(X-c)) = 0
Le calcul est fastidieux, mais l'énoncé nous donne la réponse. Donc :
^3(2c-a-b))
= 0. Comme a

b, on a bien c =

. Cela signifie que lorsque c est le milieu de [a,b], la forme f est liée aux formes f
a , f
b , f
c. Il existe donc nécessairement trois scalaires

,

,

tels que : f =

.f
a +

.f
b +

.f
c. Cela donne :
Cherchons

,

,

. Pour cela, comme cette formule est valable pour tout P, on peut choisir des P simples.
pour P(X) = X-a :
pour P(X) = X-b :
pour P(X) = (X-a)(X-b) :
Finalement, on obtient la formule dite "des trois niveaux". Pour tout polynôme P de degré = 3 :
IV - 2. Transposées classiques
IV - 2 - 1. Exercice 2 - 1. Transposée d'une homothétie
E un K-ev, h une homothétie de E : h(x) = a.x, a

K. Etudier
th.
Correction de l'exercice 2 - 1.
Appliquons la définition :

x

E,

f

E*, < x ,
th(f) > = < h(x) , f > = < a.x , f > = a< x , f > = < x , a.f >. Puisque cette égalité est vraie pour tout x et toute f, on a :
th(f) = a.f.
Remarque. On peut aussi écrire que h = a.Id
E et utiliser la linéarité de la transposition :
th = a.
t(Id
E) = a.Id
E*.
Conclusion. La transposée d'une homothétie de E est une homothétie de E*, de même rapport.
IV - 2 - 2. Exercice 2 - 2. Transposée d'une forme linéaire non nulle.
Soient E un K-ev non réduit à {0
E}, E* son espace dual, f un élément non nul de E*.
1. Etudier K*
2. Etudier
tf : source, but, valeur de
tf(u) avec u

K*, noyau et image de
tf.
Correction de l'exercice 2 - 2.
1. u

K* signifie que u est linéaire de K dans K. Donc,

x

K, u(x) = u(x.1
K) = x.u(1
K). Désignons par a
u le scalaire u(1
K), cela donne u(x) = a
u.x.
Réciproquement toute application de K dans K du type x

a.x est bien linéaire. K* est donc le K-ev des applications de K dans K du type x

a.x.
2. Puisque f : E

K, nous avons par définition
tf : K*

E*,

x

E,

u

K*, < x ,
tf(u) > = < f(x) , u >. D'après la question 1°),

x

E,

u

K*,
tf(u)(x) = u(f(x)) = a
u.f(x). Finalement :

u

K*,
tf(u) = a
u.f.
Comme f est supposée non nulle, on en déduit que Im(
tf ) = K.f : droite vectorielle dans E* engendrée par f.
Pour le noyau, on peut utiliser Ker(
tf ) = (Im(f))°, cela donne Ker(
tf ) = K° = {O
K*}.
IV - 2 - 3. Exercice 2 - 3. Transposée de l'injection canonique
E est un K-ev non réduit à {0
E}, F est un sev de E.
On appelle injection canonique de F dans E, l'application i : F

E définie par i(x) = x.
1. Montrer que i est linéaire.
2. Définir l'application
t i.
3. Chercher Ker(
t i ) et Im(
t i ). En appliquant le théorème III - 17, en déduire un isomorphisme.
Correction de l'exercice 2 - 3.
1. Pour x et y dans F, a et b dans K, i(a.x + b.y) = a.x + b.y = a.i(x) + b.i(y). i est bien linéaire. Remarquer que dans l'écriture i(a.x + b.y) = a.x + b.y, x et y sont considérés à gauche comme des éléments de F et à droite comme des éléments de E.
2. Déjà,
t i : E*

F*. De plus, par définition,

x

F,

f

E*, < x ,
t i(f) > = < i(x) , f > = < x , f >. Donc, en revenant à l'écriture fonctionnelle :

x

F,

f

E*,
t i(f)(x) = f(x). On en déduit que
t i(f) est la restriction à F de la forme f. Notons f
F cette restriction. Alors,

f

E*,
t i(f) = f
F.
3. f

Ker(
t i )

f
F = O
F* 
f est nulle sur F

F

Ker(f)

f

F°. D'où : Ker(
t i ) = F°. Par ailleurs, si g est une forme linéaire sur F, il existe au moins une forme linéaire f sur E telle que f
F = g. Donc
t i est surjective et finalement Im(
t i ) = F*. Nous aurions pu également utiliser le fait que Ker(
t i ) = (Im( i ))° = F°.
Par le théorème III - 17, la propriété E/Ker(u)

Im(u) s'écrit ici :
E/F°
F*.
Ce résultat est à mettre en parallèle avec celui du cours : (E/F)*

F°.
IV - 2 - 4. Exercice 2 - 4. Transposée d'un projecteur
Soient E un K-ev, E

{0
E} et p un projecteur de E, c'est-à-dire un endomorphisme de E tel que p
°p = p² = p. On désigne par e et e* les endomorphismes Id
E et Id
E* respectivement. On remarquera que les deux endomorphismes particuliers : l'endomorphisme nul et l'endomorphisme identité sont deux projecteurs de E.
1. Montrer que x

Im(p)

p(x) = x. En déduire que E = Ker(p)

Im(p).
2. Montrer que e - p est un projecteur de E. Comparer les noyaux et les images de p et de e - p.
3. Montrer que
tp est un projecteur de E*. Les deux décompositions en somme directe : E* = Ker(
tp)

Im(
tp) et E = (Im(p))°

(Ker(p))° sont-elles les mêmes ?
Correction de l'exercice 2 - 4.
1. x

Im(p)

il existe x' dans E tel que x = p(x'). En composant par p : x

Im(p)

p(x) = p²(x') = p(x') = x. Cette relation x

Im(p)

p(x) = x sert très souvent dans les problèmes sur les projecteurs.
On peut écrire :

x

E, x = p(x) + x - p(x). Par définition, p(x)

Im(p). Etudions, y = x - p(x). Nous avons sans problème : p(y) = p(x) - p²(x) = p(x) - p(x) = 0
E. Donc,

x

E, x - p(x)

Ker(p). Nous pouvons donc déjà écrire que E = Im(p) + Ker(p).
De plus, x

E Ker(p)

Im(p)

p(x) = 0
E et p(x) = x. Donc, Ker(p)

Im(p) = {0
E}
Finalement, pour tout projecteur p de E, E = Ker(p)

Im(p). La décomposition (unique) associée à cette somme directe étant x = [x - p(x)] + [p(x)].
2. Posons q = e - p. Alors, q² = (e - p)
°(e - p) = e - p - p + p² = e - p. e - p est bien un projecteur de E.
x

Im(e - p)

x = (e - p)(x)

p(x) = 0
E 
x

Ker(p). Donc : Im(e - p) = Ker(p).
x

Ker(e - p)

(e - p)(x) = 0
E 
p(x) = x

x

Im(p). Donc Ker(e - p) = Im(p).
Remarque : E = Ker(p)

Im(p) = Im(e - p)

Ker(e - p) = Im(e - p)

Im(p) = Ker(p)

Ker(e - p).
3. t(p
°p) =
tp
tp
°tp =
tp. Donc, p projecteur de E
tp projecteur de E*.
On sait (théorème III - 11) que E = Ker(p)

Im(p)

E* = (Ker(p))°

(Im(p))°. Par ailleurs, on sait également (théorème III - 16) que (Im(p))° = Ker(
tp). Donc, déjà, E* = (Ker(p))°

Ker(
tp). Il reste donc à comparer les deux sev de E* : (Ker(p))° et Im(
tp). Or :
(Ker(p))° = (Im(e - p))° = Ker
t(e - p) = Ker(e* -
tp) = Im(
tp).
Finalement, les décompositions : E* = Ker(
tp)

Im(
tp) et E* = (Im(p))°

(Ker(p))° sont les mêmes.
IV - 3. Intersections d'hyperplans
IV - 3 - 1. Exercice 3 - 1. Un premier résultat
Soient E un K-ev de dimension n > 0, F un sev de E strictement inclus dans E.
1. Montrer que F est inclus dans au moins un hyperplan de E.
2. Montrer que F est égal à l'intersection des hyperplans de E contenant F.
Correction de l'exercice 3 - 1.
1. Si F = {0
E} tout hyperplan de E contenant 0
E le résultat est acquis. Sinon, posons dim(F) = p, 0 < p < n. Considérons une base de F : (e
1 , ... , e
p) complétée pour former une base de E : (e
1 , ... , e
n). Alors, le sev H de E défini par H = vec(e
1 , ... , e
n-1) est un hyperplan de E contenant F. Conclusion : pour tout sev F de E distinct de E, la famille

des hyperplans de E contenant F est non vide.
2. a) Première méthode. On sait qu'en dimension finie, pour tout sev F de E, on a : F = °(F°). Or, par définition nous avons : °(F°) =

Ker(f). Donc, F =

Ker(f) =

H
f , où H
f = Ker(f). Mais f

F° signifie que pour tout x dans F, < x , f > = 0, donc que F

Ker(f). On en déduit bien que : F =

H.
2. b) Deuxième méthode. Puisque F est strictement inclus dans E, il existe x (non nul) dans E\F. Alors, si F = {0
E} on complète la partie libre (x) pour former une base de E : (e
1 , ... , e
n-1 , x
) et si dim F = p, 0 < p < n, on prend une base de F : (e
1 , ... , e
p) et comme x n'est pas dans F, (e
1 , ... , e
p , x) est libre dans E. On complète cette famille en : (e
1 , ... , e
p, e
p+1 , ... , e
n-1 , x) pour former une base de E. Remarquer que ce complément est inutile si p = n-1. Alors, H
x = vec(e
1 , ... , e
p, e
p+1 , ... , e
n-1 ) est un hyperplan de E contenant F mais pas x. On obtient donc la même conclusion : F =

H =

Ker(f).
Remarques
a) On peut se demander s'il faut prendre tous les hyperplans contenant F pour retrouver F par intersection. Nous aurons une réponse plus loin.
b) Cette propriété : F est égal à l'intersection des hyperplans de E contenant F, peut se prouver en dimension non finie. Mais dans ce cas, il faut admettre que tout sev de E possède un supplémentaire.
IV - 3 - 2. Exercice 3 - 2. Bases associées
Rappel.
Si B
E = (e
1 , ... , e
n) est une base de E et si (B
E)* = (e
1* , ... , e
n*) est sa base duale dans E*, alors les coordonnées des éléments x de E et f de E* sont déterminées par : x
i = < x , e
i* > et f
j = < e
j , f >.
E un K-ev de dimension finie > 0, E* son espace dual.
1. F un sev de E. En prenant une base de F, en la complétant pour former une base de E, puis en prenant la duale, trouver, lorsque c'est possible, une base de F°.
2. G un sev de E*. Par un procédé analogue, trouver, lorsque c'est possible, une base de °G.
3. Définition 1 : Soient k hyperplans H
1 , ... , H
k et k formes linéaires f
1 , ... , f
k telles que pour tout i, H
i = Ker(f
i). On dit que H
1 , ... , H
k sont indépendants ssi les k formes linéaires f
1 , ... , f
k sont indépendantes dans E*.
Soit F un sev de E, F

E, donc : dim(F) = p, 0

p < n. Montrer qu'il existe n-p formes linéaires indépendantes f
p+1 , ... , f
n telles que F =

Ker(f
i).
En déduire la propriété : tout sev de E de dimension p, 0

p < n est l'intersection de n-p hyperplans indépendants.
Définition 2 : On appelle équation cartésienne de F le système constitué par les équations de ces n - p hyperplans indépendants.
Correction de l'exercice 3 - 2.
1. Cas particuliers : si F = {0
E}, alors F° = E* et si F = E, alors F° = {O*}. Donc, si F = {0
E}, une base de F° est formée par une base quelconque de E*. Par contre, si F = E, F° n'admet pas de base.
Passons au cas où dim(F) = p, avec 0 < p < n. Soit B
F = (e
1 , ... , e
p) une base de F, complétée pour constituer une base de E : B
E = (e
1 , ... , e
n). Prenons sa duale : (B
E)* = (e
1* , ... , e
n*). Nous aurons alors :
f

F°

f

(vec(e
1 , ... , e
p))° = {e
1 , ... , e
p}°

j, 1

j

p, < e
j , f > = 0. Cela signifie que les p premières coordonnées de f sur (B
E)* sont nulles, donc f

F°

f = f
p+1.e
p+1* + ... + f
n.e
n*. On en déduit facilement que F° = vec(e
p+1*, ..., e
n*). On retrouve bien sûr que dim(F°) = codim(F).
2. Cas particuliers : si G = {O*}, alors °G = E et si G = E*, alors °G = {0
E}. Donc, si G = {O*}, une base de °G est constituée par une base quelconque de E. Par contre, si G = E*, °G n'admet pas de base.
Passons au cas où dim(G) = q, avec 0 < q < n. Soit B
G = (e
1* , ... , e
q*) une base de G, complétée pour constituer une base de E* : B
E* = (e
1* , ... , e
n*). Prenons sa préduale dans E : B
E = (e
1 , ... , e
n). Nous aurons alors :
x

°G

x

°(vec(e
1* , ... , e
q*) ) = °{e
1* , ... , e
q*}

i, 1

i

q, < x , e
i* > = 0. Cela signifie que les q premières coordonnées de x sur B
E sont nulles, donc x

°G

x = x
q+1.e
q+1 + ... + x
n.e
n. On en déduit facilement que °G = vec(e
q+1 ... e
n). Là encore, la propriété dim(°G) = codim(G) est vérifiée.
3. Si nous reprenons les notations de la question
1., pour tout sev F de E distinct de E, F° = vec(e
p+1* , ... , e
n*). Alors, en réappliquant la méthode employée dans l'exercice 3 - 1 :
°(F°) = °(vec(e
p+1* , ... , e
n*)) = °{e
p+1* , ... , e
n*} = °(

{e
i*}) =

°{e
i*} =

Ker(e
i*).
Et comme F = °(F°), nous avons bien écrit F comme intersection de n - p hyperplans indépendants.
Si cette intersection se présente sous la forme : F =

H
i =

Ker(f
i), alors, l'équation cartésienne de F s'écrit :
IV - 3 - 3. Exercice 3 - 3. Un grand classique
Soient E un K-ev, ( f
i )
i
I une famille non vide de formes linéaires sur E, f une forme linéaire sur E.
1. Montrer que f

Vec(( f
i ))

Ker( f
i )

Ker(f).
2. On suppose que dim(E) = n > 0. On pose F =

Ker( f
i ). Montrer que l'on ne modifie pas F en ne gardant dans l'intersection que des noyaux indépendants. Exprimer dim(F) en fonction du rang de la famille ( f
i )
i
I.
3. On suppose que dim(E) = n > 0. Montrer la réciproque :

Ker( f
i )

Ker(f)

f

Vec(( f
i )).
Correction de l'exercice 3 - 3.
1. f

Vec(( f
i )) implique que f est combinaison linéaire finie d'éléments de la famille ( f
i )
i
I. Cela signifie qu'il existe p scalaires a
1 , ... , a
p et p éléments f
1 , ... , f
p de ( f
i )
i
I tels que f = a
1f
1 + ... + a
pf
p. Alors :
x

Ker( f
i )

i

I, f
i(x) = 0

f(x) = 0

x

Ker(f). Donc f

Vec(( f
i ))

Ker( f
i )

Ker(f).
2. Supposons donc dim(E) = n > 0. Alors, la famille ( f
i )
i
I est de rang p, avec 0

p

n (car dim(E*) = n). Si ce rang est nul, cela signifie que toutes les f
i sont nulles, donc que, pour tout i, Ker( f
i ) = E, donc

Ker( f
i ) = E. Ecartons ce cas. Rg( ( f
i )
i
I) = p signifie : il existe f
1 , ... , f
p indépendantes dans ( f
i )
i
I et, tous les autres éléments de ( f
i )
i
I sont dans vec(f
1 , ... , f
p). Alors, la propriété prouvée dans
1. signifie que, pour toutes ces autres formes f
j , on aura

Ker(f
i )

Ker( f
j ). Elles n'influenceront donc pas l'intersection. Conclusion :
Si rg( ( f
i )
i
I = p, alors : F =

Ker( f
i ) =

Ker(f
i ), où ( f
1 , ... , f
p ) est une base de vec( ( f
i )
i
I ).
D'après l'exercice 3 - 2, F est intersection de p hyperplans indépendants, donc, dim(F) = n - p.
3. On suppose encore que dim(E) = n > 0. D'après
2., F =

Ker(f
i ). Appliquons la méthode des bases développée dans l'exercice 3 - 2 : on complète (si p < n) ( f
1 , ... , f
p ) en ( f
1 , ... , f
n) pour former une base de E*, on prend sa préduale dans E : (e
1 , ... , e
n), alors F = vec(e
p+1 , ... , e
n).
Introduisons maintenant l'hypothèse F

Ker( f ). Ceci signifie que pour tout j, p+1

j

n, < e
j , f > = 0. Comme les < e
i , f > sont les coordonnées de f sur ( f
1 , ... , f
n), on a donc : f = a
1f
1 + ... + a
pf
p. Ceci montre bien que f appartient à vec( f
1 , ... , f
p).
Conclusion en dimension finie :
(E) : f
Vec(( fi ))
Ker( fi )
Ker(f).
Bilan :
Soient E un K-ev de dimension n > 0, F un sev de E de dimension p, 0

p < n. Alors, il existe n-p hyperplans indépendants H
p+1 , ... , H
n tels que F soit égal à l'intersection de ces n-p hyperplans :

.
Réciproquement, pour tout entier r, 0 < r

n, l'intersection de r hyperplans indépendants de E est un sev F de E de dimension n-r.
Ce résultat est utilisé en particulier dans la résolution des systèmes linéaires.
IV - 3 - 4. Exercice 3 - 4. Mise en défaut de (E) en dimension non finie
E est le C-ev des suites à coefficients complexes convergentes. Si
})
est une telle suite, nous poserons : (x)
n =

. Considérons la famille (e
p)
p
N des suites de E définies par (e
p)
n =

. En détaillant : la suite e
p =
)
a tous ses termes nuls sauf son terme de rang p + 1 :

qui vaut 1.
1. Cette famille est-elle libre dans E ? Déterminer F = vec((e
p)
p
N). La famille (e
p)
p
N engendre-t-elle E ?
2. ( f
p )
p
N est la famille d'applications définie par :

x

E,

p

N, , f
p(x) = (x)
p =

. Montrer que (f
p)
p
N est une famille libre de E*.
3. Pour tout x dans E, on pose : L(x) =
)
. Montrer que L est élément de E* et que L

vec(( f
p )
p
N. Que dire de Ker(L) ? Comparer les deux sev : F = vec((e
p)
p
N) et Ker(L).
4. Etudier

Ker( f
p ) et Ker(L). Conclusion en référence à l'équivalence (E) de l'exercice 3 - 3 ?
Correction de l'exercice 3 - 4.
1. On sait que cette famille sera dite libre ssi toute sous-famille finie est libre. Prenons donc k éléments de (e
p)
p
N : e
p(1) , ... , e
p(k) et étudions l'équation d'inconnues les k nombres complexes
}} + ... + \alpha_{\text{k}} . e_{\text{p(k)}} = O)
(où O est la suite nulle). Alors, pour tout n, on aura au rang n+1 :
}})_n + ... + \alpha_{\text{k}}(e_{\text{p(k)}})_{\text{n}} = 0)
. En prenant successivement n = p(1), ... , n = p(k), on trouve :

.
Conclusion : la famille (e
p)
p
N est libre dans E.
Appelons F le sev de E engendré par la famille (e
p)
p
N. Par définition, F = vec((e
p)
p
N) est l'ensemble des combinaisons linéaires FINIES d'éléments de la famille (e
p)
p
N. Donc :
x

F
. F)
= vec((e
p)
p
N) est alors le sev de E formé par les suites dont tous les termes sont nuls à partir d'un certain rang (appelées suites à support fini). Naturellement F n'est pas égal à E car, par exemple, la suite a définie par (a)
n =

est dans E mais n'est pas à support fini. Ainsi, la famille (e
p)
p
N n'engendre pas E mais un sev F strictement inclus dans E.
2. Soient x et y deux éléments de E, (x)
n =

et (y)
n =

. Si a et b sont deux complexes quelconques, Nous aurons pour tout p : f
p(a.x + b.y) = (a.x + b.y)
p = a

+ b

= a.f
p(x) + b.f
p(y). Les f
p sont linéaires de E dans C : ce sont des éléments de E*. Prouvons maintenant que cette famille est libre dans E*. Prenons une sous-famille finie : f
0 , ... , f
k et étudions :

.f
0 + ... +

.f
k = O*. Donc, pour toute suite x de E,

.f
0(x) + ... +

.f
k(x) = 0. En prenant en particulier les suites e
p de la question 1, on a :

. Donc, (f
p)
p
N est une famille libre de E*.
3. D'abord, E étant le C-espace vectoriel des suites complexes convergentes, L est bien définie sur E. De plus L est une application de E dans C. Enfin, soient x et y deux éléments de E, (x)
n = ξ
n et (y)
n = η
n, a et b deux complexes. Nous savons que : L(a.x + b.y) =

(aξ
n + bη
n) = a.

(ξ
n) + b.

(η
n) = a.L(x) + b.L(y). L est bien un élément de E*.
Cherchons si {L}

( f
p )
p
N est libre ou non. Pour cela, étudions l'équation

.L + β
0.f
0 + ... + β
k.f
k = O* d'inconnues les nombres complexes

, β
0 , ... , β
k. Donc,

x

E,

.L(x) + β
0.f
0(x) + ... + β
k.f
k(x) = 0. Prenons des suites particulières. Si la suite x a ses k+1 premiers termes nuls et tous ses termes égaux à 1 à partir du rang k+2, nous aurons L(x) = 1 et f
0(x) = ... f
k(x) = 0. On en déduit que

= 0. Il reste β
0.f
0 + ... + β
k.f
k = O*. ( f
p )
p
N étant une famille libre de E*, cela entraine β
0 = ... = β
k = 0.
Conclusion : {L}

( f
p )
p
N est libre dans E*, donc, L n'est pas dans vec(( f
p )
p
N).
L est une forme linéaire non nulle sur E. En effet, si b est la suite définie par (b)
n =

, alors, L(b) = 1. On peut en déduire que Ker(L) est un hyperplan de E : l'hyperplan des suites convergeant vers 0. Si on applique le cours, on peut même donner une décomposition de E en somme directe : E = Ker(L)

C.b. Par ailleurs tous les éléments y de F étant à support fini, on a L(y) = 0. Donc : F = vec((e
p)
p
N)

Ker(L)

E.
4. D'une part : x


Ker( f
p )

p

N, < x , f
p > = (x)
p = 0

x = O. Donc :

Ker( f
p ) = {O}. D'autre part, Ker(L) n'est pas réduit à la suite nulle (Ker(L) contient F). Nous avons donc : L

vec(( f
p )
p
N), mais nous avons aussi

Ker( f
p )

Ker(L). Ceci donne un exemple où l'équivalence de l'exercice 3 - 3 est fausse en dimension non finie.
IV - 4. Séparation
IV - 4 - 1. Exercice 4 - 1.
E est un K-ev, f et g deux formes linéaires sur E.
1. On suppose que :

x

E, f(x)g(x) = 0. Montrer que f = O* ou g = O*.
2. Montrer que si f et g sont deux formes linéaires non nulles sur E, il existe a

E tel que f(a)

0 et g(a)

0.
Correction de l'exercice 4 - 1.
1. On suppose donc que :

x

E, f(x)g(x) = 0. Si f et g étaient non nulles, on pourrait trouver u

E et v

E tels que f(u)

0 et g(v)

0. Comme par hypothèse f(u)g(u) = 0 et f(v)g(v) = 0, on en déduit que g(u) = 0 et f(v) = 0. Alors, par linéarité : f(u+v) = f(u)

0 et g(u+v) = g(v)

0. Donc, f(u+v)g(u+v)

0, ce qui contredit l'hypothèse :

x

E, f(x)g(x) = 0. Conséquence : f = O* ou g = O*.
2. Il suffit de prendre la contraposée de
1. : f

O* et g

O*

a

E, f(a)g(a)

0, donc f(a)

0 et g(a)

0.
IV - 4 - 2. Exercice 4 - 2.
E un K-ev de dimension finie n > 0.
1. Montrer que

(x,y)

E², x

y

f

E*, f(x)

f(y).
2. Soit G un sev de E* vérifiant :

(x,y)

E², x ? y

f

G, f(x)

f(y). Monter que G = E*. Appelons (P) cette propriété.
3. On reprend IV - 3 - 7, exercice 3 - 4. On pose G = vec(f
p)
p
N. (P) est-elle vraie en dimension non finie ?
Correction de l'exercice 4 - 2.
1. Si x

y, alors a = x - y est non nul. Par la remarque du théorème III - 11, il existe f

E* telle que f(a)

0. Ceci entraine bien que f(x)

f(y). Constatons que l'hypothèse de la dimension finie n'est pas nécessaire ici.
2. Si G était strictement inclus dans E*, alors, °G serait non réduit à {0
E}. Il existerait donc un vecteur non nul a qui vérifierait :

f

G, f(a) = 0. Ce qui contredit l'hypothèse.
3. Dire que deux suites x = (ξ
n) et y = (η
n) de E sont distinctes signifie : il existe un entier p tel que ξ
p 
η
p. Donc, la forme f
p vérifie bien f
p(x)

f
p(y). Le sev de E*, G = vec(f
p)
p
N vérifie donc bien la propriété de la question
2.. Pourtant nous savons que G est strictement inclus dans E*.
IV - 5. Propriétés de la transposition
IV - 5 - 1. Exercice 5 - 1. L'application T
Le théorème III - 14 - a) nous indique que T :

( E
1 , E
2)

( E
2*
, E
1*
) définie par T(u) =
tu est linéaire.
Montrer que T est injective. Que peut-on en déduire si E
1 et E
2 sont de dimensions finies ?
Correction de l'exercice 5 - 1.
u

Ket(T)
tu = O(

( E
2*
, E
1*
))


g

E
2*,
tu(g) = O(E
1*)


x

E
1,

g

E
2*, < x ,
tu(g) > = < u(x) , g > = 0.
Cette dernière égalité signifie que, u(x) est orthogonal à tous les éléments de E
2*, donc que u(x) = O(E
2). Ceci étant vrai pour tout x, u = O(

( E
1 , E
2)). Donc, Ker(T) = {O(

( E
1 , E
2))}. T est bien injective.
Si dim(E
1) = p et si dim(E
2) = q, nous savons déjà que dim(E
1*) = p et si dim(E
2*) = q.
On en déduit que dim(

( E
1 , E
2)) = p×q et que dim(

( E
2*
, E
1*
)) = q×p.
Ceci montre que les deux espaces

( E
1 , E
2) et

( E
2*
, E
1*
) ont même dimension. Comme T est injective, en appliquant la formule classique : dim(

( E
1 , E
2)) = dim(Ker(T)) + dim(Im(T)), on en déduit que T est aussi surjective.
Conclusion : en dimensions finies, T : u
tu est un isomorphisme de K-ev.
IV - 5 - 2. Exercice 5 - 2. Etude matricielle
Pour n > 1, on considère l'endomorphisme T de Mn(K) défini par T(M) = tM.
1. Montrer qu'il s'agit d'un automorphisme.
2. Trouver ses éléments propres. Montrer que T est diagonalisable. En déduire det(T) et tr(T).
Correction de l'exercice 5 - 2.
1. On peut chercher Ker(T). M

Ker(T)
tM = O

M = O. Donc Ker(T) = {O}. T est bien un automorphisme de M
n(K). On peut aussi remarquer que
t(
tM) = M, donc que T
° T = Id(M
n(K)). Ceci montre que (T)
-1 existe : (T)
-1 = T. Donc T est inversible.
2. Si on connait la théorie du polynôme minimal on peut remarquer que T² - Id = O, donc p(X) = X² - 1 est un polynôme annulateur de T. Comme X² - 1 = (X + 1)(X - 1) (pour tout corps K de caractéristique différente de 2), et comme T est différent de Id et de -Id, p est bien le polynôme minimal de T. Comme p est scindé à racines simples, T est diagonalisable. Enfin, nous aurons : Sp(T) = {-1,1}. Il reste à chercher les sous-espaces propres.
Si l'on ne connait pas ce résultat, on peut remarquer que l'on connait deux catégories particulières de matrices : les matrices symétriques définies par
tM = M et les matrices antisymétriques définies par
tM = - M. Ces deux catégories nous fournissent déjà deux valeurs propres : 1 et -1.
Le sev propre associé à la valeur propre 1 est donc le sev S
n(K) des matrices symétriques. Le nombre de variables indépendantes d'une matrice symétrique étant
}{2})
on a donc dim(S
n(K)) =
Le sev propre associé à la valeur propre -1 est donc le sev A
n(K) des matrices antisymétriques. Le nombre de variables indépendantes d'une matrice antisymétrique étant
}{2})
on a donc dim(A
n(K)) =
Or, il est simple de voir que S
n(K)

A
n(K) = {O} et que dim(S
n(K)) + dim(A
n(K)) = n² = dim(M
n(K)). On en déduit que les seules valeurs propres sont -1 et 1, et que M
n(K) est somme directe des deux sev propres associés. Donc T est diagonalisable. Il existe une base B de vecteurs propres de M
n(K) dans laquelle T se représente matriciellement par :
Puisque le déterminant et la trace sont indépendants de la base, nous avons :
Remarque :
Si K est de caractéristique 2, alors - 1 = 1 et X², - 1 n'est plus à racines simples. Mais dans ce cas, si M est antisymétrique, T(M) = - M = M (car - 0 = 0 et - 1 = 1). Donc T = Id(M
n(K)) et det(T) = 1 et tr(T) = n².
IV - 6. Des grands classiques
IV - 6 - 1. Exercice 6 - 1. L'équation < x , f > = β
E un K-ev non réduit à {0E}, f une forme linéaire sur E et β un élément de K. On suppose f et β donnés.
Résoudre dans E l'équation < x , f > = β.
Correction de l'exercice 6 - 1.
Si f = O*, et si β = 0, l'ensemble S des solutions est S = E.
Si f = O*, et si β

0, alors, S =

.
Si f

O*, alors f est surjective (théorème III - 1). Donc, l'équation possède au moins une solution : il existe a

E tel que < a , f > = β. Alors, pour toute solution x, < x , f > = < a , f >

< x-a , f > = 0. Ceci montre que x-a est un élément de l'hyperplan H = Ker(f). Donc : x solution

x-a = h, h

H. Donc : S = {a + h, h

H} = a + H.
IV - 6 - 2. Exercice 6 - 2. Indépendance de formes linéaires
Soient p un entier > 0 et p formes linéaires f
1 , ... , f
p d'un K-ev E de dimension finie n

p. On considère les deux propriétés :
(1) (f
1 , ... , f
p) est libre,
(2)

(β
1 , ... , β
p)

K
p,

x

E,

i, 1

i

p, < x , f
i > = β
i.
Montrer que (1)

(2).
Correction de l'exercice 6 - 2.
(1)

(2). (f
1 , ... , f
p) étant libre, on peut éventuellement (si p < n) compléter pour former une base de E*. On prend alors sa préduale (e
1 , ... , e
n) dans E. Soit (β
1 , ... , β
p) un élément de K
p. Considérons le vecteur de E défini par x = β
1.e
1 + ... + β
p.e
p. Alors, on a bien,

i, 1

i

p, < x , f
i > = β
i.
(2)

(1). Considérons l'application u : E

K
p définie par u(x) = (f
1(x) , ... , f
p(x)). On vérifie facilement que u est linéaire. L'hypothèse (2) signifie que u est surjective. Si l'on écrit dans une base de E le système correspondant à l'équation linéaire u(x) = b où b = (β
1 , ... , β
p), cela donnera un système de p équations à n inconnues :
u étant surjective, son rang est p, donc le rang du système est p. Ceci montre que les p formes linéaires f
1 , ... , f
p sont indépendantes.
IV - 6 - 3. Exercice 6 - 3. Hyperplans de Mn(K)
On rappelle (voir II - 2) que l'application trace est une forme linéaire sur le K-ev M
n(K) des matrices carrées d'ordre n à coefficients dans K. De plus, cette forme vérifie :

(M,P)

(M
n(K))², tr(M.P) = tr(P.M). Enfin, toute forme linéaire f sur M
n(K) est du type f : M

tr(A.M), où A est une matrice définie de manière unique par la donnée de f.
1. Soit

un hyperplan de M
n(K). Montrer qu'il existe A

M
n(K), non nulle, telle que M


tr(A.M) = 0.
2. On suppose que le rang de A est r ( 0 < r

n). On rappelle que A est équivalente à la matrice canonique de rang r, c'est-à-dire : il existe P et Q dans GL
n(K) telles que :
a) Soient B
r = (e
1 , ... , e
r ) la base canonique de K
r, u l'automorphisme de K
r défini par : pour tout i entre 1 et r-1, u(e
i) = e
i+1 et u(e
r) = e
1. Ecrire U = Mat(u , B
r ) et calculer tr(u).
b) On pose

. Calculer J
r.M, puis tr(J
r.M)
3. Montrer que tout hyperplan de M
n(K) contient une matrice inversible.
Correction de l'exercice 6 - 3.
1. 
étant un hyperplan de M
n(K), il existe une forme linéaire non nulle f sur M
n(K) telle que

= Ker(f). D'après le rappel, il est équivalent de dire qu'il existe une matrice non nulle A de M
n(K) telle que, pout toute matrice M, f(M) = tr(A.M). Donc : il existe A non nulle dans M
n(K) telle que M


tr(A.M) = 0.
2. a) On a facilement U =

. Remarquons que U est inversible (l'image de la base est cette base). D'autre part : tr(U) = 0.
2. b) Le produit par blocs donne : J
r.M =

. Enfin, tr(J
r.M) = tr(U) = 0.
3. Soit

un hyperplan de M
n(K). On a donc M


tr(A.M) = 0.
Or, tr(J
r.M) = tr((PAQ).M)) = tr(P.(AQM)) = tr((AQM).P) = tr(A.(QMP)).
Comme tr(J
r.M) = 0, on a tr(A.(QMP)) = 0. Donc, QMP appartient à

et par construction, QMP est inversible.
IV - 6 - 4. Exercice 6 - 4. L'équation X + tr(X).A = B
Pour n > 1, on désigne par

le K-ev des matrices carrées d'ordre n à coefficients dans K. On donne deux éléments A et B de

, A

O. On se propose de résoudre dans

, l'équation (E) : M + tr(M).A = B, d'inconnue M, tr(M) désignant la trace de la matrice M.
Voici une solution personnelle qui n'est vraiment pas la plus courte, mais elle a le mérite d'utiliser de nombreux résultats d'algèbre linéaire. On trouvera dans un topic de l'île une correction particulièrement astucieuse proposée par
" blang " :
autre solution dans ce topic
A - Etude d'un endomorphisme de

1. Montrer que u : M

M + tr(M).A est un endomorphisme de

. Notons e l'automorphisme identité de

.
2. Calculer (u - e)². Montrer que p(X) = (X - 1)(X - 1 - tr(A)) est le polynôme minimal de u.
3. Pour quelles valeurs de tr(A) l'équation (E) possède-t-elle une solution et une seule ?
B - Etude du cas tr(A) = -1
1. Montrer que u est alors un projecteur. Trouver Ker(u) et Im(u).
2. En déduire une condition nécessaire et suffisante portant sur B pour que (E) admette des solutions. Résoudre alors l'équation (E) lorsque tr(A) = -1.
C - On suppose tr(A) ? -1
Chercher la solution de (E).
Correction de l'exercice 6 - 4.
A - 1. u(a.M + b.N) = a.M + b.N + tr(a.M + b.N).A. En utilisant la linéarité de la forme linéaire trace, on trouve facilement : u(a.M + b.N) = a(M + tr(M).A) + b(N + tr(N).A) = a.u(M) + b.u(N).
Donc u est un endomorphisme de

.
A - 2. Pour toute matrice M, (u - e)(M) = M + tr(M).A - M = tr(M).A.
Donc, (u - e)²(M) = (u - e)tr(M).A = tr(M)(A + tr(A).A - A) = tr(M)tr(A).A = tr(A).(u - e)(M). Ceci étant vrai pour toute matrice M, on aura : (u - e)² = tr(A)(u - e).
D'où : (u - e)
°[
u - (1+tr(A)).e] = O ( de
})
).
Cela signifie que le polynôme p(X) = (X - 1)[X - 1 - tr(A)] est annulé par u.
a) u = e

M, tr(M).A = O. Or, si M = I
n, cela entraine A = O, contraire à l'hypothèse. Donc u

e.
b) u = (1+tr(A)).e

M, tr(M).A = tr(A).M.
Si M = E
ij avec i

j, cela donne tr(A) = 0 et il reste tr(M).A = O. Alors, si M = I
n cela donne A = O : impossible. Donc, u

(1+tr(A)).e.
Conclusion : p(X) = (X - 1)[X - 1 - tr(A)] est le polynôme minimal de u.
A - 3. Le spectre de u est donc formé par les valeurs propres λ = 1 ou λ = 1+tr(A). Remarquons que u sera inversible ssi 0 n'est pas valeur propre. Donc, tant que tr(A)

-1, u est un automorphisme de

et l'équation (E) qui s'écrit u(M) = B aura une solution et une seule : M = u
-1(B).
B - 1. Etudions donc le seul cas où l'équation n'est pas régulière : tr(A) = -1. Dans ce cas,

M

:
u²(M) = u(M + tr(M).A) = M + tr(M).A + tr(M + tr(M).A).A = M + tr(M).A + tr(M).A - tr(M).A = u(M).
On en déduit que u² = u. Si tr(A) = - 1, u est un projecteur.
M

Im(u)

u(M) = M

tr(M).A = O

tr(M) = 0 (puisque A est supposée non nulle). On a donc un résultat très intéressant : Im(u) est l'ensemble des matrices M telles que tr(M) = 0. Ce sera le noyau de la forme linéaire non nulle "trace", donc l' hyperplan

= Ker(tr). Le noyau de u sera un supplémentaire de

(propriété des projecteurs), donc une droite vectorielle. Or, u(A) = O, donc, Ker(u) = K.A (la droite vectorielle engendrée par A).
Conclusion : si tr(A) = -1, u est un projecteur de

, avec Im(u) =

= Ker(tr) et Ker(u) = K.A.
B - 2. On sait que l'équation u(M) = B aura des solutions ssi B appartient à Im(u). Donc, dans le cas où tr(A) = -1, l'équation aura des solutions ssi tr(B) = 0. Donc :
a) Si tr(B)

0, l'ensemble des solutions de (E) est : S(E) =
b) Si tr(B) = 0. Il y aura des solutions et nous savons qu'elles seront du type : M = M
0 + N, où M
0 est une solution particulière de (E) et N une solution quelconque de l'équation homogène associée : u(M) = O. Or, ici, nous connaissons déjà les solutions de u(M) = O : ce sont les éléments de Ker(u), donc les matrices du type k.A, k

K. Il reste à trouver une solution particulière de u(M) = B. Comme u(B) = B, nous avons la réponse.
Si tr(B) = 0, S(E) = {B + k.A, k

K}
C. On suppose tr(A)

-1. Donc, u est inversible et la solution de (E) est alors unique. Cherchons une telle solution.
D'abord, si M est la solution, M + tr(M).A = B

tr(M) + tr(M).tr(A) = tr(B)

tr(M) =

K.
D'autre part, M + tr(M).A = B

M = B - tr(M).A, donc M est forcément du type : M = k.A + B, k

K. Reportons dans (E).
u(M) = B

u(k.A + B) = k.A + B + (k.tr(A) + tr(B)).A = B
.A = O. Comme a est non nulle, cela entraine k = -
. Donc, M = B -
.A
Vérifions : u(M) = B -
.A + tr(B).A - B -
tr(A).A = B +
\frac{tr(B)}{1+tr(A)}[/tex](1+tr(A))].A = B.
Résumé :
tr(A) = - 1 et tr(B)
0 : S(E) =
tr(A) = - 1 et tr(B) = 0 : S(E) = {B + k.A, k
K}
tr(A)
- 1. S(E) = {B -
.A}
IV - 7. Liens entre u et tu
IV - 7 - 1. Exercice 7 - 1. Stabilité
Soient E un K-ev, E* son espace dual, u un élément de

(E).
1. Montrer que si F un sev de E u-stable, alors le sev F° de E* est
tu-stable.
2. Montrer que si G un sev de E*
tu-stable, alors le sev °G de E est u-stable.
Correction de l'exercice 7 - 1.
1. Sachant que : x
F
u(x)
F, il faut prouver que y*
F°
tu(y*)
F°.
Soit y*
F°.
x
F, < x , tu(y*) > = < u(x) , y* >. Or, comme x
F
u(x)
F, on a < u(x) , y* > = 0. Ainsi, pour tout x dans F, < x , tu(y*) > = 0. Ceci prouve bien que tu(y*) appartient à F°.
Conclusion : F est un sev u-stable de E
F° est un sev tu-stable de E*.
2. Sachant que y*
G
tu(y*)
G, il faut prouver que x
°G
u(x)
°G.
Soit x
°G.
y*
G, < x , tu(y*) > = < u(x) , y* >. Or, comme y*
G
tu(y*)
G, on a < x , tu(y*) > = 0. Ainsi,
y*
G, < u(x) , y* > = 0. Ceci prouve bien que u(x) appartient à °G.
Conclusion : G est un sev tu-stable de E*
°G est un sev u-stable de E.
IV - 7 - 2. Exercice 7 - 2. Eléments propres
1. Soient E un K-ev de dimension finie n > 0, u un élément de

(E). On appelle P le polynôme caractéristique de u et Q le polynôme caractéristique de
tu. Montrer que P = Q. Que dire de leurs polynômes minimaux p et

?
2. Montrer que si λ est une valeur propre de u (donc de
tu), alors les sev propres associés : E(λ) pour u et E*(λ) pour
tu ont même dimension.
3. Soient λ une valeur propre de u (donc de
tu), φ

E* un vecteur propre associée à λ pour
tu (on parle plutôt de forme propre). Montrer que Ker(φ) est un hyperplan u-stable de E. Réciproque : montrer que tout hyperplan u-stable de E est le noyau d'une forme linéaire propre pour
tu.
4. Application. On considère l'endomorphisme u de R
3 dont la matrice dans la base canonique de R
3 est donnée par :

. Trouver les hyperplans de R
3 u-stables.
Correction de l'exercice 7 - 2.
1. Appelons e l'endomorphisme identité de E et e* l'endomorphisme identité de E*. (te = e*). Par définition du polynôme caractéristique de tu, Q(X) = det(Xe* - tu) = det(Xte - tu) = dett(Xe - u) = det(Xe - u) = P(X).
Donc, P(X) = Q(X). Ceci signifie que u et tu ont les mêmes valeurs propres avec la même multiplicité.
Par hypothèse π est le polynôme de plus bas degré et normalisé tel que π(u) = O (
(E)). Nous pouvons écrire ce polynôme sous la forme Xd + ad-1Xd-1 + ... + a1X + a0. Donc : ud + ad-1ud-1 + ... + a1u + a0e = O.
Transposons ce résultat, en remarquant que la transposition est linéaire, que te = e*, que tO (
(E)) = O* (
(E*)) et que, pour tout entier k > 0, t( uk ) = ( tu )k. Cela donne : ( tu )d + ad-1( tu )d-1 + ... + a1tu + a0e* = O* (
(E*)).
Ceci montre que π est un polynôme annulateur de tu. Donc
est un diviseur de π. Mais comme E est de dimension finie, on peut identifier E avec E** et u avec t( tu ). On en déduit que π est un diviseur de
. Comme π et
sont normalisés, on peut en conclure que π =
. Donc u et tu ont même polynôme caractéristique et même polynôme minimal.
2. E*(λ) = Ker(tu - λ.e*) = Ker( t(u - λ.e)) = [ Im(u - λ.e) ]° (théorème III - 16). Donc :
dim[ E*(&lamda;) ] = dim{[ Im(u - λ.e) ]°} = codim{ Im(u - λ.e) } = dim[ Ker(u - λ.e) ] = dim[ E(λ) ].
E(λ) et E*(λ) ont même dimension. Par contre, E*(λ) est un sev de E* et E(λ) est un sev de E.
3. Soient λ une valeur propre de u (donc de tu), φ une forme propre associée à λ. Cela signifie que φ est une forme linéaire non nulle de E* (donc Ker(φ) est un hyperplan de E) et que tu(φ) = &lmabda;.φ (vecteur propre pour tu). Alors :
x
Ker(φ)
< x , φ > = 0
?< x , φ > = 0
< x , λ.φ > = 0
< x , tu(φ) > = 0
< u(x) , φ > = 0.
Cette dernière ligne entraine que : x
Ker(φ)
u(x)
Ker(φ). Donc, Ker(φ) est u-stable.
Réciproque. Soit H un hyperplan de E u-stable. Il existe une forme linéaire non nulle f telle que Ker(f) = H. D'après l'exercice 7 - 1, H u-stable
H° tu-stable. Or, H° = K.f (théorème III - 6). Dire que la droite vectorielle K.f est tu-stable entraine que tu(f) est dans cette droite vectorielle, donc, il existe
K tel que tu(f) =
.f. Comme f est non nulle cela signifie bien que f est une forme linéaire propre pour tu.
Méthode directe. Si l'on ne veut pas utiliser l'exercice 7 - 1, on peut procéder de la manière suivante. Soit H un hyperplan u-stable. H est le noyau d'une forme linéaire non nulle f : H = Ker(f). Puisque H est u-stable, nous aurons :
x
Ker(f)
< u(x) , f > = 0
< x , tu(f) > = 0
H
Ker( tu(f) ). La propriété de maximalité des hyperplans entraine que Ker( tu(f) ) = H ou Ker( tu(f) ) = E. Dans le premier cas, tu(f) = λ.f, λ scalaire non nul (théorème III - 4 b)). Dans le second cas, tu(f) = O* = 0.f. Donc, dans les deux cas, f est une forme propre de tu.
Bilan :
Dans un K-ev E de dimension finie n > 0, un endomorphisme u (de E) a même polynôme caractéristique et même polynôme minimal que l'endomorphisme transposé tu (de E*). Ces deux endomorphismes ont donc mêmes valeurs propres. Leurs sev propres ont mêmes dimensions. Enfin : Les hyperplans u-stables de E sont exactement les noyaux des formes linéaires propres pour tu.
4. On cherche le polynôme caractéristique de u (ou de tu) : P(X) = (X+1)²(X-3). Ensuite, on cherche les sev-propres pour tu, associés aux valeurs propres -1 et 3. Pour cela, on résout les deux systèmes :
a) : tB.X = -X, ce qui donne E*(-1) = vec((0,1,0)),
b) : tB.X = 3.X, ce qui donne E*(3) = vec((4,3,8)).
Il existe donc deux hyperplans dans E, u-stables. Ils ont pour équations (H) : y = 0 et (H') : 4x + 3y + 8z = 0.
