Fiche de mathématiques
> >

CAPES externe de mathématiques
Deuxième composition
Session 2007

Partager :

Introduction

Dans tout le problème, n désigne un entier naturel non nul. On munit \mathbb{R}^n du produit scalaire usuel :
\forall x = (x_1 \, , \, ... \, , \, x_n) \in \mathbb{R}^n \, , \hspace{15pt} \forall y = (y_1 \, , \, ... \, , \, y_n) \in \mathbb{R}^n \, , \hspace{15pt} <x \, , \, y> = \displaystyle \sum_{i=1}^n x_i y_i
et on définit la norme d'un vecteur x = (x_1 \, , \, ... \, , \, x_n) \in \mathbb{R}^n par
||x|| = \sqrt{\displaystyle \sum_{i=1}^n x_i^2}
Soit a un vecteur de \mathbb{R}^n non nul, on note sa la symétrie orthogonale de \mathbb{R}^n dans \mathbb{R}^n définie par
\forall x \in \mathbb{R}^n \, ,  \hspace{20pt} s_a(x) = x - 2 \frac{<a \, , \, x>}{<a \, , \, a> }a
On dit qu'une partie R de \mathbb{R}^n est un système de racines dans \mathbb{R}^n si elle vérifie les conditions suivantes :
    la partie R est finie, ne contient pas 0 et engendre le \mathbb{R}-espace vectoriel \mathbb{R}^n ;
    pour tout \alpha \in R\, , \, s_{\alpha}(R) = R (en particulier -\alpha \in \mathbb{R}) ;
    pour tous \alpha \, , \, \beta \in R \, , \, n_{\alpha \, , \, \beta} = 2\frac{<\alpha \, , \, \beta>}{<\alpha \, , \, \alpha>} \in \mathbb{Z} ;
    pour tout \alpha \in R, les seuls éléments de R proportionnels à \alpha sont \alpha et -\alpha.
Les coefficients n_{\alpha \, , \, \beta} \: (\alpha \, , \, \beta \in R) sont appelés les coefficients de structure du sytème de racines R.
On dit que deux systèmes de racines R et R' sont des systèmes de racines isomorphes s'il existe un isomorphisme d'espaces vectoriels \varphi \: : \: \mathbb{R}^n \rightarrow \mathbb{R}^n vérifiant
\varphi(R) = R' \hspace{15pt} \text{ et } \hspace{15pt} \forall \alpha \, , \, \beta \in R \, , \hspace{15pt} n_{\varphi(\alpha),\varphi(\beta) = n_{\alpha, \beta}


Dans la partie I, on étudie les systèmes de racines du plan. Cette partie permet de se familiariser avec cette notion et d'avoir des exemples sur les quels s'appuyer pour la suite du problème. Puis dans la partie II, on étudie des relations d'ordre total compatibles avec la structure d'espace vectoriel de \mathbb{R}^n. Cette partie est indépendante de la partie I. Ces relations d'ordre permettront, dans la partie III, d'extraire d'un système de racines une base de \mathbb{R}^n. Même si le fait d'avoir traité la partir I permet de mieux aborder celle-ci, le seul résultat utile est rappelé en début de la partie III et pourra être admis. Seule la dernière question dépend de la partie I. La partie IV est consacrée à l'étude d'un groupe engendré par les symétries associées à un système de racines. On montrera que les symétries associées à une base suffisent à engendrer le groupe. Pour cela, on utilisera des résultats établis dans la partie III. Ensuite, dans la partie V, on étudiera les groupes diédraux et on montrera qu'ils sont engendrés par deux éléments d'ordre 2. Cette partie est indépendante de ce qui précède (sauf pour traiter la dernière question). Dans la partie VI, on associe à un système de racines un ensemble de parties connexes de \mathbb{R}^n sur lequel agit le groupe défini dans la partie IV. On montre ensuite, par des arguments de dualité et de topologie, que toutes les bases extraites du système de racines sont en bijection avec ces connexes. Cette partie se finit en montrant que le groupe agit simplment transitivement sur l'ensemble de ces connexes et sur l'ensemble des bases du système de racines.

Partie I. Systèmes de racines dans \mathbb{R}^2

Dans cette partie, on supposera n = 2. Soit R un système de racines de \mathbb{R}^2. Pour \alpha \, , \, \beta \in R, on note \theta_{\alpha , \beta} l'angle géométrique entre \alpha et \beta, i.e. le nombre réel compris entre 0 et \pi défini par
\cos\left(\theta_{\alpha \, , \beta}\right) = \frac{<\alpha \, , \, \beta>}{||\alpha|| \: ||\beta||}


1. Soit \alpha \, , \, \beta \in R.
   a) Montrer que n_{\alpha  , \beta} \: n_{\beta , \alpha} = 4 \cos^2 \left(\theta_{\alpha , \beta}).
   b) En déduire les valeurs possibles de \theta_{\alpha , \beta}.
   c) Montrer que le couple \left(n_{\alpha , \beta} \, , \, n_{\beta , \alpha}\right) ne peut pas prendre les valeurs (1 , 4), (4 , 1), (-1 , -4) et (-4 , -1).
   d) Pour \theta_{\alpha , \beta} \neq \frac{\pi}{2}, montrer que \frac{||\alpha||^2}{||\beta||^2} = \frac{n_{\beta, \alpha}}{n_{\alpha , \beta}} et déduire les valeurs possibles du rapport \frac{||\alpha||}{||\beta||}.
   e) En supposant ||\alpha|| \leq ||\beta||, présenter sous forme d'un tableau, les différentes valeurs de n_{\alpha , \beta} \, , \, n_{\beta , \alpha} \, , \, \theta_{\alpha, \beta} \text{ et } \frac{||\beta||}{||\alpha||}.

2. Dessiner les figures correspondant à quatre systèmes de racines dans \mathbb{R}^2 non deux à deux isomorphes (dans chacun des cas, l'une des racines devra être (1 , 0)). On les ordonnera dans l'ordre croissant du nombre de racines et on les appellera A1 × A1, A2, B2 et G2 (ayant respectivement 4, 6, 8 et 12 racines).

3. Soit \alpha une racine de R de norme minimale. Supposons qu'il existe une racine \beta de R non proportionnelle et non orthogonale à \alpha. Quitte à transformer R par une rotation, une homothétie ou une symétrie orthogonale d'axe \mathbb{R} \times \lbrace 0\rbrace (qui laissent invariants les coefficients de structure du système de racines), on peut supposer \alpha = (1 \, , \, 0) et \beta de deuxième coordonnée strictement positive.
   a) Montrer que n_{\alpha \, , \beta} \neq 0. En posant \gamma = s_{\alpha}(\beta) montrer que n_{\alpha, \gamma} = -n_{\alpha, \beta}.
Quitte à remplacer \beta par s_{\alpha}(\beta), on supposera n_{\alpha, \beta} < 0 et d'après le tableau des valeurs de \theta_{\alpha, \beta trois cas peuvent se présenter.
   b) cas 1 : Supposons que ||\beta|| = \sqrt{2}||\alpha|| et \theta_{\alpha, \beta = 3\frac{\pi}{4}. Calculer s_{\alpha}(\beta) et s_{\beta}(\alpha) et représenter graphiquement les quatre racines \alpha \, , \, \beta \, , \, s_{\alpha}(\beta) \text{ et } s_{\beta}(\alpha). En déduire que B_2 \subset R. En supposant qu'il existe \gamma \in R \backslash B_2, montrer qu'alors l'angle entre \gamma et une racine de B2 est inférieur à \frac{\pi}{8}. En conclure que R = B2.
   c) cas 2 : Supposons que ||\beta|| = \sqrt{3}||\alpha|| \text{ et } \theta_{\alpha, \beta} = \frac{5\pi}{6}. Calculer
s_{\alpha}(\beta) \, , \hspace{15pt} s_{\beta}(\alpha) \, , \hspace{15pt} s_{\beta} \circ s_{\alpha}(\beta) \hspace{15pt} \text{ et }  \hspace{15pt} s_{\alpha} \circ s_{\beta}(\alpha)
et les représenter graphiquement ainsi que \alpha et \beta. En déduire que G_2 \subset R. En raisonnant par l'absurde, montrer que R = G2.
   d) cas 3 : Supposons que ||\beta|| = ||\alpha|| et \theta_{\alpha , \beta} = \frac{2\pi}{3}. Calculer s_{\alpha}(\beta) et en déduire que A_2 \subset R. Supposons que R \neq A_2, soit \gamma \in R \backslash A_2. Montrer que l'angle entre \gamma et deux vecteurs adjacents de A2 est égal à \frac{\pi}{6}. Quitte à réindexer les éléments de A2, montrer qu'on peut supposer \theta_{\alpha , \gamma = \frac{5 \pi}{6}. En déduire que R = G2.

4. En conclure qu'à isomorphisme près, il n'y a que quatre systèmes de racines dans \mathbb{R}^2.

Partie II. Relations d'ordre dans \mathbb{R}^n

Une relation d'ordre \preceq sur \mathbb{R}^n est dite compatible avec la structure d'espace vectoriel de \mathbb{R}^n si elle vérifie les deux conditions suivantes :
      \forall x \, , \, y \, , \, z \, \in \mathbb{R}^n\, , \hspace{15pt} x \preceq y \Longrightarrow x + z \preceq y + z ;
      \forall x \, , \, y \in \mathbb{R}^n \, ,  \hspace{15pt} \forall \lambda \in \mathbb{R}^+ \, , \hspace{15pt} x \preceq y \Longrightarrow \lambda x \preceq \lambda y.
La relation d'ordre strict associée est notée \prec.

1. Soit \preceq une relation d'ordre total sur \mathbb{R}^n compatible avec la structure d'espace vectoriel.
   a) Montrer que
\forall x \, , \, y \in \mathbb{R}^n \, ,  \hspace{15pt} \forall \lambda \in \mathbb{R}^- \, , \hspace{15pt} x \preceq y \Longrightarrow \lambda y \preceq \lambda x

   b) Soit \varphi \in \text{GL}(\mathbb{R}^n) (le groupe linéaire de \mathbb{R}^n). On définit une relation par : pour x \, , \, y \in \mathbb{R}^n, on a x \preceq' y \text{ si } \varphi(x) \preceq \varphi(y). Montrer que \preceq' est une relation d'ordre total sur \mathbb{R}^n compatible avec la structure d'espace vectoriel.

2. On définit une relation \preceq sur \mathbb{R}^n par : pour x = (x_1 \, , \, ... \, , \, x_n) \in \mathbb{R}^n et y = (y_1 \, , \, ... \, , \, y_n) \in \mathbb{R}^n, on a x \preceq y si
x = y \text{ ou } \left[x \neq y \text{ et } x_k < y_k \text{ avec } k = \text{min}\lbrace i \in \lbrace 1 \, , \, ... \, , \, n\rbrace  \, , \, x_i \neq y_i\rbrace \right]

   a) En munissant le plan P d'un repère (O \, , \, \overrightarrow{u} \, , \, \overrightarrow{v}), représenter graphiquement la partie
\lbrace M(x \, , \, y) \in P \, ; \, (0 , 0) \preceq (x , y) \rbrace
en la hachurant d'une couleur particulière.
   b) Montrer que la relation \preceq est une relation d'ordre total sur \mathbb{R}^n compatible avec la structure d'espace vectoriel. Cet ordre est appelé l'ordre lexicographique.

Partie III. Base d'un système de racines

On supposera n quelconque. Soit R un système de racines de \mathbb{R}^n. Les résultats obtenus en I.1.e restent vrais, même si la dimension n'est plus 2. En particulier, pour deux racines \alpha \, , \, \beta \in R distinctes, si n_{\alpha , \beta} > 0, l'un des deux coefficients n_{\alpha, \beta} \text{ ou } n_{\beta , \alpha} est égal à 1.
On appelle base du système de racines R une partie B de R telle que
      la famille B est une base de l'espace vectoriel \mathbb{R}^n,
      tout élément de R est combinaison linéaire d'éléments de B, à coefficients entiers, soit tous positifs ou nuls, soit tous négatifs ou nuls.
L'objet de cette partie est de mettre en évidence de telles bases.

1. On munit \mathbb{R}^n d'une relation d'ordre total \preceq compatible avec la structure d'espace vectoriel. On note alors R+ l'ensemble des racines positives et R- l'ensembledes racines négatives, c'est à dire :
R^+ = \lbrace \alpha \in R \, , \, 0 \prec \alpha\rbrace  \hspace{15pt} \text{ et } \hspace{15pt}  R^{-} = \lbrace \alpha \in R \, , \, \alpha \prec 0\rbrace

On appelle racine simple une racine positive qui n'est pas somme de deux racines positives et on note B l'ensemble des racines simples.
   a) Montrer que tout élément de R+ est soit dans B, soit somme de deux racines positives strictement plus petites.
   b) Montrer que tout élément de R+ est combinaison linéaire d'éléments de B à coefficients entiers positifs ou nuls. (Indication : On pourra ordonner les éléments de R+ et faire une démonstration par récurrence ou raisonner par l'absurde).

2. Soit deux racines disctintes \alpha \, , \, \beta \in R.
   a) Montrer que si n_{\alpha, \beta} > 0, alors \alpha - \beta \in R.
   b) Supposons que \alpha, \beta \in B. Montrer que \alpha - \beta \not \in R \text{ et } n_{\alpha, \beta} \leq 0.

3. Soient \alpha_1 \, , \, ... \, , \, \alpha_{r} \, , \, \alpha_{r+1} \, , \, ... \, , \, \alpha_{s} \in B des racines simples deux à deux distinctes et soient \lambda_1 \, , \, ... \, , \, \lambda_{r} \, , \, \lambda_{r+1} \, , \, ... \, , \ \lambda_{s} des réels positifs tels que
\lambda_1 \alpha_1 + ... + \lambda_{r} \alpha_{r} = \lambda_{r+1} \alpha_{r+1} + ... + \lambda_{s} \alpha_{s}
Montrer que les réels \lambda_1 \, , \, ... \, , \, \lambda_{r} \, , \, \lambda_{r+1} \, , \, \lambda_{s} sont tous nuls. (Indication : On pourra poser v = \lambda_1 \alpha_1 + ... + \lambda_r \alpha_r et montrer que <v \, , \, v> \leq 0.)

4. Montrer que B est une base de l'espace vectoriel \mathbb{R}^n. (On dit que B est une base du système de racines R, associée à l'ordre sur \mathbb{R}^n).

5. En munissant \mathbb{R}^2 de l'ordre lexicographique, pour chacun des quatre systèmes de racines, dessiner d'une couleur particulière les vecteurs de la base associée.

Partie IV. Groupe de Weyl d'un système de racines

Soit R un système de racines de \mathbb{R}^n, \preceq une relation d'ordre total sur \mathbb{R}^n compatible avec la structure d'espace vectoriel, R+ l'ensemble des racines positives et B la base de R associée à la relation d'ordre. On appaelle groupe de Weyl de R, noté W, le sous-groupe des automorphismes de l'espace vectoriel \mathbb{R}^n, engendré par les symétries s_{\alpha} \hspace{15pt} (\alpha \in R).

1. Soit a \in \mathbb{R}^n et soit \varphi \in \text{O}(\mathbb{R})^n (le groupe orthogonal de \mathbb{R}^n). Etablir que
s_{\varphi(\alpha)} = \varphi \circ s_a \circ \varphi^{-1}


2. Montrer que le groupe de Weyl W est un groupe fini.

3. a) Soit \alpha \in R^{+}\backslash B. Montrer qu'il existe \beta \in B tel que <\beta \, , \, \alpha> > 0 (Ind : on pourra utiliser III.1.b et développer <\alpha \, , \, \alpha>). En déduire que n_{\beta , \alpha} > 0 et que \alpha - \beta \in R^{+}.
   b) Soit \alpha \in R^{+} \text{ et } \beta \in B tels que \alpha \neq \beta. Montrer que s_{\beta}(\alpha) \in R^+.

4. On note WB le sous-groupe de W engendré par les applications (s_{\alpha})_{\alpha \in B} et on pose
S = \lbrace w(\alpha) \, ; \, w \in W_B \text{ et } \alpha \in B\rbrace

   a) Moontrer que R^{+} \subset S. (Ind : On pourra raisonner par l'absurde).
   b) En déduire que R = S. (Ind : On poura remarquer que s_{\alpha}(\alpha) = - \alpha pour \alpha \in B).
   c) Conclure que W = WB.

Partie V. Groupes diédraux

1. Soit E un plan affine euclidien orienté. Soit p \in \mathbb{N}, \, p \geq 2. On appelle groupe diédral d'ordre 2p, noté D2p, le groupe des isométries laissant invariant un polygone régulier
P_p = \lbrace M_0 \, , \, ... \, , \, M_{p-1}\rbrace
à p sommets, parcourus dans le sens direct. On posera Mp = M0.
   a) Montrer que le sous-groupe Cp de D2p constitué des isométries directes, est un groupe cyclique d'ordre p engendré par la roration \rho de centre O et d'angle \frac{2\pi}{p}O est le centre du polygone P_p.
   b) Préciser une symétrie orthogonale \sigma laissant le polygone P_p invariant.
   c) Montrer que
D_{2p} = \lbrace \rho^{i} \circ \sigma^{j} \, ; \, i \in \lbrace 0 \, , \, ... \, , \, p-1\rbrace  \text{ et } j \in \lbrace 0 , 1\rbrace \rbrace
et en déduire que D2p est un groupe d'ordre 2p.
   d) Soit k \in \lbrace 0 \, , \, ... \, , \, p-1\rbrace . Montrer que \sigma \circ \rho^k \circ \sigma = \rho^{p-k}.

2. Soit G un groupe fini engendré par deux éléments distincts s et s' d'ordre 2. On pose r = ss' et on note p l'ordre de r. On note e l'élément neutre de G.
   a) Montrer que G est engendré par r et s.
   b) Etablir que sr = r-1s, puis que srk = rp-ks pour tout k \in \mathbb{N}. En déduire que
G = \lbrace r^is^j \, ; \, i \in \lbrace 0 \, , \, ... \, , \, p-1\rbrace  \text{ et } j \in \lbrace 0 \, , \, 1\rbrace \rbrace .

   c) Montrer que pour tout k \in \mathbb{N} \, , \, s \neq r^k (on pourra raisonner par l'absurde et montrer que G serait commutatif, puis que G = {e , r}). En déduire que G est d'ordre 2p.
   d) Montrer que G est isomorphe à D2p.
   e) Déterminer les groupes de Weyl associés aux systèmes de racines de \mathbb{R}^2.

Partie VI. Chambres de Weyl

Soit R un système de racines de \mathbb{R}^n et W le groupe de Weyl associé. Pour tout \alpha \in R, on note P_{\alpha} l'hyperplan orthogonal à \alpha.

1. Montrer que \Omega := \mathbb{R}^n \backslash \displaystyle \cup_{\alpha \in R} P_{\alpha} est une partie ouverte de \mathbb{R}^n.

La partie \Omega est réunion finie disjointe de parties non vides ouvertes connexes de \mathbb{R}^n, ce sont les chambres de Weyl du système de racines R.

2. Soit C une partie connexe non vide de \mathbb{R}^n incluse dans \Omega. Montrer qu'il existe une chambre de Weyl de R contenant C.

3. Montrer que le groupe de Weyl W permute les hyperplans P_{\alpha} \: (\alpha \in R) ainsi que les chambres de Weyl.

4. Soient C1 et C2 deux chambres de Weyl de R et soit x_1 \in C_1 \text{ et } x_2 \in C_2.
   a) Justifier l'existence d'un élément w \in W tel que
||x_1 - w(x_2)|| = \text{inf}\lbrace ||x_1 - w'(x_2)|| \, ; \, w' \in W\rbrace

   b) On pose I = \lbrace tx_1 + (1 - t)w(x_2) \, ; \, t \in [0 \, , \, 1]\rbrace . Montrer que I \subset C_1. (Indication : On pourra supposer qu'il existe \alpha \in R tel que I \cap P_{\alpha} \neq \empty et montrer qu'il existe t_0 \in ]0 \, , \, 1[ tel que <t_0x_1 + (1 - t_0)w(x_2) \, , \, \alpha> = 0 et que ||x_1 - s_{\alpha} \circ w(x_2)||^2 < ||x_1 - w(x_2)||^2).
   c) En déduire w(C_2) = C_1. On dit que le groupe W opère transitivement sur les chambres de Weyl de R.

5. Soit B = (\beta_1 \, , \, ... \, , \, \beta_{n}) une base de R et soit \left(\beta'_1 \, , \, ... \, , \, \beta'_{n}\right) la base duale de B pour le produit scalaire de \mathbb{R}^n, c'est-à-dire, une famille de vecteurs de \mathbb{R}^n vérifiant
\forall i \, , \, j \in \lbrace 1 \, , \, ... \, , \, n\rbrace  \hspace{15pt} <\beta_i \, , \, \beta'_{j}> = \lbrace 1 \hspace{15pt} \text{ si } i = j \\ 0 \hspace{15pt} \text{ sinon}\.
On pose
C(B) = \lbrace x \in \mathbb{R}^n / <x \, , \, \beta_1> > 0 \, , \, ... \, , \, <x \, , \, \beta_n> > 0\rbrace  = \lbrace \displaystyle \sum_{i=1}^n x_i \beta'_i \, ; \, x_1 \, , \, ... \, , \, x_n \in \mathbb{R}^{+*}\rbrace
égalité que l'on ne demandera pas de démontrer.
   a) Montrer que C(B) \subset \Omega et qu'il existe une chambre de Weyl C telle que C(B) \subset C.
   b) Soit i \in \lbrace 1 \, , \, ... \, , \, n} fixé. On pose
C^+_i = \lbrace x \in C \, ; \, <x \, , \, \beta_i> \: > 0\rbrace  \hspace{25pt} \text{ et } \hspace{25pt} C^-_i = \lbrace x \in C \, ; \, <x \, , \beta_i> \:< 0\rbrace .
Montrer que C+i et C-i sont des parties ouvertes telles que C^+_i \cup C^-_i = C et C^+_i \cap C^-_i = \empty. En déduire que C = C+i.
   c) En déduire que C(B) = C. On dit que C(B) est la chambre de Weyl fondamentale relativement à B.

6. Pour chacun des quatre systèmes de racines de \mathbb{R}^2, hachurer d'une couleur particulière la chambre de Weyl fondamentale relativement à la base associée à l'ordre lexicographique de \mathbb{R}^2.

7. a) Monter que pour toute chambre de Weyl C de R, il existe une base B de R telle que C = C(B).
   b) Montrer que l'application qui à une base B de R associe la chambre C(B) est une bijection de l'ensemble des bases de R sur l'ensemble des chambres de R.

8. Soit B une base de R, R+ l'ensemble des racines positives et R- l'ensemble des racines négatives.
   a) Soient \beta_1 \, , \, ... \, , \, \beta_p \hspace{10pt} (p \in \mathbb{N}^*) des éléments non nécessairement distincts de B tels que
s_{\beta_1} \circ ... \circ s_{\beta_{p-1}}(\beta_p) \in R^-
Montrer qu'il existe q \in \lbrace 1 \, , \, ... \, , \, p-1\rbrace tel que
s_{\beta_1} \circ ... \circ s_{\beta_p} = s_{\beta_1} \circ ... \circ s_{\beta_{q-1}} \hspace{5pt} \circ s_{\beta_{q+1}} \hspace{5pt} \circ ... \circ s_{\beta_{p-1}}

   b) En déduire que si w \in W \text{ et } w \neq id, alors il existe \beta \in B tel que w(\beta) \in R^-.

9. a) Montrer que le groupe de Weyl W de R opère simplement transitivement sur l'ensemble des bases de R, c'est-à-dire que pour deux bases B et B' données de R, il existe un unique élément w \in W tel que w(B) = B'.
   b) En déduire que le groupe de Weyl W de R opère simplement transitivement sur l'ensemble des chambres de Weyl de R.





Partie I. Systèmes de racines dans \mathbb{R}^2

1. a) On a par, définition de n_{\alpha,\beta} :
n_{\alpha,\beta} \cdot n_{\beta,\alpha} = 2\frac{\langle \alpha \, , \, \beta \rangle}{\||\alpha\||^2}2\frac{\langle \beta \, , \, \alpha \rangle}{\left||\beta\right||^2}
n_{\alpha,\beta} \cdot n_{\beta,\alpha} = 4\frac{\langle \alpha \, , \, \beta \rangle^2}{\||\alpha\||^2 \||\beta\||^2} par symétrie du produit scalaire
n_{\alpha,\beta} \cdot n_{\beta,\alpha} = 4\frac{\||\alpha\|-^2\||\beta\||^2 \cos^2\left(\theta_{\alpha,\beta})}{\||\alpha\||^2\||\beta\||^2} par définition de \theta_{\alpha,\beta}
n_{\alpha,\beta} \cdot n_{\beta,\alpha} = 4\cos^2\left(\theta_{\alpha,\beta}\right)

1. b) Puisque n_{\alpha,\beta} \in \mathbb{Z}, on a nécessairement 4 \cos^2\left(\theta_{\alpha,\beta}\right) = k, soit \cos\left(\theta_{\alpha,\beta}\right) = \frac{\sqrt{k}}{2}, avec k \in \mathbb{N}.
D'autre part, comme 0 \leq \cos^2\left(\theta_{\alpha,\beta}\right) \leq 1, on a nécessairement 0 \leq k \leq 4.
Finalement \cos\left(\theta_{\alpha,\beta}\right) \in \lbrace 0 \, ; \, \frac{1}{2} \, ; \, \frac{\sqrt{2}}{2} \, ; \, \frac{\sqrt{3}}{2} \, ; \, 1 \rbrace d'où : \theta \in \lbrace 0 \, ; \, \frac{\pi}{6} \, ; \, \frac{\pi}{4} \, ; \, \frac{\pi}{3} \, ; \, \frac{\pi}{2}\rbrace

1. c) Supposons que n_{\alpha,\beta} = \varepsilon 1 et que n_{\beta,\alpha} = \varepsilon 4 avec \varepsilon \in \lbrace -1 \, ; \, 1\rbrace .
On a alors :
n_{\alpha,\beta} \cdot n_{\beta,\alpha} = 4 = 4\frac{\langle \alpha \, , \, \beta \rangle ^2}{\||\alpha\||^2\||\beta\||^2} \\ \Rightarrow \: \langle \alpha \, , \, \beta \rangle^2 = \||\alpha \||^2\||\beta\||^2
On est alors dans le cas d'égalité de l'inégalité de Cauchy-Schwarz, ce qui signifie que \left(\alpha \, , \, \beta) est liée. Du moment qu'aucun de ces deux vecteurs n'est nul (puisqu'ils appartiennent à R), ils sont proportionnels l'un à l'autre.
On a alors nécessairement \alpha = -\beta d'après la 4ième condition pour que R soit un système de racines. Et ceci est en contradiction avec l'hypothèse de départ.
Le couple \left(\alpha \, , \, \beta\right) ne peut donc prendre les valeurs (1 ; 4) et (-1 ; -4). On démontre de même, par symétrie des rôles de \alpha et \beta, qu'il ne peut prendre les valeurs (4 ; 1) et (-4 ; -1).

1. d) Comme n_{\alpha \, , \, \beta} = 2\cos\left(\theta_{\alpha,\beta}\right) \frac{\||\beta\||}{\||\alpha\||} on a n_{\alpha,\beta} non nul dès que \theta_{\alpha,\beta} est non nul, et le rapport \frac{n_{\beta,\alpha}}{n_{\alpha,\beta}} est défini.
On a alors :
\frac{n_{\beta,\alpha}}{n_{\alpha,\beta}} = \frac{2\langle \beta \, , \, \alpha \rangle}{\||\beta\||^2} \frac{\||\alpha\||^2}{2\langle \alpha \, , \, \beta \rangle} = \frac{\||\alpha \||^2}{\||\beta\||^2}.
On en déduit, pour toutes les valeurs de \theta_{\alpha,\beta}, les valeurs de n_{\alpha,\beta}n_{\beta,\alpha}, puis celles de n_{\alpha,\beta} et de n_{\beta,\alpha}, et enfin celles de \frac{\||\alpha\||}{\||\beta\||} :

\begin{array}{|c|c|c|c|c|} \hline  \theta_{\alpha,\beta} & n_{\alpha,\beta}n_{\beta,\alpha} = 4\cos^2\left(\theta_{\alpha,\beta}\right) & \|n_{\alpha,\beta}\| & \|n_{\beta,\alpha}\| & \||\alpha\|| / \||\beta\|| = \sqrt{n_{\beta,\alpha} / n_{\alpha,\beta}} \\  \hline  0 & 4 & 2 & 2 & 1 \\ \pi/6 & 3 & 1 & 3 & \sqrt{3} \\ \pi/6 & 3 & 3 & 1 & 1/\sqrt{3}\\ \pi/4 & 2 & 1 & 2 & \sqrt{2} \\ \pi/4 & 2 & 2 & 1 & 1/\sqrt{2}\\ \pi/3 & 1 & 1 & 1 & 1 \\ \hline \end{array}

Remarque : les valeurs de la question 1.c) ont été écartées.

1. e) On reprend le tableau précédent, en supposant que \||\alpha\|| \leq \||\beta\||, donc selon 1. d) que \|n_{\beta,\alpha}\| \leq \|n_{\alpha,\beta}\| :

\begin{array}{|c|c|c|c|} \hline \theta_{\alpha,\beta} & n_{\alpha,\beta} & n_{\beta,\alpha} & \||\beta\|| / \||\alpha\|| \\ \hline 0 & 2 & 2 & 1 \\ 0 & -2 & -2 & 1 \\ \pi/6 & 3 & 1 & \sqrt{3} \\ \pi/6 & -3 & -1 & \sqrt{3} \\ \pi/4 & 2 & 1 & \sqrt{2} \\ \pi/4 & -2 & -1 & \sqrt{2} \\ \pi/3 & 1 & 1 & 1 \\ \pi/3 & -1 & -1 & 1 \\ \pi/2 & 0 & 0 & \in \mathbb{R} \\ \hline \end{array}


2. Prenons \alpha = (1 \, , \,0) et \beta tel que \theta_{\alpha,\beta} \in \lbrace \frac{\pi}{6} \, ; \, \frac{\pi}{4} \, ; \, \frac{\pi}{3} \, ; \, \frac{\pi}{2}\rbrace .
Le couple \left(\alpha \, , \, \beta\right) étant libre, il engendre \mathbb{R}^2. Il reste à trouver le plus petit système de racines le contenant.
Pour celà, il suffit de tracer l'image de chaque vecteur par la symétrie de centre O, et par la symétrie orthogonale par rapport à la droite normale à un autre vecteur (d'après condition 2 pour que R soit un système de racines).
\boxed{\text{Si } \theta_{\alpha,\beta} = \frac{\pi}{6}} Alors \||\beta\|| = \sqrt{3}, soit \beta = \left(\frac{3}{2} \, , \, \frac{\sqrt{3}}{2}\right).
On trouve les autres vecteurs en appliquant les symétries décrites plus haut (faire un dessin), et on obtient ainsi le système de racines G_2 :
\begin{array}{|c|c|c|} \hline \text{vecteur} & \text{coord. cartesiennes} & \text{coord. polaires} \\ \hline \alpha   & (1 \, , \, 0) & (1 \, , \, 0) \\ -\alpha  & (-1 \, , \,0) & (-1 \, , \, 0) \\ s_\beta(\alpha)  & (-1/2,-\sqrt{3}/2)   &  (-1,\pi/3) \\ s_\beta(\alpha)  & (1/2,\sqrt{3}/2)  &  (1,\pi/3) \\ s_\alpha \circ s_\beta(\alpha)  &  (1/2,-\sqrt{3}/2)  &  (1,-\pi/3) \\ -s_\alpha \circ s_\beta(\alpha)  &  (-1/2,\sqrt{3}/2)  &  (-1,-\pi/3)\\ \hline \end{array}


\begin{array}{|c|c|c|}  \hline  \text{vecteur} & \text{coord. cartesiennes} & \text{coord. polaires} \\ \hline \beta   &   (3/2,\sqrt{3}/2)  &  (\sqrt{3},\pi/6) \\ -\beta  &  (-3/2,-\sqrt{3}/2)  &   (-\sqrt{3},\pi/6)\\ s_\alpha(\beta)  &  (-3/2,\sqrt{3}/2)  &  (-\sqrt{3},-\pi/6)\\ -s_\alpha(\beta)  &  (3/2,-\sqrt{3}/2)   &  (\sqrt{3},-\pi/6)\\ s_\beta \circ s_\alpha(\beta)  &  (0,-\sqrt{3})  &  (\sqrt{3},-\pi/2)\\ -s_\beta \circ s_\alpha(\beta)  &  (0,\sqrt{3}) &  (\sqrt{3},\pi/2)\\ \hline \end{array}

\boxed{\text{Si} \theta_{\alpha,\beta} = \frac{\pi}{4}} Alors \||\beta\|| = \sqrt{2}, soit \beta = (1 \, , \, 1).

On trouve les autres vecteurs en appliquant les symétries décrites plus haut (faire un dessin), et on obtient ainsi le système de racines B_2 :
\begin{array}{|c|c|c|} \hline  \text{vecteur} & \text{coord. cartesiennes} & \text{coord. polaires} \\ \hline \alpha & (1,0)  & (1,0)                 \\ -\alpha  & (-1,0)                       & (-1,0)               \\ s_\beta(\alpha)  & (0,-1)   &  (-1,\pi/2) \\ -s_\beta(\alpha)  & (0,1)  &  (1,\pi/2)  \\ \beta   &   (1,1)  &  (\sqrt{2},\pi/4) \\ -\beta  &  (-1,-1)  &   (-\sqrt{2},\pi/4)\\ s_\alpha(\beta)  &  (-1,1)  &  (-\sqrt{2},-\pi/4)\\ -s_\alpha(\beta)  &  (1,-1)   &  (\sqrt{2},-\pi/4)\\ \hline \end{array}

\boxed{\text{Si} \theta_{\alpha,\beta} = \frac{\pi}{3}} Alors \||\beta\|| = 1, soit \beta = \left(\sqrt{2} \, , \, \frac{\pi}{4}\right).
On trouve les autres vecteurs en appliquant les symétries décrites plus haut (faire un dessin), et on obtient ainsi le système de racines A_2 :
\begin{array}{|c|c|c|} \hline \text{vecteur} & \text{coord. cartesiennes} & \text{coord. polaires} \\ \hline \alpha   & (1,0)                        & (1,0)                 \\ -\alpha  & (-1,0)                       & (-1,0)               \\ \beta   &   (1/2,\sqrt{3}/2)  &  (1,\pi/3) \\ -\beta  &  (-1/2,-\sqrt{3}/2)  &  (-1,\pi/3) \\ s_\alpha(\beta)  &  (-1/2,\sqrt{3}/2)  &  (-1,-\pi/3)\\ -s_\alpha(\beta)  & (1/2,-\sqrt{3}/2)  &  (1,-\pi/3)\\ \hline \end{array}


\boxed{\text{Si} \theta_{\alpha,\beta} = \frac{\pi}{2}} : on peut prendre \||\beta\|| = 1, alors \beta = (0 \, , \, 1).
On trouve les autres vecteurs en appliquant les symétries décrites plus haut (faire un dessin), et on obtient ainsi le système de racines A_1 \times A_1 :
\begin{array}{|c|c|c|} \hline \text{vecteur} & \text{coord. cartesiennes} & \text{coord. polaires} \\ \hline \alpha   & (1,0)                        & (1,0)                 \\ -\alpha  & (-1,0)                       & (-1,0)               \\ \beta   &   (0,1)  &  (1,\pi/2) \\ -\beta  &  (0,-1)  &  (-1,\pi/2) \\ \hline \end{array}


Partie II. Relations d'ordre dans \mathbb{R^n}

1. a) Pour tout x et y dans \mathbb{R}^n et pour tout \lambda dans \mathbb{R}^- on a :
\begin{array}{cccc} x \preceq y & \Rightarrow & x - (x+y) \preceq y - (x+y)&\\  & \Rightarrow & -y \preceq -x&\\  & \Rightarrow & (-\lambda)(-y) \preceq (-\lambda)(-x)&car -\lambda \in \mathbb{R}^+\\ & \Rightarrow & \lambda y \preceq \lambda x&\\ \end{array}

1. b) \preceq ' est réflexive : pour tout x de \mathbb{R}^n on a x \preceq' x car \varphi(x) \preceq \varphi(x) (réfléxivité de \preceq).

\preceq' est antisymétrique : pour tout x et y de \mathbb{R}^n on a :
\begin{array}{cccc} x \preceq' y \: et \:  y \preceq' x & \Rightarrow & \varphi(x) \preceq \varphi(y) \: et \: \varphi(y) \preceq \varphi(x)&\\ & \Rightarrow & \varphi(x)=\varphi(y)& (\text{symetrie de } \preceq)\\ & \Rightarrow & x=y & (\text{injectivite de } \varphi)\\ \end{array}

\preceq' est transitive : pour tout x, y et z de \mathbb{R}^n on a :
\begin{array}{cccc} x \preceq' y \: et \:  y \preceq' z & \Rightarrow & \varphi(x) \preceq \varphi(y) \: et \: \varphi(y) \preceq \varphi(z)&\\ & \Rightarrow & \varphi(x)\preceq\varphi(z)& (\text{transitivite de } \preceq)\\ & \Rightarrow & x\preceq' z & \\ \end{array}

\preceq' est totale : pour tout x et y de \mathbb{R}^n on a : \varphi(x) \preceq \varphi(y) ou \varphi(y) \preceq \varphi(x) car \preceq est totale, d'où x \preceq' y ou y \preceq' x.

\preceq' est EV-compatible :
1°) Pour tout x, y et z de \mathbb{R}^n on a :
\begin{array}{cccr} x \preceq' y & \Rightarrow & \varphi(x) \preceq \varphi(y) &\\ & \Rightarrow & \varphi(x)+\varphi(z) \preceq \varphi(y)+\varphi(z) & (\text{EV-compatibilite de } \preceq)\\ & \Rightarrow & \varphi(x+z) \preceq \varphi(y+z) & (\text{linearite de } \varphi)\\ & \Rightarrow & x+z \preceq' y+z & \\ \end{array}
2°) Pour tout x et y de \mathbb{R}^n et pour tout \lambda de \mathbb{R}^+ on a :
\begin{array}{cccr} x \preceq' y & \Rightarrow & \varphi(x) \preceq \varphi(y) &\\ & \Rightarrow & \lambda\varphi(x) \preceq \lambda\varphi(y)& (\text{EV-compatibilite de } \preceq)\\ & \Rightarrow & \varphi(\lambda x) \preceq \varphi(\lambda y) & (\text{linearite de } \varphi)\\ & \Rightarrow & \lambda x \preceq' \lambda y & \\ \end{array}

2. a) La partie à hachurer est constituée de la demi-droite \lbrace x = 0 \; \text{ et } \; 0 \leq y \rbrace et du demi plan \lbrace 0 \leq x \rbrace.

2. b) \preceq est réflexive : en effet, pour tout x de \mathbb{R}^n on a x = x d'où x \preceq x.

\preceq est transititive :
Soient x, y et z dans \mathbb{R}^n tels que x \preceq y et y \preceq z. Montrons que x \preceq z. 4 cas sont possibles :
1°) Si x = y et y = z on a x = z donc x \preceq z.
2°)Si x = y et y \neq z, il existe k = \min\lbrace i \in \lbrace 1,...,n \rbrace|y_i\neq z_i \rbrace, et on a alors y_k < z_k, d'où x_k < z_k, avec également k = \min\lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq z_i \rbrace. D'où finalement x \preceq z.
3°) Si x\neq y et y = z, il existe k=min\lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq y_i \rbrace, et on a alors x_k < y_k, d'où x_k < z_k, avec également k = \min\lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq z_i \rbrace. D'où finalement x \preceq z.
4°) Si x\neq y et y\neq z ; il existe k_1 = \min \lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq y_i \rbrace et k_2 = \min\lbrace i \in \lbrace 1,...,n \rbrace|y_i\neq z_i \rbrace, avec x_{k_1} < y_{k_1} et x_{k_2} < y_{k_2}. Soit k = \min(k_1,k_2) : on a alors k = \min\lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq z_i \rbrace, d'une part, et x_k < z_k, d'autre part. D'où finalement x \preceq z.

\preceq est antisymétrique :
Soient x et y de \mathbb{R}^n tels que x \preceq y et y \preceq x. Montrons que x = y : si ce n'était pas le cas, il existerait k = \min\lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq y_i \rbrace avec x_k < y_k et y_k < x_k, ce qui n'est pas possible.

\preceq est totale :
Soient x et y de \mathbb{R}^n. Soit x = y et dans ce cas x \preceq y par exemple. Soit x\neq y, et il existe alors k = \min\lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq y_i \rbrace ; on a alors nécessairement x_k < y_k ou y_k < x_k, d'où x \preceq y ou y \preceq x

\preceq est EV-compatible :
1°) Soient x \, , \, y \text{ et } z dans \mathbb{R}^n tels que x \preceq y. Si x = y on a x + z = y + z et donc x + z \preceq y + z. Si x \neq y, il existe k = \min \lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq y_i \rbrace avec x_k < y_k, et on a alors x_k+z_k<y_k+z_k avec également k = \min\lbrace i \in \lbrace 1,...,n \rbrace|x_i+z_i\neq y_i+z_i \rbrace, d'où x+z \preceq y+z.

2°) Soient x \text{ et } y dans \mathbb{R}^n et \lambda dans \mathbb{R}^+ tels que x \preceq y. Si x = y on a \lambda x = \lambda y et donc \lamnda x \preceq \lambda y. Si x\neq y, il existe k = \min\lbrace i \in \lbrace 1,...,n \rbrace|x_i\neq y_i \rbrace avec x_k < y_k, et on a alors \lambda x_k < \lambda y_k avec également k = \min\lbrace i \in \lbrace 1,...,n \rbrace|\lamda x_i\neq \lambda y_i \rbrace, d'où \lambda x \preceq \lambda y.

Partie III. Base d'un système de racines

1. a) Soit \alpha \in R^+ n'appartenant pas à B. \alpha est alors somme de deux racines positives \beta et \gamma.
On a d'une part \alpha - \beta = \gamma, avec 0 \preceq \gamma, d'où 0 \preceq \alpha-\gamma et donc \beta \preceq \alpha
On a d'autre part \alpha \neq \beta car dans le cas contraire on aurait \gamma = 0 ce qui est impossible puisque \gamma \in R.
On a ainsi démontré que \beta est strictement plus petit que \alpha. On démontre également que \gamma est strictement plus petit que \alpha.
\alpha est donc bien la somme de deux racines positives strictement plus petites.

1. b) On va raisonner par l'absurde : supposons qu'il existe \alpha \in R^+ qui ne soit pas combinaison linéaire d'éléments de B. \alpha s'écrit alors comme somme de deux éléments de R ^+ strictement plus petits que \alpha (d'après 1.a) et qui ne sont pas dans B.
Faisons alors l'hypothèse de récurrence suivante au rang n :
\alpha = \alpha_1^{(n)}+...+\alpha_n^{(n)} avec \alpha_i^{(j)} dans R^+ et \alpha_i^{(j)} strictement plus petit que \alpha, pour tout i, j.
Selon l'hypothèse de départ faite sur \alpha, il existe un terme \alpha_{i_0}^{(j_0)} de cette somme qui n'est pas dans B , ce terme peut alors s'écrire comme somme \beta + \gamma de deux éléments de R^+ strictement plus petit que lui, et donc strictement plus petit que \alpha.
En remplaçant \alpha_{i_0}^{(j_0)} par \beta+\gamma, on écrit \alpha comme somme de n+1 termes de R^+ et qui sont strictement plus petit que lui. On ainsi prouvé l'hypothèse de récurrence au rang n+1. Comme elle l'était au rang 2, elle l'est pour tout entier n.
On obtient ainsi une suite strictement décroissante d'éléments de R^+ : ...<\alpha_n^{(n)}<\alpha_{n-1}^{(n-1)}<...<\alpha_2^{(2)}<\alpha. Comme elle est strictement décroissante, la suite a un nombre infini de valeurs, ce qui est en contradiction avec le fait que R est finie.
L'hypothèse de départ ne peut donc être vraie, et tout élément de R^+ est combinaison linéaire d'éléments de B.

2. a) Si n_{\alpha,\beta} > 0 alors n_{\alpha,\beta} = 1 \text{ ou } n_{\beta,\alpha}=1 (résultats rappelés en début de partie II).
Si n_{\alpha,\beta} = 1, on a : s_\alpha(\beta) = \beta- n_{\alpha,\beta}\alpha = \beta-\alpha d'où \beta-\alpha \in R et alors \alpha-\beta \in R.
Si n_{\beta,\alpha} = 1 on démontre de même que \alpha-\beta \in R et alors \beta-\alpha \in R.

2. b) Supposons que \alpha-\beta \in R. On a alors soit \alpha-\beta \in R^+, et l'on pose \gamma = \alpha-\beta, soit \beta-\alpha \in R^+, et l'on pose \gamma = \beta-\alpha.
Dans les deux cas on a \gamma \in R^+. \alpha=\beta+\gamma est donc somme de deux racines positives, ce qui est en contradiction avec \alpha \in B.
Ainsi \alpha-\beta n'est pas dans R, et donc n_{\alpha,\beta}\leq 0 d'après 2.a.
Publié le
ceci n'est qu'un extrait
Pour visualiser la totalité des cours vous devez vous inscrire / connecter (GRATUIT)
Inscription Gratuite se connecter
Merci à LyP pour avoir contribué à l'élaboration de cette fiche


Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1348 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !