Bonjour,
J'ai montré que l'application qui aux matrices (M,N) associe tr(tM.N) est un produit scalaire sur l'ensemble des matrices carrées d'ordre n.
Il faut ensuite que je détermine la distance de S à On() où S est une matrice symétrique à spectre dans
+.
Quelqu'un peut-il m'aider s'il vous plait? Merci d'avance.
Bonsoir math71.
Tu sais que c'est un exercice qui est loin d'être trivial ?!
Et que ce à quoi tu as déjà répondu n'en constitue en général que la première question !
.
Commence par montrer que où
(resp.
) est l'ensemble des matrices symétriques (resp. antisymétriques) de
et que cette somme directe est orthogonale.
Si , montre que
et quid de
?
Répond déjà à ça et ensuite on abordera le gros morceau par le théorème de décomposition polaire.
Bonjour,
Merci, je viens juste de voir votre réponse et je pars en classe dans 10 minutes... C'est à peu près dans quoi je m'étais lancé hier soir, mais je n'ai pas réussi à conclure. mais on va corriger en classe ce matin. Merci quand même! Bonne journée
Ce qui peut aussi être fait, c'est calculer les projeté orthogonal non ? ( vérifié les hypothèses quand même car je ne suis pas sur sur ). Il y a une propriété ( que je qualifierais plutôt de théorème vu la puissance de cette propriété mais bon) qui permet d'écrire la distance d'un point a un espace vectoriel comme la norme de la somme des projeté orthogonale.
Si vous voulez plus de détaille je peux me replonger dans mes cours pour retrouver la propriété en question !
bonjour,
S est donc diagonalisable de spectre positif, donc
or sauf erreur, il me semble que sera maximum si O=I
d'où
Bonjour DOMOREA.
Tout à fait d'accord ! Et effectivement, l'exercice est simplifié du fait qu'on part d'une matrice diagonalisable à spectre positif, donc symétrique et positive. J'avais pas assez fait attention à ce détail et avait considéré S comme une matrice quelconque (bon, ça se fait si on admet le Théorème de la décomposition polaire A = US avec U orthogonal et S diagonalisable à spectre positif).
Du coup, dans l'exos, U = I et S est diagonalisable.
Voilà un petite rédaction pour le cas général. (En plusieurs post)
D'abord les notations classiques :
.
Exemple préliminaire :
Soit . On pose
Diagonaliser H : son polynôme caractéristique est
- La vp 16 est associée au vecteur propre que je choisis de norme 1.
- La vp 1 est associée aux vecteurs propres et
que je choisis orthonormés.
On note
La matrice de passage va permettre de diagonaliser H et on a
On note au passage que donc
et donc
.
On pose .
La relation définit une matrice
. En effet :
On a
Le théorème spectral affirme que tout opérateur auto-adjoint en dimension finie est diagonalisable dans une base de vecteurs orthonormés. Par suite, S l'est.
Soit l'ensemble de ses valeurs propres et
la base formée de vecteurs propres orthonormés correspondants.
Soit alors . Il vient :
Autre façon de l'écrire :
Conclusion
Deux cas sont à observer :
1° cas : tous les
On a vu à la question 3-a que la famille formait une base orthogonale de ce dernier.
Or ce qui implique que
On pose donc et on a bien
2° cas : il existe (et donc un seul par hypothèse)
La famille forme une famille libre orthogonale de ce dernier.
On pose à nouveau pour tout
La famille forme une famille libre orthonormale de ce dernier.
On complète donc cette famille par un vecteur non nul .
On orthonormalise cette famille par le procédé classique de Gram-Schmidt en posant
puis en posant
La famille forme alors une base orthonormale de ce dernier.
On a de plus et on a vu que
était le vecteur colonne nul.
Donc on a bien
Posons : c'est une ligne de matrices colonne
On a alors : c'est une colonne de matrices ligne
D'où il vient que en vertu de l'orthonormalité de la famille des Ei
Donc
Par ailleurs donc en identifiant les coefficients dans chaque colonne j, on obtient, pour chaque ligne i :
Rappel : est le symbole de Kronecker.
On pose et on obtient :
D'où
Bonjour jsvdb,
C'est très bien rédigé!
Pour ton dernier exemple, la matrice étant inversible on peut calculer directement
.
Dans ton message du 27-01-17 à 22:44 il y a des coquilles.
D'abord c'est et pas
(même chose pour
).
Ensuite dans le deuxième cas, il peut y avoir plusieurs nuls.
On peut supposer strictement positifs et
.
En posant pour
, la famille
est une famille orthonormale que l'on peut compléter en une base orthonormale de
.
La matrice de colonnes
est alors une matrice orthogonale qui vérifie bien
.
@jandri : merci pour ton appréciation et le "décoquillage".
Par contre, peux-tu me dire, pour la question 1- à 27-01-17 à 13:14, s'il est correct ou non d'utiliser le théorème spectral pour dire que S se diagonalise sur une base orthonormée ? Ou y-a-t-il une méthode plus direct en utilisant uniquement les hypothèses de par et d'autre de l'équivalence :
Le sens est évident : on prend un vecteur propre et on regarde ce qui se passe.
Le sens réciproque m'échappe : si on suppose toutes les vp positives, alors si je prends un vecteur propre, tout va bien, mais sinon ?
Ce qui me fait dire ça, c'est que la question suivante demande de montrer que si A et B sont deux matrices vérifiant tAA = tBB alors il existe une matrice orthogonale P et une matrice diagonale D à termes positifs telles que (P-1)(tAA)P=(P-1)(tBB)P = D2.
Donc si j'utilise le théorème spectral au début, ç'est un peu le serpent qui se mord la queue, non ?
En te remerciant pour ta réponse.
Bon en fait, on est obligé d'utiliser le théorème spectral si on veut répondre à la question.
Ce qui est logique car le sens est vrai pour toute matrice positive (symétrique ou pas) tandis que la réciproque est surement vraie pour les matrices symétriques.
Comme , on sait que toutes les valeurs propres de
sont positives ou nulles, qu'il existe une base orthonormale de vecteurs propres dans laquelle
se diagonalise en la matrice diagonale
.
Soit D la la matrice à coefficients tous positifs ou nuls telle que .
Soit la matrice P écrite sous forme de matrices colonne, et qui diagonalise
selon les modalités mentionnées ci-dessus.
Il vient alors de façon évidente :
Et on conclut que
Nous venons de voir que avec D matrice diagonale et P matrice orthogonale. Il vient donc :
_______________________
D'une part : .
En posant , on a que
. Ce qui nous amène, en vertu du résultat 3.c à l'existence d'une matrice X' orthogonale telle que
.
__
D'autre part : .
En posant , on a que
. Ce qui nous amène également, en vertu du résultat 3.c à l'existence d'une matrice Y' orthogonale telle que
.
_______________________
On peut alors écrire que l'on réinjecte dans
pour obtenir :
d'où
puisque P est orthogonale.
En posant , il vient
et donc
Simplement, nous avons vu que et donc en vertu du résultat de la question 4.b, il existe une matrice
telle que
(NB : on peut également établir l'unicité de la matrice S et même l'unicité O si A est de plus inversible dans cette décomposition).
On remplace simplement S par sa définition et on obtient, toujours d'après la question 6 :
Or la matrice et parcourt
quand
parcours
. Le résultat cherché se déduit de cette constatation.
Il suffit de remplacer la norme par son expression et on trouve :
On a :
-
- d'où le résultat cherché :
On a : Or :
On a donc établi que
D'après la question 8.a, on a alors et ce pour tout
.
Comme , on conclut que
Rappel des notations :
Grâce à la question 7.a nous avons établi que
Grâce à la question 7.a(bis) nous avons établi que
En vertu de la question 8.b, il nous est possible d'affirmer que la quantité sera minimale pour
.
On résout donc en l'équation
, ce qui donne
Retour à l'exemple préliminaire :
Nous avions vu que avec :
(Et S à calculer si le coeur vous en dit ... )
On a alors :
Il y a une erreur à ce niveau :
Et j'avais écrit que et déduit qu'en vertu du résultat de la question 4.b, il existe une matrice
telle que
C'est faux !
Il faut considérer la matrice qui vérifie
car P est orthogonale (donc
) et D est diagonale (donc
)
Par ailleurs . La matrice S' vérifie donc les hypothèse de la question 4.a
Et donc on peut appliquer le résultat de la question 4.b à S' pour conclure qu'il existe une matrice telle que
Bonjour jsvdb,
C'est toujours aussi bien rédigé!
Il y a cependant des erreurs dans les majorations du 8b.
La première inégalité est fausse et la somme double est égale à et pas au déterminant de
.
La majoration souhaitée est tout simplement:
puisqu'on a
et
.
D'autre part on peut aller beaucoup plus vite et ne pas utiliser les questions 4, 6, 7.
1) Pour obtenir la décomposition polaire d'une matrice on peut écrire:
donc
avec
orthogonale et
diag
avec
pour
et
pour
(
est le rang de
).
En posant on a
d'où l'on déduit que les
premières colonnes de
forment une famille orthogonale
, les
dernières sont nulles. On en déduit l'existence d'une matrice orthogonale
dont les
premières colonnes sont les
.
On a alors d'où
.
2) Si est une matrice orthogonale:
est minimum quand
est maximum.
avec
qui est orthogonale (avec les notations du 1).
puisqu'on a
et
(égalité pour
c'est-à-dire
).
On en déduit le minimum de .
Bonjour Jandri et merci pour les corrections que je vais étudier attentivement.
Effectivement, on peut aller plus vite, mais simplement, j'ai repris un sujet qui nous avait été posé 2ème année et je m'en rappelle, je l'avais littéralement boudé, sale note donc à la clé ... j'ai juste pris ma revanche sur certaines difficultés du passé.
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :