En cherchant les conditions pour que AB = BA soit vrai, j'ai vu ceci sur un autre forum :
Je considère l'application linéaire f de E=M_2(R) ds lui même définie
par f(B)=iA.B.A. Nous avons que B commute avec ssi B est vecteur propre pour la valeur propre z=1.
Tout revient donc à déterminer le sev propre de f pour la valeur propre z=1
(qui est de dimension au moins egal à 1 puis la matrice I_2 est une solution.
On peut par exemple faire les calculs dans la base canonique de
Une autre façon de faire c'est de calculer dans la base qui diagonalise A. En effet la commutation est une notion intrinsèque de l'application linéaire sous-jacente.
Bonjour il y a le début de mon message qui a disparu
J'avais dit que je ne suis sûr de répondre à la question demandée. mais pour trouver le sev des matrices B qui commutent avec la matrice A de l'exemple on peut faire comme ceci.
Ici A est inversible et je note iA son inverse. Ensuite je considère....
Bonjour,
Les matrices n-carrées A et B ,C une autre matrice n-carrée P et Q des polynômes, sont commutatives.
Alain
merci pour vos réponses!
jb2017, je ne connais pas cette notation:
je ne comprend pas pourquoi
Rebonjour
Mon application linéaire f admet 1 comme valeur propre (puisque)
f(I_2)=A^{-1}I_2 A=I_2
Mais plus généralement si B est un vecteur propre pour la valeur propre z=1, i.e
f(B)=B=A^{-1}B A=B c'est facile de voir que c'est équivalent AB=BA.
Donc la solution revient à déterminer le sev propre pour la valeur propre z=1 de l'application f.
Pour l'autre méthode, tu connais surement la notion mais le vocab.
une matrice A (resp. B) représente un endo. h (resp. g) (ce j'ai appelé application linéaires sous-jacentes) A et B et équivalent à h et g commutent et cela ne dépend pas vraiment de la base.
Donc on peut faire autrement
on change de base de sorte que la matrice semblable à A est diagonale (nommée D).
Par un calcul à la main (plus facile qu'avec A)
on devrait pouvoir trouver toutes les matrices qui commutnent à D
Rebonjour encore une fois le post précédent s'est mis en route tout seul!!
dc je recommence
L'application linéaire f admet 1 comme valeur propre et comme vecteur propre
puisque
Plus généralement si est vecteur propre de f pour la valeur propre z=1
i.e c'est équivalent à AB=BA.
Donc l'ensemble des solutions est le s.ev. propre de f pour la val.propre z=1.
Il suffit donc de faire les calculs dans la base canonique de
Pour l'autre méthode tu connais surement la notion mais pas le vocabulaire.
En effet A et B représente deux applications linéaires g et h (que j'ai nommées sous jacentes) dans une certaines base.
A et B commutent est équivalent à g et h commutent. Donc le fait que A et B commutent ne dépend pas vraiment de la base mais des applications linéaires qu'elles représentes.
Donc une autre méthode est de changer de base où A est semblable à une mat. diagonale D . On cherche les matrices qui commutent avec D
(cela devrait être plus "facile à la main") et par un retour à la base initiale on retrouve les matrices qui commutent avec A.
salut
attention : la méthode jb2017 de 16h51 nécessite que A soit inversible
l'application est linéaire
l'ensemble des matrices commutant avec B est donc le noyau de f et donc un sous-espace vectoriel ...
ce qui répond à ce que tu as vus dans l'exercice ...
(je subodore même que ce noyau est l'ensemble des matrices qui s'écrivent P(A) pour un certain polynome (en tout cas il contient cet ensemble)
dans le cas général où A et B sont données alors ton lien donne des conditions suffisantes (dans R ou dans C)
pour revenir en terme d'endomorphisme f et g représentées par A et B : dire que A et B commutent (donc f o g = g o f) c'est dire que f et g ont les mêmes sous-espaces stables (enfin c'est nécessaire)
ce me semble-t-il ...
Bonjour. En effet je me suis basé sur l'exemple et j'ai utilisé que A est inversible.
Je ne connais pas bien ce problème et je ne sais pas si il y a une méthode générale pour n'importe quel A et n'importe quel dimension d'espace.
Mais on peut rebondir sur ce que dit @carpediem.
En effet soit , tout matrice P(A) est solution (i.e est dans le noyau)
mais par Cayley-Hamilton P(A) est de la forme . C'est à dire que Ker(f) contient au moins vect <A,I_2>.
La question est de savoir si cet espace est exactement Ker(f)?
Dans l'exemple c'est le cas. Est-ce que c'est général?
Dans un cadre + général il faudrait utiliser le polynôme minimal mais sur l'exemple le polynôme caractéristique et minimal sont les mêmes.
Bonsoir,
si on se base sur l'exemple donné, il est totalement inutile d'utiliser quelque théorie que ce soit.
Il suffit de résoudre le système linéaire :
rebonjour,
@verdurin, tu as tout à fait raison mais regarde bien la question. On ne sait pas ce qui est demandé.
Faut-il traiter l'exemple? Si oui comme tu le dis "no pb".
Mais à mon avis, le sujet est surement bien connu des mathématiciens,
mais pas si simple que cela pour les non-spécialistes.
Donc tout ce qui est dit ci-dessus et qui est correct ne peut que servir à celui qui pose la question.
Salut jb2017.
Tu as raison, mais regarde les autres sujets ouverts par Themudgin.
J'ai l'impression qu'il a tendance à vouloir généraliser au delà de ses possibilités.
Pour la partie mathématique, il est clair que B=P(A) n'est pas, en général, une condition nécessaire. Il suffit de regarder le cas A=Id pour s'en convaincre.
ouais enfin pour pour A = I le noyau est l'espace entier ... c'est un peu un cas dégénéré ...
qu'en est-il pour une matrice diagonale quelconque ?
Sans garantie :
il me semble que deux matrices diagonales commutent toujours.
Mais qu'il est faux que l'une est toujours l'image polynomiale de l'autre.
Pour donner un exemple :
A et B commutent, mais je ne crois pas qu'il existe un polynôme P tel que P(A)=B.
Bonjour,
"je ne crois pas qu'il existe un polynôme P tel que P(A)=B."
plus généralement si à deux matrices n carrées , correspond deux polynômes . alors elles commutent.
Remarque :pour toute matrice .
Il est possible d'élargir' la conjugaison ,posons:
alors
Alain
Bonsoir.
@ Themudgin
P est un polynôme à coefficients dans R ( ou dans C ).
@alainpaul
En utilisant les polynômes d'interpolation de Lagrange, on peut voir que :
si A et B sont des matrices diagonales nn alors il existe des polynômes P et Q de degré inférieur à n tels que P(C)=A et Q(C)=B où C est une matrice diagonale dont tous les éléments diagonaux sont distincts.
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :