Bonjour,
Soit une fonction qui associe un réel à une matrice :
où
est une matrice.
Pour étudier les extremas d'une telle fonction on m'a présenté les choses suivantes :
Avec cela on dérive par rapport à
(et avec la linéarité de la dérivée) et ça marche comme en calcul différentiel ordinaire : là où la dérivée s'annule, il y a des extremas.
Quelqu'un peut-il m'expliquer en quelques mots (ou quelques lignes) c'est quoi ce calcul différentiel ?
Bonjour,
j'ai déjà entendu parler de ca il y'a quelque temps de le cadre des distributions, mais je ne pourrais pas vraiment en parler.
Sinon, je me demande si on ne défini pas ca tout simplement de la façon suivante:
S'il existe une matrice M telle que
f(X+H)=f(X)+MH+o(||H||)
alors M est la dérivée de f en X.
Bonsoir stokastik et otto
otto> Dans ce cas-là, c'est tout simplement la définition de la différentielle de f au point x, enfin il me semble. Plus précisément, M serait la matrice de la différentielle de f au point x.
Kaiser
Salut Kaiser:
Oui effectivement, mais est ce que ca poserait un problème?
Peut être que c'est tout simplement l'idée en arrière.
est-ce que c'est moi qui ne comprend plus rien ? J'ai essayé de regarder si c'est cohérent avec les égalités que j'ai écrites dans le cas où c'est la différentielle de f, mais si les variables sont des matrices carrées n fois n, la matrice de la différentielle serait de taille n² fois n² non ?
... ou alors ce serait via une certaine identification ? La deuxième application de mon exemple est linéaire, f(A)=trace(AB), la matrice de sa différentielle c'est la matrice de f, ce n'est pas la transposée de B comme dans la formule que j'ai donnée mais ça y ressemble je crois...
Effectivement, d'après ce que j,en ai lu, c'est bien la différentielle classique et rien de plus.
Je pense que tes formules sont légèrement fausses. Notamment, ce ne doit pas être A^-1, mais plutôt la matrice des cofacteurs, ce qui n'est pas loin d'être l'inverse de A, cependant.
Salut Kaiser.
On ne doit pas non plus prendre tout ce que je dis pour argent comptant. J'ai rapidement regardé sur le net quelques informations, mais rien de plus. Je ne peux rien vraiment affirmer.
Mais ca semble le cas malgré tout, et les calculs ont l'air de confirmer...
Juste pour conclure, il est facile de remarquer que la matrice des dérivées partielles de la fonction det, est précisément la matrice des cofacteurs, d'où le résultat.
En fait, cette dérivation n'est rien d'autre que la différentiation classique, mais sur l'espace des matrices.
Non c'est bien transposée de l'inverse, ce qui est bien égal à la matrice des cofacteurs à un coefficient près.
Bon je réfléchirai à cela plus tard dans la journée, merci à vous
Salut otto et kaiser. vous vous souvenez de moi ?
Finalement je n'ai pas compris ces trucs.
Prenons le deuxième machin. B est fixée, l'application A->tr(AB) est linéaire, sa différentielle en tout point A est H->tr(HB), quel rapport avec la transposée de B ?
otto a écrit f(X+H)=f(X)+MH+o(||H||) mais ici l'espace d'arrivée de f est R qu'est-ce que c'est ce MH ?
Enfin je vois un rapport avec H->tr(HB) et la transposée de B en fait : la matrice de l'application linéaire H->tr(HB) est la matrice colonne qu'on obtient en écrivant les uns en dessous des autres les coefficients de la transposée de B...
C'est une matrice ligne pardon.
Voilà ce que je vois maintenant. Pour une matrice M carrée d'ordre n, notons Vec(M) la matrice colonne obtenue en écrivant les une en dessous des autres les coefficients de M.
Alors ou si je peux me permettre
Bon ben voilà j'ai compris c'est qu'au lieu de donner la différentielle comme une application linéaire f, on donne la matrice M telle que f(H)=\langle M, H\rangle
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :