Inscription / Connexion Nouveau Sujet
Niveau Maths sup
Partager :

Les valeurs propres d un hessien ...

Posté par jbperin (invité) 20-06-05 à 11:56

Bonjour à tous,

Je suis en train de lire un ouvrage d'automatique portant sur l'identification et je bloque sur un passage que je n'arrive pas à comprendre.

Pour vous situer le contexte:
On dispose d'un système O qui sort une sortie s_O(t) en fonction d'une entrée e(t)
On connaît la structure de la fonction de transfert de ce système et on sait notament qu'elle contient K paramètres que l'on regroupe dans un vecteur p.
Le but du jeu est donc de trouver ces K paramètres.
Pour cela, on utilise un modèle M qui, soumit à la même entrée e(t), produit une sortie s_M(t)
L'auteur définit une distance de structure:
D(O,M)= norm (p_o-p_m)

Il définit également une distance d'état D comme étant:
D=\int_0^{H} (s_o(t)-s_m(t))^2 dt

L'auteur montre qu'il existe un lien entre ces deux distances et propose, pour trouver le meilleur vecteur p possible, de minimiser la distance d'état

Il commence par faire un développement limité à l'ordre 2 de la fameuse distance:
D(p+\Delta p) = D(p)+g^T\Delta p + \frac{1}{2} {\Delta p}^T A \Delta p (1)
où g et A sont respectivement le gradient et le hessien de la distance


Ensuite, il pose:
\Delta D(p) = D(p+\Delta p) - D(p)
Il remarque qu'au minimum de D, le gradient est nul, et que donc, d'après (1), \Delta D(p) est une forme quadratique:
\Delta D(p)= \frac{1}{2} {\Delta p}^T *A*\Delta p  (2)

Ensuite, y'a tout un chapitre sur les fonctions de sensibilité.
Puis, on arrive sur un chapitre où l'auteur traite des pentes.
Il cherche visiblement à rechercher la pente maximale de la fonction D dans l'espace paramétrique (certainement pour préparer un algo qui convergera vers la solution optimum).
Il linéarise localement la fonction D autour d'un point par un développement limité du 1er ordre:
D(p+\delta p)= D(p) + g(p)^T\delta p
et exprime la pente:
\delta D(p)= g(p)^T\delta p
il trouve que, pour que la pente soit maximale, \delta p doit être colinéaire au gradient g(p).
Jusque là .. je comprends ..
Mais après, il dit :
"Plaçons nous au point nominal et rapportons la quadrique (2) a ses axes principaux, il vient :

D= \frac{1}{2} \sum_{k=1}^K \lambda_k {q_k}^2
où les \lambda_k sont les valeurs propres du Hessien A et q_k les nouvelles coordonnées dans l'espace paramétrique. Le vecteur gradient, par rapport à ces coordonnées, a pour composantes:
\frac{\delta D}{\delta q_k}=\lambda_k q_k
"

Je ne comprends pas comment il fait pour exprimer D en utilisant uniquement les valeurs propres du Hessien ..
Je dois probablement ignorer un résultat élémentaire d'algèbre linéaire ..
Si c'est le cas .. quel est-il?
Quelqu'un peut-il m'expliquer par quelle magie l'auteur arrive à écrire ce genre de chose ?
Que sont les axes principaux?

Franchement .. je bloque ..

Remarque: ce que l'auteur appelle le point nominal est le point de l'espace paramétrique où s_M = s_O

Posté par jbperin (invité)re : Les valeurs propres d un hessien ... 20-06-05 à 15:01


Je crois que je viens de trouver un théorème d'algèbre linéaire qui répond à ma question :

Soit A=(a_{i,j})_{n*n} une matrice symétrique avec les valeurs propres \lambda_1,...,\lambda_n. Soit Q une matrice orthogonale qui diagonalise A.Alors le changement de coordonées x=Qy transforme

\sum_{i,j}^na_{ij}x_ix_j en \sum_{i=1}^n\lambda_{i}y_i^2

Désolé pour le dérangement ...

Jean-Baptiste



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1675 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !