Inscription / Connexion Nouveau Sujet
Niveau Master Maths
Partager :

Optimisation continue

Posté par
Vantin
15-10-23 à 17:32

Bonjour, j'aimerais avoir une relecture sur un exercice. En voici l'énoncé :

Soit f : \mathbb{R}^n \rightarrow \mathbb{R} avec n \in \mathbb{N}^* une fonction différentiable en x \in \mathbb{R}^n.

Question 1. Quelle est la direction d \in \mathbb{R}^n en x entraînant la plus forte diminution de la valeur de f (par rapport à f(x)) ?

Modéliser ce problème en considérant uniquement les directions dont la norme est égale à 1. Donner la direction optimale et justifier.

Ce que j'ai fais:
Soit x,d\in \mathbb{R}^n et \epsilon \in \mathbb{R}. On cherche la direction d dans laquelle la fonction f diminue le plus rapidement. Autrement dit:

 \\ \begin{aligned}
 \\ \underset{ x \in X}{\min} \quad & f(x+ \epsilon d) \\
 \\ \text{s.c.} \quad & \|d\| = 1 
 \\ \end{aligned}
 \\
On va utiliser le l'expansion de Taylor d'ordre 1 pour modéliser la variation de f en ce point puisque f est différentiable:

 \\ \begin{aligned}
 \\ f(x + \epsilon d) &= f(x) + \nabla f(x)^\top \epsilon d + o(\|\epsilon d\|) \\
 \\ &= f(x) + \nabla f(x)^\top \epsilon d + o(\epsilon)
 \\ \end{aligned}
 \\
La variable de décision est d donc seul \nabla f(x)^\top d est optimisable:

 \\ \begin{aligned}
 \\ \underset{ x \in X}{\min} \quad & \nabla f(x)^\top  d \\
 \\ \text{s.c.} \quad & \|d\| = 1 
 \\ \end{aligned}
 \\
D'après l'inégalité de Cauchy-Schwarz, on a \left| \langle \nabla f(x)^\top,  d \rangle \right| \leq \|\nabla f(x)\| \| d\|  =  \|\nabla f(x)\| \Longleftrightarrow - \|\nabla f(x)\| \leq   \langle \nabla f(x)^\top,  d \rangle  \leq \|\nabla f(x)\|
Le minimum est atteint lorsque ces vecteurs sont antiparallèles et de direction opposés:

 \\ \begin{aligned}
 \\ \nabla f(x) &= - \lambda d \\
 \\ \|d\| = 1 &\Rightarrow \|\nabla f(x)\| =  \lambda \\
 \\ d &= -\frac{\nabla f(x)}{\|\nabla f(x)\|}
 \\ \end{aligned}
 \\

Qu'en pensez-vous ? Merci par avance pour le temps que vous m'accorderez ! En vous souhaitant une bonne ifn de week-end.

Posté par
carpediem
re : Optimisation continue 16-10-23 à 19:13

salut

ça me semble bien long pour en arriver à la conclusion ...

selon

La dérivée directionnelle de f au point x suivant le vecteur d (de norme 1) est, si elle existe, la dérivée en 0 de la fonction d'une seule variable réelle g(t) = f(x + td) :

 D_df(x) = g'(0) = \lim _{t\to 0}\dfrac {f(x + td) - f(x)} t = \nabla f_d (x)

et on veut le maximum de son opposé

or \nabla f_d (x) = < \nabla f(x) | d> tout simplement

donc on veut le maximum de -\nabla f_d (x) = - < \nabla f(x) | d>

or le produit scalaire de deux vecteurs est maximal lorsque les vecteurs sont colinéaires et de même sens donc ... on obtient ton résultat ...


ce me semble-t-il ...



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !