Inscription / Connexion Nouveau Sujet
Niveau Licence Maths 1e ann
Partager :

algorithme d'optimisation sans contraintes

Posté par
djamilajtn
06-01-10 à 22:18

Bonsoir, Pouvez-vous m'aider s'il vous plait à prouver ce théorème concernant la convergence de l'algorithme du gradient à pas optimal.
L'énoncé:
Soit f\in C^1(\mathbb{R^n},\mathbb{R}) telle que f(x)->\infty quand x->\infty , alors
1) La suite (x_n)_n est bien définie
On choisit \alpha_n>0 tel que f(x_n+\alpha_nw_n)\le f(x_n+\alphaw_n), \forall\alpha\ge0
\alpha_n existe mais n'est pas nécéssairement unique.
2) La suite (x_n)_n est bornée et si (x_n_k)_k est une sous suite convergente, c'est-à-dire x_n_k->x lorsque k->+\infty, on a nécéssairement grad f=0.
De plus, si f est convexe on a f(x)=minf(x)
3) Si f est strictement convexe, on a alors x_n->x^* quand n->+\infty avec f(x^*)=min f(x).

Merci d'avance.



Vous devez être membre accéder à ce service...

Pas encore inscrit ?

1 compte par personne, multi-compte interdit !

Ou identifiez-vous :


Rester sur la page

Inscription gratuite

Fiches en rapport

parmi 1675 fiches de maths

Désolé, votre version d'Internet Explorer est plus que périmée ! Merci de le mettre à jour ou de télécharger Firefox ou Google Chrome pour utiliser le site. Votre ordinateur vous remerciera !