Bonjour,
j'ai vu un résultat un peu vague dans un td, j'aimerais si possible une explication :
Si une application f dérivable, de I=(a,b) (un intervalle de ) à valeurs dans est telle que son application dérivée f' soit bornée, alors f admet une limite l.
Comment le démontre-t-on ?
Salut,
Bah, si f est dérivable sur I, elle est continue sur I; donc je vois pas trop le sens de la question...
Ah oups, autant pour moi, j'ai cru que I était un intervalle. Je retire ce que j'ai dit.
A mon avis, c'est en a ET en b.
Bonjour
L'idée est que f peut être dérivable sur ]a,b[ sans avoir de limites en a et b. (Comme 1/sin(x) sur ]0,[. C'est vrai que si f' est bornée alors f admet des limites aux bornes. Ca se démontre en utilisant le théorème des accroissements finis et le critère de Cauchy pour les limites.
Soit M un majorant de |f'(x)|. A cause du théorème des valeurs intermédiaires on a |f(x)-f(x')|M|x-x'|.
Soit >0. Si x-a</M et x-a</M, on a |f(x)-f(x')| , et ceci est exactement le critère de Cauchy pour l'existence d'une limite au point a.
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :