salut tout le monde,
voilà on me donne l'applicationn F de dans définie par : F(x) = f(t)dt où f est une fonction arbitraire de classe C0 sur .
(l'intégrale va de x à x+1 et F est de classe C1)
On supppose que f admet L1 comme limite en + et on me demande de montrer que F admet une limite L2 en + à expliciter.
Ce que j'ai pensé à faire :
-passer l'égalité à la limite (je ne sais pas si on peut)
-étudier le cas pour L1=0
Merci pour votre aide,
Neo
Bonjour neo;
Soit une primitive de sur ,il est facile de voir que en appliquant le théoréme des accroissements finis à on sait que en faisant on a aussi et on voit alors que
Sauf erreurs bien entendu
Bonsoir neo
Tu as deux options :
-soit tu utilises la définition de la limite pour montrer que F et f ont même limite à l'infini.
-soit tu commences par faire effectuer le changement de variable u=t-x et tu continues en appliquant le théorème de convergence dominée en considérant une suite quelconque qui tend vers .
Kaiser
salut elhor et kaiser,
merci pour vos réponses,
néanmoins, je ne comprends pas pourquoi c dépend de x lorsque elhor écrit cx
bonne soirée
Neo
rebonsoir neo
N'oublie pas que l'on applique le théorème des accroissements finis sur l'intervalle [x,x+1] qui dépend de x. Ainsi, pour chaque x, le c risque d'être différent.
Kaiser
tu continues en appliquant le théorème de convergence dominée
Evidemment que c'est le genre d'option auquelle on pense tout de suite lorsque l'on sait ce que c'est mais d'un autre coté, c'est utiliser des outils trop puissants, et qui ne sont probablement pas adaptés pour l'étudiant qui pose la question
Dommage, je serai d'avis que tout cours d'analyse du supérieur commence par un cours de topo, suivi d'un cours de mesure. Ensuite on peut prétendre faire de l'analyse...
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :