Bonjour à tous, je bute actuellement sur un problème dont je suis sûr qu'il est fort simple... Mais qui échappe à ma compréhension. L'analyse étant un domaine dans lequel j'ai beaucoup de mal, je n'arrive pas à le résoudre malgré sa visible simplicité.
On considère une suite de fonctions (Un) continues à valeur dans R ou C, sur un intervalle I telle que :
1)Il y a une fonction C0(I,+), intégrable sur In telle que n tI abs(Un(t))(t).
2)(Un) converge uniformément sur I.
Il faut montrer que lim(n)(Un(t))dt = lim(n)Un(t)dt (les intégrales sont des intégrales sur I).
Bien évidemment, on voit tout de suite que le théorème d'intégration terme à terme s'impose... Seulement voilà, il s'applique sur un intervalle I borné, et ce n'est pas le cas ici. Ce premier point m'a pas mal bloqué...
Ensuite, je suppose que l'intégrabilité des fonctions Un doit se montrer en utilisant la relation (1), j'ai du mal à me souvenir de mes relations permettant d'établir l'intégrabilité, mais il me semble que l'une d'entre elle donne plus ou moins l'intégrabilité avec les hypothèse fournies en (1)... Seulement voilà, j'ai toujours ce problème avec I qui n'est pas borné, et je ne vois franchement pas quelle hypothèse permettrait de s'en affranchir.
C'est probablement un simple petit truc que je n'ai pas vu, une relation que j'ai oublié, mais j'apprécierait votre aide...
Bonne soirée à tous.
N'ayant jamais entendu parler de ce théorème, je suis probablement sensé être capable de résoudre cet exercice sans l'utiliser... Ou alors est-ce un théorème que je connaitrais sous un autre nom, je vais vérifier. Merci de ta réponse en tout cas =)
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :