Bonjour !
Je bloque complètement sur ce problème que je dois démontrer :
1)Démontrer qu'une suite décroissante d'intervalles fermés bornés de R a une intersection non vide.
2)Qu'en est-il lorsqu'on supprime une des 2 conditions ?
J'ai bien trouvé le théorème des segments emboîtés sur le net mais ici, rien ne dit que mes segments soient emboîtés.
Pour moi, le fait que la suite soit décroissante veut simplement dire que la longueur des segments est de plus en plus petite.
Voici comment je commence :
On construit une suite d'intervalles fermés bornés de R. n € N, pour tout k € N tel que 0 <= k <= n, pour tout A_k, B_k appartenant à R, on a :
I_0 = [ A_0 , B_0 ]
I_1 = [ A_1 , B_1 ]
...
I_k = [ A_k , B_k ]
...
I_n = [ A_n , B_n ]
avec d( A_0, B_0 ) > d( A_1,B_1 ) > ...> d( A_k, B_k )>... > d( A_n, B_n )
Tous les intervalles sont bornés : pour tout x € I_k, x < B_k
Il doit me manquer une donnée ou il y a quelque chose que j'ai mal compris dans l'énoncé.
Merci pour votre aide,
Emilie.
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :