Je demande l'aide de vos esprits avisés pour l'excercice suivant: montrer que si f est uniformement continue alors il existe alpha et beta apartenant à R tels que pour tout x de R on ait valeur absolue de f(x) inferieure ou égale à aplha fois valeur absolue de x plus betha. Merci d'avance!
Très bien mais cela découle directement de la continuité uniforme de f et je ne vois pas où cela peut me mener...
Le problème étant que alpha et beta ne doivent pas dépendre de x et pourtant y dépend de x puisque qu'il appartient a [x-1/b;x+1/b]...
Donc, tu es d'accord avec le fait qu'il existe tel que
si
. Puisque tu n'arrives pas à voir où ça mène (je crois que tu ne fais pas beaucoup d'efforts), une petite question :
Peux-tu maintenant majorer en fonction de
et de
?
C'est déjà fait, mais cette inégalité n'est elle pas vérifiée seulement pour x appartenant à l'intervalle [-1/a;1/a] ?
Ecoute, c'est toi qui cherche à résoudre le problème, non ? Alors ou bien tu essaies de suivre mes indications, ou bien tu te débrouilles comme tu l'entends. Je n'impose aucune restriction à . Mais souviens-toi qu'on peut aller de 0 à
en faisant plusieurs petits pas :
"Step by step the longest march
Can be won, can be won."
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :