Bonsoir,
Voilà des heures que je me tue pour essayer de faire disparaître un X².. mais je n'y arrive pas ! Quelqu'un pourrait m'éclairer ???!
Voici mon énoncé:
On considère la fonction f définie par f(x)= x²/(x-1)
Question Montrer qu'il existe trois réels a, b et c tels que; pour tout x
Df, on a :
f(x)= ax + b + c/(x-1)
D'habitude j'y arrive, mais là je vois pas que faire avec le x² :s
Merci beaucoup d'avance pour votre aide !
En fait, je ne vois pas comment faire en partant de l'équation donnée, puisque le x² n'est pas attendue à la fin.
Ce que j'ai fait, c'est que je suis partie de l'équation attendue et je l'ai développé.
J'obtiens (ax² -ax +bx -b +c) / x-1.
Par idenfification je trouve :
a=1
b=1
c=1
Mais est ce que c'est vraiment la méthode à utilisée ???!
Désolé de déranger encore une fois, mais plus loin dans l'exercice, on me demande de montrer que la courbe de f admet une asymptote oblique et de donner son équation.
Donc j'ai démontrer qu'il y avait une asymptote oblique puisqu'il y avait une limite infinie en l'infinie.
Mais je ne sais pas comment trouver son équation.... Je n'ai pas de méthode pour le faire, puisqu'on ne l'a jamais fait en cours... :/
Quelqu'un pourrait m'expliquer comment faire ??!
Merci
S'il vous plaît... Personne ne peut m'aider ???!
En faite, le fait qu'il y ait une limite infinie en l'infinie ne prouve pas qu'il y a une asymptote oblique... Donc je ne sais plus comment faire....
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :