Bonjour,
j'ai un exercice d'algorithme à faire et je ne comprend pas certaines notions.
C'est un algorithme permettant de calculer "racine de n" avec la précision p
Entrée: les reels n et p
Initialisation: u = n , i = 0
Traitement: Tant que (u-racine de n ) > p
affecter à u la valeur 1/2 ( u + n/u)
affecter à i la valeur i+1
Sortie: Afficher u et i
Voici l'algorithme. Je ne comprend pas ce que représente i et ce que veut dire " programmer cet algorithme dans le langage de votre choix ".
De plus question, que je trouve incompréhensible: Pour une précision donnée, l'algorithme converge moins rapidement vers racine de n lorsque n augmente.
En choisissant p = 0.01 trouver en testant différentes valeurs, la plus petite valeur de n telle que i = 7. Puis concevoir un algorithme permettant de retrouver ce résultat.
J ai vraiment tout essayer mais en vain cela ne fonctionne pas.
Merci d'avance de votre aide
Bonsoir,
i est un compteur donnant le nombre nécessaire de mises à jour de u pour que la condition (u-racine de n ) > p ne soit plus vérifiée.
Plus i est grand, moins ton algo converge rapidement vers la racine carrée de n.
Lorsque tu fais un programme sur ta machine à partir de ton algorithme, afin de communiquer avec la machine il faut employer un langage de programmation (il y en a plein, par exemple C, C++, python, assembleur, ruby...).
Enfin pour la dernière question appelons ton algo heron. Il prend deux paramètres : n et p. On fixe p=0.01, tu testes ton algo jusqu'à ce qu'il t'affiche à la sortie i=7.
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :