salut
j'ai suivi depuis un bout de temps et n'étais pas intervenu puisque d'autres étaient présents cependant ... je "dois" réagir ...
tout d'abord pour mousse42 :
quand on débute les tests on se fout dans un premier temps des risques de première ou deuxième espèce ... tu as les temps de voir cela plus tard ...
on peut en parler comme ça pour éclaircir un peu la situation pour comprendre la philosophie d'un test ... dont l'idée est de savoir si la situation a significativement changé : l'idée est de pouvoir rejeter H_0 pour pouvoir accepter H_1 (et non pas d'accepter H_1 pour rejeter H_0 : ça revient au même mais la nuance est d'importance)
dans toute la suite j'utilise les notations suivantes :
on a une population de taille N (en général très grande) dont on étudie un caractère :
quantitatif X de moyenne M et d'écart type S
qualitatif ou du type binomial de proportion p (du genre yeux bleu/pas bleu, vrai/faux, bon/pas bon) et d'écart type
on extrait ensuite de cette population un échantillon de n et on en calcule la moyenne m et l'écart type s ou la fréquence f
la théorie de l'échantillonnage et ses fluctuations dit que :
la variable aléatoire Y qui associe à un échantillon sa moyenne suit approximativement la loi normale de moyenne m et d'écart type
la variable aléatoire F qui associe à un échantillon la fréquence (de vrai, de "bon", de "succès") suit approximativement la loi normale de moyenne p et d'écart type
je ne rentre pas dans les détails (condition d'utilisation, ... bal bla bla, ...)
mais ensuite on peut donc faire tous les calculs que l'on veut et calculer les probabilités :
P(Y < t), P(Y, > t), P(m - h < Y < m + h) = 0,95 (intervalle de confiance de la moyenne au niveau de confiance 95%)
et idem avec F ...
en particulier par exemple l'intervalle de confiance de la moyenne au niveau de confiance 95% dit simplement que dans 95% des cas la moyenne de l'échantillon sera dans cet intervalle
tout cette théorie se base sur le fait qu'on connait les paramètres de la population totale
maintenant dans la réalité on ne connait pas toujours les paramètres de la population totale et pour les connaitre on va faire de l'estimation à partir des paramètres obtenus à partir d'un (ou plusieurs) échantillon(s) (voir un cours à ce sujet mais on a les même résultats mais en partant cette fois des valeurs de l'échantillon)
et enfin pour en arriver au tests : on a une norme : on veut découper des planches de longueur 200 cm, on veut remplir des canettes de volume 150 mL, on a p % de guérison comme dans ton cas et on veut vérifier s'il y a un changement ou si on ne peut pas accepter qu'il y ait un changement
ici un traitement donne p = 70% de guérison : c'est la norme qui est connu pour ce traitement et on veut savoir si un autre traitement donne autre chose (test bilatéral) ou mieux (test unilatéral)
l'hypothèse nulle est donc toujours H_0 p = 0,7
et dans le cas présent l'hypothèse alternative est H_1 : p > 0,7 (le traitement est mieux meilleur !! enfin on veut vérifier si on peut accepter cette affirmation)
et on va tester au niveau de confiance b = 99% ou au seuil de risque a = 1%
là où je ne suis pas d'accord avec alb12 (pour son intervalle) : dans un test bilatéral il y a deux régions de rejet et une seule dans un test unilatéral :
avec l'approximation par la loi normale (centrée réduite) on cherche donc le réel t tel que P(T < t) = 0,99
l'intervalle ]-oo, t] est la zone de non rejet de H_0
l'intervalle [t, +oo[ est la zone de rejt de H_0 (et donc d'acceptation de H_1)
ensuite on prélève un échantillon et on regarde :
avec n = 200, p = 0,7 on trouve que t = 2,33 puis que P(F < 0,775) = 0,99
que signifie l'intervalle ]-oo ; 0,775] ?
toujours d'après la théorie de l'échantillonnage si la proportion du traitement est 0,7 alors dans 99% des cas la fréquence de guérisons appartient à cet intervalle
ici avec l'autre traitement l'échantillon donne f = 0,74 : c'est donc une valeur "normale" au niveau de confiance 99% si la proportion réelle est aussi 70% de guérison
et donc on ne peut pas conclure que le nouveau traitement est meilleur et on ne peut pas rejetre l'hypothèse nulle ...
si par exemple on avait obtenu f = 0,78 (ou plus) avec le nouveau traitement alors on aurait pu conclure (selon la théorie de l'échantillonnage) que cette valeur n'est pas seulement due aux fluctuations d'échantillonnage mais "très certainement due au risque de 1%" au fait que la proportion de guérison avec le nouveau traitement est meilleure
et pour conclure sur les risques de première/deuxième espèce :
la cause essentielle ben c'est cette fluctuation d'échantillonnage encore et toujours :
soit le nouveau traitement n'est pas meilleur mais je tombe sur un échantillon (où ils guérissent tous) et me font conclure que le nouveau traitement est meilleur
soit le nouveau traitement est (réellement) meilleur mais je tombe sur un échantillon qui ne me permet pas de le conclure et donc que je ne peux pas refuser H_0
pour finir avec ma nuance plus haut : le pire cas est d'accepter H_1 qui est faux : cela peut en coûter la vie des patients : il vaut mieux accepter (peut-être à contrecœur) que le nouveau traitement n'est pas meilleur même s'il l'est que le contraire ...