logo

Test d'hypothèse



Test d'hypothèse : encyclopédie mathématiques

wikipediaCet article est issu de l'encyclopédie libre Wikipedia.
Vous pouvez consulter l'article ici ainsi que son historique.
Les textes et les images sont disponibles sous les termes de la Licence de documentation libre GNU.
Aller à : navigation, rechercher

En statistiques, un test d'hypothèse est une démarche consistant à évaluer une hypothèse statistique en fonction d'un jeu de données (échantillon).

Par exemple, ayant observ√© un certain nombre de tirages ¬ę pile ou face ¬Ľ produit par une pi√®ce, on peut se demander si celle-ci est biais√©e (c'est-√†-dire poss√®de une probabilit√© diff√©rente de 1/2 de tomber sur une face donn√©e). Dans cette situation, l'approche par test d'hypoth√®se consiste √† supposer que la pi√®ce est non biais√©e (hypoth√®se nulle), et √† calculer la probabilit√© d'observer des tirages au moins aussi extr√™mes que celui effectivement observ√© (gr√Ęce √† une loi binomiale). Si cette probabilit√© est faible (en pratique, inf√©rieure √† un seuil fix√©, en g√©n√©ral de 5%), on rejette l'hypoth√®se nulle de l'√©quiprobabilit√© des faces de la pi√®ce, et on d√©cide qu'elle est biais√©e.

Risque de première et deuxième espèce, puissance du test[modifier | modifier le code]

Une notion fondamentale concernant les tests est la probabilité que l'on a de se tromper.

Il y a deux fa√ßons de se tromper lors d'un test statistique :

  • rejeter √† tort l'hypoth√®se nulle lorsqu'elle est vraie. On appelle ce risque le risque de premi√®re esp√®ce et en g√©n√©ral on note \alpha la probabilit√© de se tromper dans ce sens. On appelle parfois \alpha le risque de faux positif[1] : en rejetant l'hypoth√®se nulle, on consid√®re l'hypoth√®se √† tester comme valid√©e (positif) alors qu'elle ne l'est pas (faux), il s'agit d'une fausse d√©couverte.
  • ne pas rejeter l'hypoth√®se nulle[2] alors qu'elle est fausse. On appelle ce risque le risque de deuxi√®me esp√®ce et en g√©n√©ral on note \beta la probabilit√© de se tromper dans ce sens. On appelle alors \beta le risque de faux n√©gatif : comme on ne peut pas rejeter l'hypoth√®se nulle, l'hypoth√®se √† tester ne peut pas √™tre valid√©e (n√©gatif) alors qu'elle est vraie (faux).

On cherchera à minimiser ces erreurs. En pratique, il s'agit souvent d'effectuer un compromis entre ces deux types d'erreur.

  • La probabilit√© 1-\beta d'opter pour l'hypoth√®se alternative (H_1) √† raison s'appelle puissance du test[3].

Tests classiques et tests bayésiens[modifier | modifier le code]

Pour les tests classiques qui constituent l'essentiel des tests statistiques, ces deux erreurs jouent un r√īle asym√©trique. On contr√īle uniquement le risque de premi√®re esp√®ce √† un niveau \alpha (principe de Neyman) ; cela revient √† consid√©rer que le risque de rejeter l'hypoth√®se nulle alors que cette hypoth√®se est vraie est beaucoup plus co√Ľteux que celui de la conserver √† tort (ce dernier risque n'√©tant pas ma√ģtris√©).

Pour les tests bay√©siens on peut parfois pond√©rer ces deux risques gr√Ęce √† la connaissance d'une probabilit√© a priori. La connaissance de cette probabilit√© a priori est l'un des fondements de la statistique bay√©sienne et constitue l'une de ses difficult√©s majeures. Si on cherche par exemple √† tester le fait qu'un certain param√®tre \theta vaut une certaine valeur \theta_0 cette probabilit√© a priori sera une loi de probabilit√© sur \theta qui donne la probabilit√© que l'on a d'observer \theta. Cette loi a priori est √©galement appel√©e croyance a priori ou croyance bay√©sienne. Ces tests sont souvent d'une mise en Ňďuvre plus complexe que les tests statistiques: la raison principale est qu'ils n√©cessitent de "trouver" une bonne loi a priori puis de la r√©viser gr√Ęce √† la r√©vision des croyances.

Classification[modifier | modifier le code]

D'ordinaire on range les tests dans deux cat√©gories les tests param√©triques et les tests non param√©triques. Les premiers testent la valeur d'un certain param√®tre. Ces tests sont g√©n√©ralement les tests les plus simples. Les tests non param√©triques quant √† eux ne font pas intervenir de param√®tre. C'est par exemple le cas des tests d'ad√©quation √† une loi ou des Test du Ōá¬≤.

On peut √©galement distinguer les tests d'homog√©n√©it√© et les tests d'ad√©quations :

  • dans le cas d'un test d'homog√©n√©it√©, on veut comparer deux √©chantillons entre eux. L'hypoth√®se nulle H0 supposera l'homog√©n√©it√© des deux √©chantillons. Par exemple on comparera deux moyennes ;
  • dans le cas d'un test d'ad√©quation (ou conformit√©), on veut d√©terminer si un √©chantillon suit une loi statistique connue. L'hypoth√®se nulle H0 supposera l'ad√©quation de l'√©chantillon √† cette loi.

Déroulement d'un test[modifier | modifier le code]

Pour le cas sp√©cifique d'un test unilat√©ral, le test suit une succession d'√©tapes d√©finies :

  1. √©nonc√© de l'hypoth√®se nulle H0 et de l'hypoth√®se alternative H1 ;
  2. calcul d'une variable de d√©cision correspondant √† une mesure de la distance entre les deux √©chantillons dans le cas de l'homog√©n√©it√©, ou entre l'√©chantillon et la loi statistique dans le cas de l'ad√©quation (ou conformit√©). Plus cette distance sera grande et moins l'hypoth√®se nulle H0 sera probable. En r√®gle g√©n√©rale, cette variable de d√©cision se base sur une statistique qui se calcule √† partir des observations. Par exemple, la variable de d√©cision pour un test unilat√©ral correspond √† rejeter l'hypoth√®se nulle si la statistique d√©passe une certaine valeur fix√©e en fonction du risque de premi√®re esp√®ce ;
  3. calcul de la probabilit√©, en supposant que H0 est vraie, d'obtenir une valeur de la variable de d√©cision au moins aussi grande que la valeur de la statistique que l'on a obtenue avec notre √©chantillon. Cette probabilit√© est appel√©e la valeur p (p-value) ;
  4. conclusion du test, en fonction d'un risque seuil őĪseuil, en dessous duquel on est pr√™t √† rejeter H0. Souvent, un risque de 5 % est consid√©r√© comme acceptable (c'est-√†-dire que dans 5 % des cas quand H0 est vraie, l'exp√©rimentateur se trompera et la rejettera). Mais le choix du seuil √† employer d√©pendra de la certitude d√©sir√©e et de la vraisemblance des alternatives ;
  5. si la valeur p est plus grande que \alpha, le test est non concluant, ce qui revient à dire que l'on ne peut rien affirmer. Si la valeur p est plus petite que \alpha on rejette l'hypothèse nulle.

La probabilit√© pour que H0 soit accept√©e alors qu'elle est fausse est ő≤, le risque de deuxi√®me esp√®ce. C'est le risque de ne pas rejeter H0 quand on devrait la rejeter. Sa valeur d√©pend du contexte, et peut √™tre tr√®s difficilement √©valuable (voire impossible √† √©valuer) : c'est pourquoi seul le risque őĪ est utilis√© comme crit√®re de d√©cision.

Tests classiques[modifier | modifier le code]

Article d√©taill√© : Test (statistique).

Il existe de nombreux tests statistiques classiques parmi lesquels on peut citer :

  • le test de Student, qui sert √† la comparaison d'une moyenne observ√©e avec une valeur ¬ę attendue ¬Ľ pour un √©chantillon distribu√© selon une loi normale  ;
  • le test de Fisher, aussi appel√© test de Fisher-Sn√©d√©cor, qui sert √† la comparaison de deux variances observ√©es.
  • l'Analyse de la variance ou Anova, permet de comparer entre elles plusieurs moyennes observ√©es (pour les groupes √©tudi√©s), selon un plan exp√©rimental pr√©d√©termin√©. Elle se base sur une d√©composition de la variance en une partie ¬ę explicable ¬Ľ (variance inter-groupes) et une partie ¬ę erreur ¬Ľ (variance globale intragroupe - ou variance r√©siduelle), suppos√©e distribu√©e selon une loi normale. Ce test est particuli√®rement utilis√© en sciences humaines, sciences sociales, sciences cognitives, en m√©decine et en biologie ;
  • le test du Ōá¬≤, √©galement appel√© test du \chi^2 de Pearson, qui sert notamment √† la comparaison d'un couple d'effectifs observ√©s, ou √† la comparaison globale de plusieurs couples d'effectifs observ√©s, et plus g√©n√©ralement √† la comparaison de deux distributions observ√©es ;
  • le test de Kolmogorov-Smirnov, qui comme le test du \chi^2 constitue un test d'ad√©quation entre des √©chantillons observ√©s et une distribution de probabilit√©. Il compare la fonction de r√©partition observ√©e et la fonction de r√©partition attendue. Il est particuli√®rement utilis√© pour les variables al√©atoires continues.

En inférence bayésienne, on utilise le psi-test (mesure de distance dans l'espace des possibles) dont on démontre que le test du \chi^2 représente une excellente approximation asymptotique lorsqu'il existe un grand nombre d'observations.

Notes et références[modifier | modifier le code]

  1. ‚ÜĎ Stephan Morgenthaler, Introduction √† la statistique, PPUR presses polytechniques, 2007, p.145.
  2. ‚ÜĎ Il ne s'agit pas d'accepter l'hypoth√®se nulle mais seulement de juger que les r√©sultats obtenus ne permettent pas de l'invalider.
  3. ‚ÜĎ Gilbert Saporta, Probabilit√©s, analyse des donn√©es et statistique, Technip Editions,‚Äé 1990 (ISBN 2-7108-0565-0) [d√©tail des √©ditions] Page 320.

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Articles connexes[modifier | modifier le code]

  • Plan d'exp√©rience
  • Test (statistique)
  • Test de Jarque Bera
  • Statistique math√©matique

Liens externes[modifier | modifier le code]

wikipediaCet article est issu de l'encyclopédie libre Wikipedia.
Vous pouvez consulter l'article ici ainsi que son historique.
Les textes et les images sont disponibles sous les termes de la Licence de documentation libre GNU.


maths - prof de maths - cours particuliers haut de pagehaut Retrouvez cette page sur ilemaths l'île des mathématiques
© Tom_Pascal & Océane 2014