Test statistique

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}

Modèle:Voir homonymes En statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données.

Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées.

Hypothèses du test

Modèle:Article détaillé

Définitions

L'hypothèse nulle notée Modèle:Math est celle que l'on considère vraie a priori. L’hypothèse <math>H_0</math> est donc privilégiée et il faut des observations très éloignées de cette hypothèse pour la rejeter. Le but du test est de décider si cette hypothèse <math>H_0</math> est a priori crédible. L'hypothèse alternative notée Modèle:Math est l'hypothèse complémentaire à l'hypothèse nulle.

Ces deux hypothèses ne sont toutefois pas symétriques. Modèle:Math est choisie uniquement par défaut si Modèle:Math n'est pas considérée comme crédible, <math>H_0</math> étant l'hypothèse dont le rejet à tort est le plus préjudiciable. Le choix de Modèle:Math et de Modèle:Math est en général imposé par le test que l'on utilise et ne relève donc pas de l'utilisateur.

Écriture des hypothèses : exemple

Soit Modèle:Math et Modèle:Math les moyennes de tension artérielle de deux populations, l'une correspondant à la prise de médicaments et l'autre de placebo. Une manière de démontrer qu'un médicament modifie la tension artérielle est de montrer que Modèle:Math est différent de Modèle:Math. Les hypothèses du test deviennent alors

Modèle:Math : les moyennes des deux populations sont égales
Modèle:Math : les moyennes des deux populations sont différentes.

On l'écrit succinctement sous la forme :

<math>H_0 : \, {\mu}_1 = {\mu}_2</math>
<math>H_1: \,{\mu}_1 {\neq} {\mu}_2</math>

Toutefois les signes Modèle:Math, Modèle:Math, Modèle:Math et Modèle:Math dans l'écriture succincte des hypothèses ne correspond pas à l'égalité ou aux inégalités au sens mathématique du terme. Il s'agit d'une façon d'écrire :

Modèle:Math : Il est crédible de penser que Modèle:Math
Modèle:Math : Modèle:Math est significativement différente de Modèle:Math

Cependant, il convient également de faire attention aux fluctuations d'échantillonnage. En effet, lors de la réalisation d'un test on utilise le plus souvent des échantillons pour effectuer les calculs. On utilisera donc les moyennes <math>\overline{x_1}</math> et <math>\overline{x_2}</math> calculées à partir des échantillons et qui ne sont donc que des estimations de Modèle:Math et Modèle:Math (voir taille d'effet).

Statistique du test

Modèle:Article détaillé

La statistique de test Modèle:Mvar est une fonction qui résume l'information sur l'échantillon que l'on souhaite tester. On la choisit de façon à connaître sa loi sous Modèle:Math.

Modèle:Mvar est une variable aléatoire, définie indépendamment des données observées. La valeur que prend cette variable aléatoire pour les données observées est appelée statistique observée et est notée Modèle:Math dans la suite de l'article.

Suivant le type de statistique choisi, le test sera paramétrique ou non paramétrique.Modèle:Quoi

Construction d'un test

La construction mathématique d'un test se fait grâce au lemme de Neyman-Pearson et nous donne la forme de la région de rejet.

Région de rejet et latéralité

La région de rejet est le sous-ensemble Modèle:Mvar de <math>{ \R}</math> tel qu'on rejette Modèle:Math si Modèle:Math appartient à Modèle:Mvar. La forme de la région de rejet définit la latéralité du test :

  • Test bilatéral : On veut rejeter Modèle:Math si Modèle:Math est trop grand ou trop petit, sans a priori. La région de rejet est alors de la forme <math>]-{\infty};a]{\cup}[b;+{\infty}[</math>.
  • Test unilatéral à droite : On veut rejeter Modèle:Math seulement si Modèle:Math est trop grand. La région de rejet est alors de la forme <math>[a;+{\infty}[</math>.
  • Test unilatéral à gauche : On veut rejeter Modèle:Math seulement si Modèle:Math est trop petit. La région de rejet est alors de la forme <math>]-{\infty};b]</math>.

Probabilité critique

Modèle:Article détaillé

La probabilité critique (ou valeur p) est la probabilité, sous Modèle:Math, que la statistique soit au moins aussi éloignée de son espérance que la valeur observée. En d'autres termes, c'est la probabilité d'observer quelque chose d'au moins aussi surprenant que ce que l'on observe.

Erreur de type I et II

Risque de première espèce et confiance

Le risque de première espèce Modèle:Mvar est la probabilité sous Modèle:Math de la région de rejet. En d'autres termes, il s'agit de la probabilité que l'on accepte de décider Modèle:Math si la vérité est Modèle:Math.

<math>{\alpha}=P_{H_0}(H_1)</math>

La quantité Modèle:Math est la confiance du test. En d'autres termes, une proportion Modèle:Mvar des situations dans lesquelles la vérité est Modèle:Math verront une décision du test en faveur de Modèle:Math. Modèle:Mvar est la probabilité avec laquelle on accepte de se tromperModèle:Sur quoi quand la vérité est Modèle:MathModèle:Pas clair.

On peut comparer la valeur p à Modèle:Mvar plutôt que Modèle:Math et la région de rejetModèle:Pas clair.

Cette méthode possède l'avantage de permettre de se rendre compte à quel point la décision du test est sûre : la position de la valeur p par rapport à Modèle:Mvar ne dépend pas de l'échelle des données, contrairement à Modèle:Math et au(x) seuil(s) de la région de rejet.

Les valeurs du risque Modèle:Mvar couramment utilisées varient généralement entre 0,01 et 0,05. Dans le cas de variables continues, on peut choisir une valeur arbitraire de Modèle:Mvar et obtenir une région de rejet présentant exactement le risque Modèle:Mvar. Dans le cas de variables discrètes, le nombre de région de rejet, et donc de risques possibles, est fini et dénombrable. Dans ce cas, on fixe un risque, dit risque nominal par exemple de 5 %. On cherche alors la plus grande région ne dépassant pas ce risque, qui devient alors la région de rejet. Le véritable risque, dit risque réel peut alors être recalculé.

Risque de deuxième espèce et puissance

Le risque de deuxième espèce Modèle:Mvar est la probabilité de ne pas rejeter Modèle:Math alors que la vérité est Modèle:Math. Il s'agit d'un risque qui n'est pas fixé a priori par le test, et il est souvent difficile à estimer. On prend ce risque lorsqu'on accepte l'hypothèse Modèle:Math.

<math>{\beta}=P_{H_1}(H_0)</math>

La quantité Modèle:Math est la puissance du test<ref>Modèle:Saporta, page 320.</ref>.


Choix de Modèle:Mvar et Modèle:Mvar

Pour se représenter ces différentes notions, on peut les représenter au travers du tableau suivant :

Tableau permettant de différencier les deux types de risques.
Tableau permettant de différencier les deux types de risques.

Le choix de Modèle:Mvar et de Modèle:Mvar se fait de façon assez arbitraire car si l'on cherche à en diminuer un l'autre va automatiquement augmenter. On définit généralement le risque Modèle:Mvar de façon arbitraire et la valeur du risque Modèle:Mvar s'ajuste automatiquement. Ce choix détermine alors une valeur seuil (notée Modèle:Mvar sur le schéma) qui représente la valeur de bascule pour la statistique du test entre les deux décisions (rejet ou non-rejet de Modèle:Math). Le graphique suivant tente de représenter visuellement ces risques, la courbe noire représente la loi ici normale de la statistique du test sous l'hypothèse Modèle:Math et la courbe bleue représente la loi ici normale de la statistique du test sous l'hypothèse Modèle:Math.

Graphique représentant les deux risques.
Graphique représentant les deux risques.

Si l'échantillon reste inchangé, une diminution de Modèle:Mvar entraîne une augmentation de Modèle:Mvar et inversement. Autrement dit, si on décide de réduire le nombre de faux positifs, on augmente le nombre de faux négatifs. La seule manière d'améliorer les deux critères est d'augmenter la taille de l'échantillon.

Courbe de puissance

Pour déterminer la puissance d'un test, il faut connaître la loi de la statistique Modèle:Mvar sous Modèle:Math, ce qui n'est généralement pas le cas. On recourt alors à des courbes de puissance qui sont des courbes pour lesquelles la puissance est calculée pour des valeurs données des paramètres du problème ou de la taille de l'échantillon. On ne sait pas où se situe la situation réelle sur cette courbe mais on y lit la probabilité de détecter Modèle:Math en fonction de son « éloignement » de Modèle:Math.

Tests classiques et tests bayésiens

Pour les tests classiques qui constituèrent longtempsModèle:Quand l'essentiel des tests statistiques, ces deux erreurs jouent un rôle asymétrique. On contrôle uniquement le risque de première espèce à un niveau Modèle:Mvar (principe de Neyman) ; cela revient à considérer que le risque de rejeter l'hypothèse nulle alors que cette hypothèse est vraie est beaucoup plus coûteux que celui de la conserver à tort (ce dernier risque n'étant pas maîtrisé).

Les tests bayésiens, qui commencent à compléter les méthodes classiques dans les années 1970 à mesure que se répandent les ordinateurs, pondèrent ces deux risques en représentant par une loi la connaissance incertaine de cette probabilité. Si on cherche par exemple à tester le fait qu'un certain paramètre Modèle:Mvar vaut une certaine valeur Modèle:Math cette probabilité a priori sera une loi de Modèle:Mvar sur son domaine de plausibilité. Cette loi a priori modélise l'incertitude admise sur sa valeur. Les tests correspondants utilisent en coulisses des calculs plus complexes, mais sans difficulté de mise en œuvre supplémentaire quand ils sont effectués par des sous-programmes. Ils nécessitent de choisir une loi a priori, répondant aux contraintes connues, parmi celles d'entropie maximale puis de l'affiner à mesure des observations en la mettant à jour par la règle de Bayes (voir Théorème de Cox-Jaynes). Leur mérite essentiel est de permettre la consolidation d'informations minuscules apportés par un grand nombre d'échantillons hétéroclites qui auraient chacun été considéré comme non significatif par les méthodes classiques. Cette consolidation permet d'obtenir des résultats utiles à partir d'observations très ténues. On l'utilise par exemple en cassage de codes, en analyse d'image et en reconnaissance vocale, ainsi qu'en deep learning.

Tests paramétriques et non paramétriques

Définitions

Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous Modèle:Math (loi normale, loi de Poisson...); Les hypothèses du test concernent alors les paramètres de cette loi.

Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données. Modèle:Pas clair

Comment choisir ?

Les tests paramétriques, quand leur utilisation est justifiée, sont en général plus puissants que les tests non paramétriques. Les tests paramétriques reposent cependant sur l'hypothèse forte que l'échantillon considéré est tiré d'une population suivant une loi appartenant à une famille donnée. Il est possible de s'en affranchir pour des échantillons suffisamment grands en utilisant des théorèmes asymptotiques tels que le théorème central limite. Les tests non paramétriques sont cependant à préférer dans de nombreux cas pratiques pour lesquels les tests paramétriques ne peuvent être utilisés sans violer les postulats dont ils dépendent (notamment dans le cas d'échantillons trop petits c'est-à-dire, par convention, quand l'effectif de l'échantillon est inférieur à 30). Les données sont également parfois récupérées sous forme de rangs et non de données brutes. Seuls les tests non paramétriques sont alors applicables.

Lorsque les données sont quantitatives, les tests non paramétriques transforment les valeurs en rangs. L’appellation « tests de rangs » est souvent rencontrée. Lorsque les données sont qualitatives, seuls les tests non paramétriques sont utilisables. La distinction paramétrique – non paramétrique est essentielle. Elle est systématiquement mise en avant dans la littérature. Les tests non paramétriques, en ne faisant aucune hypothèse sur les lois des données, élargissent le champ d’application des procédures statistiques. En contrepartie, ils sont moins puissants lorsque ces hypothèses sont compatibles avec les données.

Efficacité relative asymptotique

Modèle:Article détaillé

On fixe une confiance Modèle:Math, une puissance Modèle:Math. Soit <math>H_k</math> une suite d'hypothèses alternatives (se rapprochant de Modèle:Math) et Modèle:Math et Modèle:Math les tailles d'échantillons pour que Modèle:Math et Modèle:Math (deux tests statistiques) aient la même puissance Modèle:Math sous l'hypothèse <math>H_{\|}</math>. Sous certaines conditions, le quotient <math>\frac{n_{2k}}{n_{1k}}\,</math> tend vers une constance, que l'on nomme efficacité relative asymptotique (ou ERA), quand Modèle:Mvar tend vers l'infini.

Une ERA de 2 signifie que pour détecter la même différence, il faut asymptotiquement des échantillons deux fois plus grands pour Modèle:Math que pour Modèle:Math pour obtenir la même puissance, cela implique que Modèle:Math est plus « efficace ». Cette mesure est asymptotique mais en pratique, l'efficacité pour des petits échantillons se révèle souvent proche de l'efficacité asymptotique.

Considérons l'exemple où Modèle:Math est le test du signe pour Modèle:Math : Modèle:Math et Modèle:Math est le test t pour Modèle:Math : Modèle:Math, dans le cas de lois symétriques. On peut montrer que l'ERA est de Modèle:Sfrac (donc inférieure à 1) pour des lois normales et supérieure à 1 pour d'autres lois comme les doubles exponentielles ou les lois de Laplace. Même en cas de validité des tests paramétriques, les tests non paramétriques peuvent donc être concurrentiels, d'autant plus que la puissance de calcul des ordinateurs actuels permet maintenant leur utilisation sur de grands échantillons.

Notions de sensibilité et de spécificité

Modèle:Article détaillé

Distinctions préalables

On distingue quatre types de données : les faux positifs, les faux négatifs, les vrais positifs et les vrais négatifs. Ces quatre types se recoupent avec les notions décrites précédemment que sont le risque Modèle:Mvar, le risque Modèle:Mvar, la puissance et la confiance.

Un vrai positif est un test qui a conduit à la décision d'accepter l'hypothèse Modèle:Math quand cette dernière était effectivement vraie. Un vrai négatif est un test qui a conduit à la décision de ne pas accepter l'hypothèse Modèle:Math quand cette dernière était effectivement fausse. À l'inverse, un faux positif est un test qui a conduit à la décision d'accepter l'hypothèse Modèle:Math alors que cette dernière était fausse et un faux négatif est un test qui a conduit à la décision de ne pas accepter l'hypothèse Modèle:Math alors que cette dernière était vraie. Ces notions sont très utilisées dans le cadre d'études épidémiologiques.

Sensibilité et spécificité

La sensibilité d'un test désigne la probabilité que le test conclu à une acceptation de Modèle:Math si cette dernière est vraie. Elle est donnée par <math>\frac{\text{VP}}{\text{VP}+\text{FN}}</math>. En épidémiologie, la sensibilité d'un test est sa capacité à identifier un individu comme étant malade si la maladie est effectivement présente.

La spécificité d'un test désigne la probabilité que le test conclu à un rejet de Modèle:Math si cette dernière est fausse. Elle est donnée par <math>\frac{\text{VN}}{\text{VN}+\text{FP}}</math>. En épidémiologie, la spécificité d'un test est sa capacité à identifier un individu comme n'étant pas malade si la maladie n'est effectivement pas présente.

Mises ensemble, ces deux valeurs donnent une appréciation de la validité du test. Leur analyse séparée est inutile car un test ayant une sensibilité de 95 % n'est pas très bon si sa spécificité n'est que de 5 %. Si la somme de la sensibilité et de la spécificité vaut 100 % cela signifie que le test est sans intérêt. De plus, les valeurs de sensibilité et de spécificité d'un test dépendent beaucoup de la valeur seuil choisie. En effet, à l'instar des risques Modèle:Mvar et Modèle:Mvar, la sensibilité d'un test diminue quand sa spécificité augmente et inversement. Il convient donc également de choisir la valeur seuil selon l'utilisation que l'on désire faire du test. Un test très sensible sera utile pour vérifier que Modèle:Math est vraie par exemple.

Valeur prédictive positive et valeur prédictive négative

La valeur prédictive positive est la probabilité que Modèle:Math soit vraie lorsque le test conclu à son acceptation. Elle est donnée par <math>\frac{\text{VP}}{\text{VP}+\text{FP}}</math>.

La valeur prédictive négative est la probabilité que Modèle:Math soit fausse lorsque le test conclu à son rejet. Elle est donnée par <math>\frac{\text{VN}}{\text{VN}+\text{FN}}</math>.

Cependant, ces calculs sont valides uniquement si l'échantillon sur lequel est réalisé le test est représentatif de la population (cf Échantillonnage). Ainsi, pour une même sensibilité et spécificité, la valeur prédictive négative d'un test donné va s'améliorer d'autant que la probabilité que Modèle:Math soit vraie est faible et la valeur prédictive positive du même test va s'améliorer d'autant que la probabilité que Modèle:Math soit vraie est élevée. Pour calculer les valeurs prédictives d'un test lorsque la représentativité de l'échantillon n'est pas certaine, on utilise des formulations reposant sur le théorème de Bayes, en utilisant la sensibilité et la spécificité calculées sur l'échantillon et la prévalence de l'affection à diagnostiquer. Lorsqu’un test a une bonne valeur prédictive positive, c’est surtout quand son résultat est positif qu’il est fiable. De la même manière, un test avec une bonne valeur prédictive négative est fiable lorsque son résultat est négatif. Par exemple, un test avec une bonne valeur prédictive négative et une mauvaise valeur prédictive positive donne une information valable s’il est négatif mais est difficile à interpréter si son résultat est positif.

Tableau récapitulatif

Tableau permettant de différencier les quatre types de tests
Tableau permettant de différencier les quatre types de tests

Courbe ROC

Modèle:Article détaillé

Fichier:Roccurves.png
La courbe ROC de trois estimateurs d'épitope.

La courbe ROC<ref>Cette abréviation d’origine anglophone reste la plus couramment employée, y compris dans l'univers scientifique francophone.</ref> est une représentation graphique qui vise à mettre en lumière la « performance » d'un test. On l'appelle également courbe de performance ou courbe sensibilité/spécificité. En abscisses de ce graphique on place l'anti-spécificité (c'est-à-dire 1-spécificité) aussi appelée « taux de faux positifs » et en ordonnées on place la sensibilité aussi appelée « taux de vrais positifs ». Cette courbe permet de comparer 2 tests entre eux ou bien de chercher les valeurs de sensibilité et de spécificité optimales (c'est-à-dire le moment où les 2 valeurs sont maximisées).

Déroulement d'un test

Pour le cas spécifique d'un test unilatéral, le test suit une succession d'étapes définies :

  1. énoncé de l'hypothèse nulle Modèle:Math et de l'hypothèse de remplacement Modèle:Math ;
  2. calcul d'une statistique de test (variable de décision) correspondant à une mesure de la distance entre les deux échantillons dans le cas de l'homogénéité, ou entre l'échantillon et la loi statistique dans le cas de l'adéquation (ou conformité). Plus cette distance sera grande et moins l'hypothèse nulle Modèle:Math sera probable. En règle générale, cette variable de décision s'appuie sur une statistique qui se calcule à partir des observations. Par exemple, la variable de décision pour un test unilatéral correspond à rejeter l'hypothèse nulle si la statistique dépasse une certaine valeur fixée en fonction du risque de première espèce ;
  3. calcul de la probabilité, en supposant que Modèle:Math est vraie, d'obtenir une valeur de la variable de décision au moins aussi grande que la valeur de la statistique que l'on a obtenue avec notre échantillon. Cette probabilité est appelée la valeur p (p-value) ;
  4. conclusion du test, en fonction d'un risque seuil αseuil, en dessous duquel on est prêt à rejeter Modèle:Math. Souvent, un risque de 5 % est considéré comme acceptable (c'est-à-dire que dans 5 % des cas quand Modèle:Math est vraie, l'expérimentateur se trompera et la rejettera). Mais le choix du seuil à employer dépendra de la certitude désirée et de la vraisemblance des autres choix ;
  5. si la valeur p est plus petite que Modèle:Mvar, on rejette l'hypothèse nulle ;
  6. si la valeur p est plus grande que Modèle:Mvar, on peut utiliser la puissance Modèle:Math, si elle est grande, on accepte Modèle:Math ; sinon le test est non concluant, ce qui revient à dire que l'on ne peut rien affirmer.

La probabilité pour que Modèle:Math soit acceptée alors qu'elle est fausse est β, le risque de deuxième espèce. C'est le risque de ne pas rejeter Modèle:Math quand on devrait la rejeter. Sa valeur dépend du contexte, et peut être très difficilement évaluable (voire impossible à évaluer) : c'est pourquoi le risque α est principalement utilisé comme critère de décision, on n'accepte que très rarement Modèle:Math et la plupart du temps on conclut à un test non concluant si on ne rejette pas Modèle:Math.

Le résultat d'un test comprend toujours une dose d'incertitude : on ne sait jamais si on a pris la bonne décision. La valeur p permet d'avoir une vision plus fine que sa simple comparaison avec Modèle:Mvar. En effet, plus elle est petite, plus l'évènement observé est surprenant sous Modèle:Math. Ainsi pour Modèle:Math, des valeurs p de 10Modèle:-6 et de 0,035 impliquent le rejet de Modèle:Math mais avec des degrés de certitudes différents concernant la décision.

Catégories des tests

Les tests peuvent être classés selon leur finalité, le type et le nombre des variables d’intérêt, l’existence d’hypothèses a priori sur les lois des données, le mode de constitution des échantillons.

Les tests selon leur finalité

La finalité définit l’objectif du test, les hypothèses que l’on veut opposer, l’information que l’on souhaite extraire des données.

Le test de conformité consiste à confronter un paramètre calculé sur l’échantillon à une valeur préétablie. On parle alors de test de conformité à un standard. Les plus connus sont certainement les tests portant sur la moyenne ou sur les proportions. Par exemple, dans un jeu de dés à six faces, on sait que la face 3 a une probabilité de 1/6 d’apparaître. On demande à un joueur de lancer (sans précautions particulières) 100 fois le dé, on teste alors si la fréquence d’apparition de la face 3 est compatible avec la probabilité 1/6. Si ce n’est pas le cas, on peut se poser des questions sur l’intégrité du dé.

Le test d’adéquation (ou d'ajustement) consiste à vérifier la compatibilité des données avec une loi choisie a priori. Le test le plus utilisé dans cette optique est le test d’adéquation à la loi normale. On peut également tester la compatibilité des données avec une famille (paramétrée) de lois.

Le test d’homogénéité (ou de comparaison) consiste à vérifier que Modèle:Mvar échantillons (groupes) proviennent de la même population. Ou, cela revient à la même chose, que la loi de la variable d’intérêt est la même dans les Modèle:Mvar échantillons.

Le test d’association (ou d’indépendance) consiste à éprouver l’existence d’une liaison entre deux variables. Les techniques utilisées diffèrent selon que les variables sont qualitatives nominales, ordinales ou quantitatives.

Les tests selon le type et le nombre de variables

On distingue généralement trois principaux types de variables. Une variable qualitative nominale prend un nombre restreint de valeurs (modalités), il n’y a pas d’ordre entre ces valeurs, l’exemple le plus connu est le sexe, il y a deux valeurs possibles, homme et femme. Une variable qualitative ordinale prend un nombre restreint de valeurs, il y a un ordre entre les valeurs. Un exemple naturel est la préférence ou la satisfaction : peu satisfait, satisfait, très satisfait. Il y a un ordre naturel entre les valeurs, mais nous ne pouvons pas quantifier les écarts. Enfin, une variable quantitative prend théoriquement un nombre infini de valeurs, l’écart entre deux valeurs a un sens. Un exemple simple serait le poids, la différence de poids entre deux personnes est quantifiable, on sait l’interpréter.

Le type de données joue un rôle très important. Il circonscrit le cadre d’application des techniques. Pour un même objectif, selon le type de données, nous serons amenés à mettre en œuvre des tests différents. Par exemple, pour mesurer l’association entre deux variables : si elles sont quantitatives, nous utiliserons plutôt le coefficient de corrélation de Pearson ; si elles sont qualitatives nominales, ce coefficient de corrélation n’a pas de sens, on utilisera plutôt le coefficient de corrélation de Spearman, ou des mesures telles que le V de Cramer ou le t de Tschuprow.

Principalement concernant les tests de conformité et d’homogénéité, on dit que le test est univarié s’il ne porte que sur une variable d’intérêt (ex. comparer la consommation de véhicules selon le type de carburant utilisé), il est multivarié s’il met en jeu simultanément plusieurs variables (ex. la comparaison porte sur la consommation, la quantité de CO2 émise, la quantité de particules émises, etc.).

Constitution des échantillons

Ce point est surtout associé aux tests de comparaison. On parle d’échantillons indépendants lorsque les observations sont indépendantes à l’intérieur des groupes et d’un groupe à l’autre. C’est le cas lorsque l’échantillon provient d’un échantillonnage simple dans la population globale.

Les échantillons appariés en revanche reposent sur un schéma différent. D’un groupe à l’autre, les individus sont liés. C’est le cas lorsque nous procédons à des mesures répétées sur les mêmes sujets. Par exemple, on mesure la fièvre d’un patient avant et après la prise d’un médicament. L’appariement est une procédure complexe qui va au-delà des mesures répétées (ex. les blocs aléatoires complets), elle vise à améliorer la puissance des tests en réduisant l’influence des fluctuations d’échantillonnage.

Tests classiques

Modèle:Article détaillé

Il existe de nombreux tests statistiques classiques parmi lesquels on peut citer :

  • le test de Student, qui sert à la comparaison d'une moyenne observée avec une valeur « attendue » pour un échantillon distribué selon une loi normale ;
  • le test de Fisher, aussi appelé test de Fisher-Snédécor, qui sert à la comparaison de deux variances observées ;
  • l'analyse de la variance ou ANOVA, permet de comparer entre elles plusieurs moyennes observées (pour les groupes étudiés), selon un plan expérimental prédéterminé. Elle se fonde sur une décomposition de la variance en une partie « explicable » (variance inter-groupes) et une partie « erreur » (variance globale intragroupe — ou variance résiduelle), supposée distribuée selon une loi normale. Ce test est particulièrement utilisé en sciences humaines, sciences sociales, sciences cognitives, en médecine et en biologie ;
  • le test du χ², également appelé test du Modèle:Math de Pearson, qui sert notamment à la comparaison d'un couple d'effectifs observés, ou à la comparaison globale de plusieurs couples d'effectifs observés, et plus généralement à la comparaison de deux lois observées ;
  • le test de Kolmogorov-Smirnov, qui comme le test du Modèle:Math constitue un test d'adéquation entre des échantillons observés et une loi de probabilité. Il compare la fonction de répartition observée et la fonction de répartition attendue. Il est particulièrement utilisé pour les variables aléatoires continues.

En inférence bayésienne, on utilise le psi-test (mesure de distance dans l'espace des possibles) dont on démontre que le test du <math>\chi^2</math> représente une excellente approximation asymptotique lorsqu'il existe un grand nombre d'observations.

Notes et références

Modèle:Crédit d'auteurs Modèle:Références

Voir aussi

Bibliographie

Modèle:Légende plume

Articles connexes

Liens externes

Modèle:Autres projets

Modèle:Palette Modèle:Portail