Loi du χ²
Modèle:Autre Modèle:Infobox/Début Modèle:Infobox/Titre Modèle:Infobox/Image Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Notice Modèle:Infobox/Fin{\Gamma(k/2)} x^{k/2 - 1} {\rm e}^{-x/2}\,</math> où <math>\Gamma</math> est la fonction gamma | cdf = <math>\frac{\gamma(k/2,x/2)}{\Gamma(k/2)}\,</math> où <math>\gamma</math> est la fonction gamma incomplète | mean = <math>k\,</math> | median = <math>\approx k-2/3\,</math> | mode = <math>k-2\,</math> si <math>k\geq 2\,</math> | variance = <math>2\,k\,</math> | skewness = <math>\sqrt{8/k}\,</math> | kurtosis = <math>\frac{12}{k}\,</math> | entropy = <math>\frac{k}{2}\!+\!\ln(2\Gamma(k/2))\!+\!(1\!-\!k/2)\psi(k/2)</math> | mgf = <math>(1-2\,t)^{-k/2}</math> pour <math>2\,t<1\,</math> | char = <math>(1-2\,i\,t)^{-k/2}\,</math> }}
En statistiques et en théorie des probabilités, la loi du Modèle:Formule centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes.
La loi du Modèle:Formule est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ².
La loi du χ² non centrée généralise la loi du Modèle:Formule.
Définition et caractéristiques
Définition
Soient k variables aléatoires Modèle:Math indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale <math>\mathcal N(0, 1)</math> de moyenne 0 et d'écart-type 1. Alors par définition la variable Modèle:Mvar définie par
- <math>X:=\sum_{i=1}^k X_i^2</math>
suit une loi du Modèle:Math à k degrés de liberté. La loi de Modèle:Mvar est notée Modèle:MathModèle:Référence nécessaire ou Modèle:Math.
Caractéristiques
La densité de probabilité de Modèle:Mvar notée Modèle:Mvar est :
- <math>f_X(x; k)=\frac{1}{2^\frac{k}{2}\Gamma(\frac{k}{2})} x^{\frac{k}{2} - 1} {\rm e}^{-\frac{x}{2}}\,</math> pour tout x positif
où Modèle:Math est la fonction gamma<ref>La loi de X est un cas particulier de loi plus générale dite loi Gamma.</ref>.
Sa fonction de répartition est :
- <math> F_X(x;\,k) = \frac{\gamma(\frac{k}{2},\,\frac{x}{2})}{\Gamma(\frac{k}{2})}</math> où <math>\gamma(s,t)</math> est la fonction gamma incomplète.
Approximation
Conformément au théorème central limite, lorsque k est « grand » (k > 100<ref>Modèle:Article</ref>), la loi d'une variable de Modèle:Math, somme de variables aléatoires indépendantes, peut être approchée par une loi normale d'espérance k et de variance 2k.
D'autres fonctions en Modèle:Math peuvent converger plus rapidement vers la loi normale, notamment en ayant Modèle:Math et Modèle:Math :
- Modèle:Racine – Modèle:Racine peut être approchée par une loi normale centrée réduite (approximation de Ronald Aylmer Fisher<ref>Modèle:Ouvrage</ref>).
- Modèle:Racine peut être approchée par une loi normale de moyenne Modèle:Math et de variance Modèle:Sfrac (approximation de Wilson et Hilferty, 1931<ref>Modèle:Ouvrage</ref>).
- Modèle:Racine peut être approchée par <math display=inline> - 1,37266 + 1,06807\sqrt{k} + (2,13161 -0,0458\sqrt{k})\sqrt{-\log_{10}(\alpha)}</math> (approximation de Hoaglin<ref>Modèle:Article</ref>).
Utilisation
Modèle:Section vide ou incomplète Cette loi est principalement utilisée dans le test du χ2 basé sur la loi multinomiale pour vérifier l'adéquation d'une distribution empirique à une loi de probabilité donnée. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).
Elle est également utilisée pour établir des intervalles de confiance concernant la variance ou l'écart-type de variables aléatoires gaussiennes.
Histoire
Cette loi a été décrite pour la première fois par le géodésiste et statisticien allemand Friedrich Robert Helmert dans des articles de 1875–6,Modèle:Sfn<ref>Modèle:Ouvrage</ref> où il a calculé la distribution d'échantillonnage de la variance de l'échantillon d'une population normale. Ainsi, en allemand, cela était traditionnellement connu sous le nom de Helmert'sche ("Helmertien") ou "distribution d'Helmert".
Cette loi a été redécouverte indépendamment par le mathématicien anglais Karl Pearson dans le contexte de la qualité de l'ajustement, pour lequel il a développé son test du χ² de Pearson, publié en 1900, avec une table calculée de valeurs publiées dans Modèle:Harv, recueillies dans Modèle:Harv. Le nom "chi-carré" dérive finalement de la sténographie de Pearson pour l'exposant dans une loi normale multidimensionnelle avec la lettre grecque Chi, écrivant Modèle:Math pour ce qui apparaîtrait dans la notation moderne comme Modèle:Math (Σ étant la matrice de covariance)<ref>Modèle:Article Voir aussi Jeff Miller, Early Known Uses of Some of the Words of Mathematics.</ref>.
L'idée d'une famille de "distributions du chi carré", cependant, n'est pas due à Pearson mais est apparue comme un développement ultérieur dû à Ronald Aylmer Fisher dans les années 1920Modèle:Sfn.
Liens avec d'autres lois
Soient Modèle:Mvar des variables aléatoires indépendantes suivant des lois normales d'espérance Modèle:Mvar et de variance Modèle:Math.
Lois | en fonction de variables de loi normale |
---|---|
loi du χ2 | <math>\sum_{i=1}^k \left(\frac{X_i-\mu_i}{\sigma_i}\right)^2</math> |
Loi du χ2 non centrée | <math>\sum_{i=1}^k \left(\frac{X_i}{\sigma_i}\right)^2</math> |
Loi inverse-χ2 | <math>\left[\sum_{i=1}^k \left(\frac{X_i-\mu_i}{\sigma_i}\right)^2\right]^{-1}</math> |
loi du χ | <math>\sqrt{\sum_{i=1}^k \left(\frac{X_i-\mu_i}{\sigma_i}\right)^2}</math> |
loi du χ non centrée | <math>\sqrt{\sum_{i=1}^k \left(\frac{X_i}{\sigma_i}\right)^2}</math> |
Si X est une variable aléatoire de loi normale centrée et réduite et Y suit une loi du Modèle:Formule à n degrés de liberté, X et Y étant indépendantes, alors <math>\frac{X}{\sqrt{Y/n}}</math> suit une loi de Student à n degrés de liberté.
Si X suit une loi du Modèle:Formule à n degrés de liberté, et Y une loi du Modèle:Formule à m degrés de liberté, et si X et Y sont indépendantes, alors <math>\frac{X/n}{Y/m}</math> suit une loi de Fisher à n et m degrés de liberté.
Table de valeurs des quantiles
Le tableau suivant fournit les valeurs de certains quantiles de la loi du Modèle:Formule pour différents degrés de liberté k. Pour chaque valeur de Modèle:Math, le quantile donné est tel que la probabilité pour qu'une variable suivant une loi de Modèle:Formule à k degrés de liberté lui soit inférieur est de Modèle:Math. Par exemple, pour Modèle:Math et k = 7, si Modèle:Mvar suit une loi de Modèle:Formule à 7 degrés de liberté, on lit dans la table que <math>\mathbb{P}(X \leqslant 14,07)=0,95.</math>
Degrés de liberté | Valeur du Modèle:Formule | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|
1 | 0.004 | 0.02 | 0.06 | 0.15 | 0.46 | 1.07 | 1.64 | 2.71 | 3.84 | 6.63 | 10.83 |
2 | 0.10 | 0.21 | 0.45 | 0.71 | 1.39 | 2.41 | 3.22 | 4.61 | 5.99 | 9.21 | 13.82 |
3 | 0.35 | 0.58 | 1.01 | 1.42 | 2.37 | 3.66 | 4.64 | 6.25 | 7.81 | 11.34 | 16.26 |
4 | 0.71 | 1.06 | 1.65 | 2.20 | 3.36 | 4.88 | 5.99 | 7.78 | 9.49 | 13.28 | 18.47 |
5 | 1.14 | 1.61 | 2.34 | 3.00 | 4.35 | 6.06 | 7.29 | 9.24 | 11.07 | 15.09 | 20.52 |
6 | 1.63 | 2.20 | 3.07 | 3.83 | 5.35 | 7.23 | 8.56 | 10.64 | 12.59 | 16.81 | 22.46 |
7 | 2.17 | 2.83 | 3.82 | 4.67 | 6.35 | 8.38 | 9.80 | 12.02 | 14.07 | 18.48 | 24.32 |
8 | 2.73 | 3.49 | 4.59 | 5.53 | 7.34 | 9.52 | 11.03 | 13.36 | 15.51 | 20.09 | 26.12 |
9 | 3.32 | 4.17 | 5.38 | 6.39 | 8.34 | 10.66 | 12.24 | 14.68 | 16.92 | 21.67 | 27.88 |
10 | 3.94 | 4.87 | 6.18 | 7.27 | 9.34 | 11.78 | 13.44 | 15.99 | 18.31 | 23.21 | 29.59 |
11 | 4.57 | 5.58 | 6.99 | 8.15 | 10.3 | 12.9 | 14.6 | 17.3 | 19.7 | 24.7 | 31.3 |
12 | 5.23 | 6.30 | 7.81 | 9.03 | 11.3 | 14.0 | 15.8 | 18.5 | 21.0 | 26.2 | 32.9 |
13 | 5.89 | 7.04 | 8.63 | 9.93 | 12.3 | 15.1 | 17.0 | 19.8 | 22.4 | 27.7 | 34.5 |
14 | 6.57 | 7.79 | 9.47 | 10.8 | 13.3 | 16.2 | 18.2 | 21.1 | 23.7 | 29.1 | 36.1 |
15 | 7.26 | 8.55 | 10.3 | 11.7 | 14.3 | 17.3 | 19.3 | 22.3 | 25.0 | 30.6 | 37.7 |
Modèle:Math | 0.05 | 0.1 | 0.2 | 0.3 | 0.5 | 0.7 | 0.8 | 0.9 | 0.95 | 0.99 | 0.999 |
Lien avec les méthodes bayésiennes
Dans son ouvrage Décisions rationnelles dans l'incertain (1974), qui constitue une somme des techniques bayésiennes dont la grande émergence se fait à cette époque, le professeur Myron Tribus montre que le Modèle:Math constitue un exemple de passage à la limite du psi-test (test de plausibilité) bayésien lorsque le nombre de valeurs en présence devient grand - ce qui est la condition de travail des statistiques classiques, mais pas nécessairement des bayésiennes. Le raccord entre les deux disciplines, qui sont asymptotiquement convergentes, est ainsi complet.
L'ouvrage de référence de Jaynes en donne également une démonstration en page 287<ref>Introduction du livre</ref>.
Voir aussi
Articles connexes
Notes et références
Bibliographie
- H. O. Lancaster (1969) The Chi-squared Distribution, New York: Wiley.