Variance (mathématiques)

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}

Modèle:Voir homonymes

Fichier:Comparison standard deviations.svg
Exemple d'échantillons pour deux populations ayant la même moyenne mais des variances différentes. La population en rouge a une moyenne de 100 et une variance de 100 (écart-type = SD = standard deviation = 10). La population en bleu a une moyenne de 100 et une variance de 2 500 (écart-type = SD = 50).

En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire. Elle exprime la moyenne des carrés des écarts à la moyenne, aussi égale à la différence entre la moyenne des carrés des valeurs de la variable et le carré de la moyenne, selon le théorème de König-Huygens. Ainsi, plus l'écart à la moyenne est grand plus il est prépondérant dans le calcul total (voir la fonction carré) de la variance qui donnerait donc une bonne idée sur la dispersion des valeurs.

La variance est toujours positive, et ne s’annule que s’il n’y a essentiellement qu’une seule valeur. Sa racine carrée définit l’écart type σ, d’où la notation <math>\sigma^2 = V = \mathbb{V}(X) = \mathrm{Var(X)}</math>.

La variance est quadratique et invariante par translation. Elle peut être estimée à l’aide d’un échantillon et de la moyenne empirique ou déterminée grâce à l’espérance si celle-ci est connue.

La variance apparait comme un cas particulier de covariance. Elle se généralise aussi pour des vecteurs aléatoires.

Pour une série statistique

Formules

Étant donné une série statistique d’une variable réelle Modèle:Math, dont on a calculé la moyenne <math>\overline{x} = \frac{1}{n}\sum_{i=1}^n x_i</math>, la variance est la moyenne des carrés des écarts à cette moyenne :

<math>V = \frac{1}{n}\sum_{i=1}^n \left(x_i - \overline{x}\right)^2</math>.

Un développement du carré mène à la reformulation suivante<ref>Modèle:Lien web</ref> :

<math>V = \left(\frac{1}{n}\sum_{i=1}^n x_i^2 \right) - \overline{x}^2</math>,

autrement dit la variance est la différence entre la moyenne des carrés et le carré de la moyenne.

Quand la série prend les valeurs Modèle:Math avec les fréquences Modèle:Math, sa variance est :

<math>V = \sum_{i=1}^n f_i\left(x_i-\overline{x}\right)^2 =\left(\sum_{i=1}^n f_i x_i^2\right) - \overline{x}^2 .</math>

La variance est un indicateur de dispersion des valeurs, c’est-à-dire qu’elle est toujours positive, ne s’annule que pour une série statistique dont tous les termes ont la même valeur, elle est d’autant plus grande que les valeurs sont étalées, et invariante par ajout d’une constante. Son calcul peut sembler plus compliqué que celui d’autres indicateurs de dispersion, comme l’écart interquartile ou l’écart absolu moyen, mais contrairement à ces derniers, elle est cumulative : si on rassemble Modèle:Mvar séries statistiques en une seule, la variance globale peut être calculée à partir de l’effectif Modèle:Mvar, la variance Modèle:Mvar et la moyenne <math>\overline{x}_i</math> de chaque série initiale par la formule

<math>V = \frac{1}{N}\sum_{i=1}^k n_i (V_i + (\overline{x} - \overline{x}_i)^2)</math>

où <math>N = \sum_{i=1}^k n_i</math> est l’effectif total et <math>\overline{x} = \frac{1}{N}\sum_{i=1}^k n_i\overline{x}_i</math>, est la moyenne globale. Autrement dit, la variance globale est la somme de la variance des moyennes et de la moyenne des variances, même si cette deuxième composante est souvent négligée.

Transformation affine

Si on applique une fonction affine <math>f : x \mapsto ax+b</math> aux termes d’une série statistique Modèle:Math, la variance est multipliée par Modèle:Math. Autrement dit, la variance est homogène de degré 2 et invariante par translation.

Calcul itératif

Le calcul effectif de la variance pour une série statistique ne repose pas sur la traduction directe des formules ci-dessus, sauf pour le calcul à la main sur de petites séries. On utilise plutôt un algorithme itératif qui améliore la précision<ref name=Saporta5 group="alpha">Modèle:Harvsp</ref> :

c = 0
s = x1
pour j de 2 à n
  s = s+xj
  c = c+(j xj − s)2/(j(j−1))
renvoyer c/n

Modèle:Article détaillé

Pour une variable aléatoire réelle

Expression

Étant donné une variable aléatoire réelle Modèle:Mvar admettant une espérance <math>\mathbb{E}(X)</math>, la variance<ref name=Saporta25 group="alpha">,Modèle:Harvsp</ref> est le moment centré d’ordre 2 : <math>\mathbb{V}(X) = \mathbb{E}\left[(X-\mathbb{E}(X))^2\right]</math>. La formule de Koenig-Huygens donne l’expression équivalente <math>\mathbb{V}(X) = \mathbb{E}(X^2)-(\mathbb{E}(X))^2</math>.

Ces deux formules n’ont de sens que si <math>\mathbb{E}(X^2)</math> existe<ref>L’existence d’un moment d’ordre 2 implique notamment l’existence de l’espérance.</ref>, autrement dit si la variable admet un moment d’ordre 2. Cela est toujours le cas pour une variable aléatoire bornée, et en particulier pour une variable aléatoire qui n’a qu’un nombre fini de valeurs possibles. Mais pour une variable aléatoire non bornée, l’existence de l’espérance et du moment d’ordre 2 dépendent de la convergence d’une série ou d’une intégrale. Ainsi, une loi de Pareto n’admet une espérance que si son paramètre Modèle:Mvar est strictement supérieur à 1, et n’admet une variance que si Modèle:Math.

Pour une variable aléatoire n’admettant qu’un nombre fini de valeurs notées Modèle:Math, et en notant Modèle:Math les probabilités associées, on retrouve l’expression de la variance

<math>\mathbb{V}(X)=\sum_{i=1}^k p_i(x_i-\overline{x})^2 = \left(\sum_{i=1}^kp_ix_i^2\right)-\overline{x}^2 =\left( \sum_{i=1}^kp_i x_i^2\right)-\left( \sum_{i=1}^kp_i x_i\right)^2</math>

Pour une variable aléatoire discrète avec un nombre infini de valeurs, on reprend la même formule en remplaçant la somme par une série<ref>Une variable aléatoire discrète ne peut admettre qu’un ensemble dénombrable de valeurs avec une probabilité non nulle.</ref>.

Dans le cas d’une variable aléatoire à densité, la variance est définie par :

<math>\mathbb{V}(X) =\sigma^2 =\int (x-\mu)^2 \, f(x) \, dx\,</math>

Modèle:Mvar est la densité de probabilité et Modèle:Mvar est l'espérance mathématique de la variable aléatoire Modèle:Mvar

<math>\mu = \int x \, f(x) \, \mathrm{d}x\, </math>

La variance d'une variable aléatoire continue Modèle:Mvar peut aussi se calculer de la façon suivante :

<math>\mathbb{V}(X)=\int x^2 \, f(x) \, \mathrm{d}x\, - \mu^2</math>

Propriétés

Transformation affine

Comme pour une série statistique, l’effet d’une transformation affine sur une variable aléatoire affecte celle-ci par la formule<ref>Pour cette démonstration, il est utile de rappeler une des propriétés de l'espérance : <math> \mathbb{E}(aX + b)= a \operatorname{E}(X) + b</math>. On a alors <math>\operatorname{Var}(aX+b) =\mathbb E[(aX+b -\mathbb E[aX+b])^2] =\mathbb E[(aX+b -a\mathbb E[X]-b)^2] =\mathbb E[(aX -a\mathbb E[X])^2] =\mathbb E[a^2(X -\mathbb E[X])^2] = a^2\mathbb E[(X -\mathbb E[X])^2] = a^2\operatorname{Var}(X) </math> </ref>,<ref name=Rioul142 group="alpha">Modèle:Harvsp</ref> : <math>\mathbb{V}(aX+b) = a^2 \mathbb{V}(X)</math>.

Combinaison linéaire

Si deux variables aléatoires Modèle:Mvar et Modèle:Mvar admettent une variance, alors leur somme aussi et elle s’écrit<ref name=Saporta26 group="alpha">Modèle:Harvsp</ref> <math>\mathbb{V}(X + Y) = \mathbb{V}(X) + \mathbb{V}(Y) + 2 \mathrm{Cov}(X, Y)</math>, où <math>\mathrm{Cov}(X, Y)</math> est la covariance. La relation s’étend à toute combinaison linéaire de variables admettant une variance<ref name=Rioul183 group="alpha">Modèle:Harvsp</ref> :

<math>\mathbb{V}\left(\sum_{i=1}^n{a_i\,X_i}\right) = \sum_{i=1}^na_i^2\,\mathbb{V}(X_i) + 2\sum_{1\le i<j\le n}\,a_ia_j\,\operatorname{Cov}(X_i,X_j) = \sum_{i=1}^n\sum_{j=1}^na_ia_j\operatorname{Cov}(X_i,X_j) </math>
<math>\mathbb{V}\left(\sum_{i=1}^n{X_i}\right) = \sum_{i=1}^n\mathbb{V}(X_i) + 2\sum_{1\le i<j\le n}\operatorname{Cov}(X_i,X_j)</math>

Somme de variables indépendantes

Si Modèle:Mvar et Modèle:Mvar sont deux variables indépendantes, leur covariance est nulle donc on trouve <math>\mathbb{V}(X + Y) = \mathbb{V}(X) + \mathbb{V}(Y)</math> mais la réciproque est fausse<ref name=Saporta26 group="alpha"/>. Cette relation ne doit pas être confondue avec la linéarité satisfaite par l’espérance. En particulier <math>\mathbb{V}(X-Y) = \mathbb{V}(X) + \mathbb{V}(Y)</math> et plus généralement <math>\mathbb{V}(aX+bY) = a^2\mathbb{V}(X) + b^2\mathbb{V}(Y)</math>.

Plus généralement, la variance d’une somme de variables indépendantes est égale à la somme des variances. Ce résultat implique que pour un échantillon de Modèle:Mvar variables de même variance Modèle:Math, la variance de la moyenne empirique s’écrit<ref><math>\operatorname{Var}(\overline{X})=\operatorname{Var}\left(\frac{1}{n}\sum_{i=1}^n X_i\right)=\frac{1}{n^2}\operatorname{Var}\left(\sum_{i=1}^n X_i\right) = \frac {1}{n^2} n \operatorname{Var}(X) = \frac {\operatorname{Var}(X)} {n}</math></ref>,<ref name=Dodge508 group="alpha">Modèle:Harvsp</ref> <math>\mathbb{V}(\overline{X}) = \frac{\sigma^2}{n}</math>.

Produit de variables indépendantes

La variance d'un produit de deux variables aléatoires indépendantes Modèle:Mvar et Modèle:Mvar de variances finies est exprimée en fonction de celles des deux variables par la formule suivante<ref name=Saporta26 group="alpha"/>,<ref group="note">Les deux autres formes sont déduites de la première par factorisation des variances, puis substitution de l'égalité du théorème de Koenig-Huygens <math>\mathbb{V}(X) = \mathbb{E}(X^2) - (\mathbb{E}(X))^2 \iff \mathbb{V}(X) + (\mathbb{E}(X))^2 = \mathbb{E}(X^2)</math>.</ref>

<math>\begin{align}\mathbb{V}(XY) &= \mathbb{V}(X) \mathbb{V}(Y) + \mathbb{V}(X) (\mathbb{E}(Y))^2 + \mathbb{V}(Y) (\mathbb{E}(X))^2\\

&= \mathbb{V}(X) \mathbb{E}(Y^2)+ \mathbb{V}(Y) (\mathbb{E}(X))^2\\ &= \mathbb{V}(Y) \mathbb{E}(X^2)+ \mathbb{V}(X) (\mathbb{E}(Y))^2

\end{align}</math>

Estimation

Estimateur ponctuel

À partir d’un échantillon de variables aléatoires réelles Modèle:Math indépendantes et relevant d’une même loi de probabilité, la variance Modèle:Math de cette loi peut être estimée à l’aide de la variance empirique<ref group="alpha" name="Dodge556">Modèle:Harvsp</ref>

<math>S^2 = \frac{1}{n}\sum_{i=1}^n(X_i-\overline{X})^2</math>

où <math>\overline{X} = \frac{1}{n}\sum_{i=1}^n X_i</math> est la moyenne empirique.

Cet estimateur est cependant biaisé, car <math>\mathbb{E}(S^2) = \frac{n-1}{n}\sigma^2</math>. Modèle:Démonstration Si Modèle:Math, on définit alors un estimateur non biaisé <math>\widetilde{S}^2 = \frac{n}{n-1}S^2</math> par linéarité de l’espérance.

Pour estimer la variance d'une population entière à partir de celle mesurée sur un échantillon de taille Modèle:Mvar, la variance estimée est obtenue en multipliant la variance mesurée sur l'échantillon par Modèle:Sfrac. Dans le cas (plus rare en pratique) d'un tirage sans remise dans une population de taille Modèle:Mvar, il faut utiliser l'estimateur<ref>Rémy Clairin, Philippe Brion, Manuel de sondages, Applications aux pays en développement, Documents et manuels du CEDEP, février 97, Modèle:ISBN, page 17 ).</ref> <math>\frac {N-1}N\widetilde{S}^2</math> . Dans le cas où l’espérance Modèle:Mvar des variables de l’échantillon est connue, l’estimateur direct <math>T = \frac{1}{n}\sum_{i=1}^n(X_i-\mu)^2</math> est déjà sans biais. Modèle:Démonstration Ces trois estimateurs sont convergents. Modèle:Démonstration

Intervalle de confiance

L’obtention d’un intervalle de confiance pour la variance d’une loi de probabilité à partir d’un échantillon dépend du type de loi.

Pour une famille de lois dépendant d’un seul paramètre, comme les lois de Bernoulli, les lois géométriques, exponentielles ou les lois de Poisson, il suffit d’utiliser un intervalle de confiance sur le paramètre. Pour une famille de lois dépendant d’au moins deux paramètres, on utilise un estimateur convergent ayant un seul paramètre directement relié à la variance de la loi initiale. Ainsi, pour un échantillon de Modèle:Mvar variables gaussiennes Modèle:Math dont l’espérance est inconnue, le quotient de la variance empirique sans biais multiplié par Modèle:Math par la variance réelle suit une loi de khi-deux avec Modèle:Math degrés de liberté d’après le théorème de Cochran.

Éléments d'histoire

Ronald Fisher employa, le premier, le mot de variance, dans un article de 1918 intitulé Modèle:Citation étrangère <ref name=RAFisher group="@"> Modèle:Pdf Modèle:Article.</ref> où il définit la variance comme le carré de l'écart type. Dans ce document il préfère clairement la variance à l'écart type en tant que mesure de la variabilité d'un phénomène observé. Il utilise ce terme à nouveau au congrès de mathématiques de Toronto en 1924<ref name=JPBHist3 group="@">Modèle:Pdf Modèle:Article.</ref>. C'est lui qui définit aussi l'analyse de la variance telle qu'on la pratique aujourd'hui dans son livre Modèle:Citation étrangère paru en 1925<ref name=JMFaverge group="@"> Modèle:Pdf Modèle:Article.</ref>,<ref name=Dodge556 group="alpha"/>.

Applications

Le calcul de la variance permet d’en déduire l’écart type<ref name=Dodge506 group="alpha">Modèle:Harvsp</ref> <math>\sigma(X) = \sqrt{\mathbb{V}(X)}</math>, qui est homogène à la variable aléatoire, au sens mathématique du terme comme en analyse dimensionnelle.

La variance d’une série statistique apparait dans le calcul des coefficients de la régression linéaire.

L’analyse de la variance (ANOVA) rassemble des méthodes d’études de comparaisons entre échantillons sur une ou plusieurs variables quantitatives.

La variance d’une variable aléatoire intervient dans le théorème central limite ainsi que dans l’inégalité de Bienaymé-Tchebychev.

Variance conditionnelle

Modèle:Article détaillé

Soient deux variables aléatoires Modèle:Mvar et Modèle:Mvar. On appelle variance conditionnelle de Modèle:Mvar sachant Modèle:Mvar la variable aléatoire correspondant à l'espérance conditionnelle sachant X du carré de l'écart de Y à l'espérance conditionnelle :

<math>\operatorname{Var}(Y | X) = \mathbb{E} \left( [Y- \mathbb{E}(Y | X)]^2 | X\right).</math>

Comme toute variable conditionnelle, elle est fonction de Modèle:Mvar.

La variance de Modèle:Mvar est liée à la variance et l'espérance conditionnelles par le théorème de la variance totale :

<math>\operatorname{Var}(Y)=\mathbb{E}(\operatorname{Var}[Y| X])+\operatorname{Var}(\mathbb{E}[Y|X]).</math>

Variance d'un vecteur aléatoire

Si l'on définit Modèle:Math comme un vecteur aléatoire qui comporte Modèle:Mvar variables et Modèle:Math comme le vecteur des Modèle:Mvar espérances de Modèle:Mvar, on définit alors la variance comme :

Modèle:Théorème(X_{k\times 1}-\Mu)\right]</math>}}

Il s'agit alors d'une matrice carrée de taille Modèle:Mvar, appelée matrice de variance-covariance, qui comporte sur sa diagonale les variances de chaque composante du vecteur aléatoire et en dehors de la diagonale les covariances. Cette matrice est symétrique et semi-définie positive ; elle est définie positive si et seulement si la seule combinaison linéaire certaine (c'est-à-dire presque sûrement constante) des composantes du vecteur aléatoire est celle dont tous les coefficients sont nuls. Le cas contraire signifie que les réalisations du vecteur Modèle:Mvar sont presque sûrement confinées à un hyperplan.

On a les propriétés suivantes :

Modèle:ThéorèmeV</math>}}

Notes et références

Notes

Modèle:Notes <references/>

Ouvrages spécialisés

Modèle:Références

Articles publiés sur internet

Modèle:Références Modèle:Références

Voir aussi

Bibliographie

Articles connexes

Liens externes

Modèle:Palette Modèle:Portail