Loi normale

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}
(Redirigé depuis Loi de Gauss)

Modèle:En-tête label Modèle:Confusion Modèle:Infobox/Début Modèle:Infobox/Titre Modèle:Infobox/Image Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Notice Modèle:Infobox/Fin\; \exp\left(-\frac{\left(x-\mu\right)^2}{2\sigma^2} \right) \!~</math>

| cdf         = <math>\frac12 \left(1 + \mathrm{erf}\left(\frac{x-\mu}{\sigma\sqrt2}\right)\right) \!~</math>
| mean        = <math>\mu</math>
| median      = <math>\mu</math>
| mode        = <math>\mu</math>
| variance    = <math>\sigma^2</math>
| skewness    = 0
| kurtosis    = 0
| entropy     = <math>\ln\left(\sigma\sqrt{2\,\pi\,{\rm e}}\right)\!~</math>
| mgf         = <math>\exp\left(\mu\,t+\frac{\sigma^2 t^2}2\right)</math>
| char        = <math>\exp\left(\mu\,{\rm i}\,t-\frac{\sigma^2 t^2}2\right)</math>

}} En théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.

Plus formellement, une loi normale est une loi de probabilité absolument continue qui dépend de deux paramètres : son espérance, un nombre réel noté Modèle:Mvar, et son écart type, un nombre réel positif noté Modèle:Mvar. La densité de probabilité de la loi normale d'espérance Modèle:Mvar et d'écart type Modèle:Mvar est donnée par :

<math>f(x) = \frac1{\sigma \sqrt{2\pi}}\operatorname e^{-\frac12\left(\frac{x-\mu}{\sigma}\right)^2}</math>.

La courbe de cette densité est appelée courbe de Gauss ou courbe en cloche, entre autres. C'est la représentation la plus connue de ces lois. Lorsqu'une variable aléatoire Modèle:Mvar suit une loi normale, elle est dite gaussienne ou normale et il est habituel d'utiliser la notation avec la variance Modèle:Mvar2 :

<math>X\sim\mathcal N(\mu,\sigma^2)</math>.

La loi normale de moyenne nulle et d'écart type unitaire, <math>\mathcal N(0, 1)</math>, est appelée loi normale centrée réduite ou loi normale standard.

Parmi les lois de probabilité, les lois normales prennent une place particulière grâce au théorème central limite. En effet, elles correspondent au comportement, sous certaines conditions, d'une suite d'expériences aléatoires similaires et indépendantes lorsque le nombre d'expériences est très élevé. Grâce à cette propriété, une loi normale permet d'approcher d'autres lois et ainsi de modéliser de nombreuses études scientifiques comme des mesures d'erreurs ou des tests statistiques, en utilisant par exemple les tables de la loi normale centrée réduite.

Définition et explications informelles

Cinq diagrammes en bâtons convergeant vers la densité d'une loi normale
Modèle:Ancre Les diagrammes en bâtons représentent les lois discrètes de la somme de 1, 2, 3, 4 ou 5 dés. La courbe noire est la densité d'une loi normale vue comme limite des diagrammes en bâtons.

Les lois de probabilité permettent de décrire de manière théorique le caractère aléatoire d'une expérience qui est considérée comme aléatoire. Les lois normales en sont des cas particuliers. La manière historique de l'aborder est par approximation<ref name="Yadolah310"/>.

Lorsque le résultat de cette expérience aléatoire est à valeurs discrètes, par exemple la somme du lancer de deux dés vaut 2, 3… ou 12, une loi dite discrète modélise l'expérience. Les probabilités d'apparition de chaque valeur peuvent être représentées par des diagrammes en bâtons ou histogrammes (voir la figure ci-contre). Plusieurs scientifiques (voir Histoire de la loi normale) se sont intéressés à la réalisation d'un grand nombre d'expériences et au comportement de la loi de probabilité associée. Il apparaît que les fréquences d'apparition des valeurs possibles sont de plus en plus « lissées »<ref name="Quinio36">Modèle:Harvsp.</ref> (voir la figure ci-contre). Il existe une certaine répartition autour d'une valeur centrale ; ces probabilités peuvent être alors représentées par une courbe de Gauss ou courbe en cloche obtenue par calcul ou par expérience<ref name="Grinstead351">Modèle:Harvsp.</ref>. Cette courbe est celle de la densité de probabilité d'une loi normale. Le rôle central de ces lois de probabilité vient du fait qu'elles sont la limite d'un grand nombre de lois de probabilité définies à partir de sommes, comme le montre le théorème central limite<ref>Modèle:Ouvrage</ref>,<ref>Modèle:Ouvrage</ref>.

Une autre manière visuelle de voir apparaître cette courbe est réalisée par la planche de Galton. Des billes sont lâchées en haut de la planche ; à chaque étage, elles ont deux possibilités : aller à droite ou aller à gauche. Après plusieurs étages, elles ont donc eu plusieurs choix aléatoires. Lorsque le nombre de billes est grand, la répartition des billes suivant leur position est approximativement une loi normale<ref>Modèle:Lien web.</ref>.

Comme pour toute loi de probabilité, plusieurs définitions équivalentes des lois normales existent : par leur densité de probabilité (la courbe de Gauss), par leur fonction de répartition, par leur fonction caractéristique, etc. Une loi normale dépend de deux paramètres : le premier donne la moyenne, c'est-à-dire la valeur « centrale » (ou « médiane ») des valeurs possibles<ref name="Grinstead212">Modèle:Harvsp.</ref> (par exemple, la moyenne de la somme de deux dés est 7) ; le deuxième paramètre renseigne sur la dispersion des valeurs autour de cette valeur centrale<ref name="Grinstead212"/> : plus ce paramètre est faible, plus les valeurs proches de la valeur centrale auront une forte probabilité d'apparaître. Beaucoup de grandeurs physiques peuvent être représentées par ces deux paramètres<ref name="Protassov30">Modèle:Harvsp.</ref>.

Lors de l'étude statistique d'une série d'observations d'une même grandeur, la moyenne des valeurs observées peut être considérée comme une aléatoire suivant une loi normale. La moyenne de cette loi normale est alors considérée comme la valeur « réelle » de la grandeur observée, et la dispersion de la loi renseigne sur l'« erreur » d'observation<ref name="Protassov29">Modèle:Harvsp.</ref>. C'est-à-dire qu'il est possible de calculer<ref name="Protassov29"/> une valeur approchée de la probabilité qu'une variable suivant une loi normale soit dans un intervalle Modèle:Math autour de la moyenne Modèle:Mvar. Il s'agit de pouvoir obtenir une approximation de la grandeur observée dans l'expérience en considérant les erreurs dues aux instruments de mesure ou autres<ref name="Quinio36"/>.

Histoire

Modèle:Multiple image Modèle:Article détaillé Une des premières apparitions d'une loi normale est due<ref group="a" name="Bru">Modèle:Article.</ref> à Abraham de Moivre en 1733 en approfondissant l'étude de la factorielle Modèle:Math lors de l'étude d'un jeu de pile ou face. Il publie The Doctrine of Chances en 1756 dans lequel une loi normale apparaît comme limite d'une loi binomiale, ce qui sera à l'origine du théorème central limite<ref group="a" name="fuchs">Modèle:Article.</ref>. En 1777, Pierre-Simon de Laplace reprend ces travaux et obtient une bonne approximation de l'erreur entre cette loi normale et une loi binomiale grâce à la fonction gamma d'Euler<ref group="a" name="Bru"/>. Dans son ouvrage publié en 1781Modèle:Référence souhaitée, Laplace donne une première table de cette loi. En 1809, Carl Friedrich Gauss assimile des erreurs d'observation en astronomie à la courbe, dite des erreurs, de la densité d'une loi normale<ref group="a" name="fuchs"/>.

Une loi normale est alors pleinement définie lorsque le premier théorème central limite, alors appelé théorème de Laplace, est énoncé par Laplace en 1812<ref group="a" name="Bru"/>. Son nom « normale » est donné par Henri Poincaré à la fin du Modèle:S mini- siècleModèle:Vérification siècle<ref name="Stigler407">Modèle:Harvsp.</ref>. Les lois normales portent également les noms de lois de Gauss ou lois de Laplace-Gauss<ref name="Stigler406">Modèle:Harvsp.</ref> en fonction de l'attribution de la paternité de la création de ces lois ; la dénomination de deuxième loi de Laplace est également utilisée occasionnellement<ref>Voir par exemple Modèle:Ouvrage ou, plus récemment, Modèle:Ouvrage.</ref>.

Les études sur les lois normales se poursuivent durant le Modèle:S mini- siècleModèle:Vérification siècle. Ainsi, de nouvelles tables numériques sont données en 1948 par Egon Sharpe Pearson, en 1952 par le National Bureau of Standards<ref>Modèle:Harvsp.</ref> et en 1958 par Greenwood et Hartley<ref name="Dodge502">Modèle:Harvsp.</ref>.

Loi normale centrée réduite

Une loi normale est une loi de probabilité (c'est-à-dire une mesure Modèle:Mvar de masse totale unitaire<ref group="a" name="Kahane"/>) unidimensionnelle (c'est-à-dire à support réel <math>\R</math>). C'est une loi absolument continue, c'est-à-dire que la mesure est absolument continue par rapport à la mesure de Lebesgue. Autrement dit, il existe une densité de probabilité, souvent notée Modèle:Mvar pour la loi normale centrée réduite, telle que : Modèle:Math. Elle est généralisée par la loi normale multidimensionnelle. La loi normale centrée réduite est appelée loi normale standard<ref name="Lifshits1"/>.

Définition par la fonction de densité

Courbe de Gauss
Fonction de densité de la loi normale centrée réduite (dite courbe de Gauss ou courbe en cloche).

Modèle:Article détaillé La loi normale centrée réduite est la loi de probabilité absolument continue dont la densité de probabilité est donnée par la fonction <math>\varphi:\R\to\R_+</math> définie par<ref name="Yadolah309"/> : Modèle:Retrait\operatorname e^{-\frac 12 t^2}</math>, pour tout <math>t\in\R</math>.}} Cette loi est dite centrée puisque son moment d'ordre 1 (espérance) vaut 0 et réduite puisque son moment d'ordre 2 (variance) vaut 1, tout comme son écart type. Le graphe de la densité Modèle:Mvar est appelé fonction gaussienne, courbe de Gauss ou courbe en cloche. Cette loi est notée grâce à la première lettre de « normal », une variable aléatoire Modèle:Mvar qui suit la loi normale centrée réduite est notée : Modèle:Retrait

Quelques remarques et propriétés immédiates (voir également les propriétés ci-dessous) :

Définition par la fonction de répartition

Fonction de répartition
Fonction de répartition de la loi normale centrée réduite.

Historiquement, une loi normale est apparue comme la loi limite dans le théorème central limite à l'aide de sa fonction de répartition. Il est alors utile de définir la loi par cette fonction. La loi normale est la loi de probabilité dont la fonction de répartition est donnée par la fonction <math>\Phi:\R\to\R_+</math> définie par<ref name="Cramér50">Modèle:Harvsp.</ref> : Modèle:Retrait\int_{-\infty}^x\operatorname e^{-\frac12t^2}\,\mathrm dt</math>, pour tout <math>x\in\R</math>.}} Elle donne la probabilité qu'une variable aléatoire de loi normale appartienne à un intervalle <math>[a,b]</math> : <math>\mathbb P(X\in[a,b])=\Phi(b)-\Phi(a)</math> (pour plus de détails de calcul, voir la section Tables numériques et calculs).

Quelques remarques et propriétés immédiates :

  • il n'existe pas d'expression analytique de la fonction de répartition Modèle:Math, c'est-à-dire qu'elle ne s'exprime pas à partir de fonctions usuelles mais devient elle-même une fonction usuelle<ref name="Grinstead330"/> ;
  • elle s'exprime en fonction de la fonction d'erreur grâce aux deux formules équivalentes suivantes<ref group="a" name="Marsaglia">Modèle:Article.</ref> :
    1. <math>\Phi(x)=\frac12+\frac12\operatorname{erf}\left(\frac x{\sqrt2}\right)</math>,
    2. <math>\operatorname{erf}(x)=2\Phi\left(x\sqrt2\right)-1</math> ;
  • elle est dérivable une infinité de fois et vérifie Modèle:Math. L'écriture équivalente Modèle:Math permet de définir l'intégrale de Lebesgue-Stieltjes par rapport à la loi normale ;
  • elle est absolument continue et strictement croissante, c'est donc une bijection<ref group="a" name="eduscol"/> de <math>\R</math> dans Modèle:Math. Sa réciproque Modèle:Math existe et s'appelle la fonction probit. Cette fonction est utilisée pour le modèle probit<ref name="Droesbeke104">Modèle:Harvsp.</ref> ;
  • par parité de la loi, Modèle:Math et ainsi Modèle:Math. Ceci montre<ref group="a" name="eduscol"/> que la médiane de la loi normale centrée réduite est 0 ;
  • par définition de la fonction de répartition, <math>\Phi(x)=\mathbb P(X\leq x)</math> lorsque la variable aléatoire Modèle:Mvar suit la loi normale centrée réduite, <math>X\sim\mathcal N(0,1)</math>. Pour obtenir les valeurs de cette probabilité, il faut approcher cette fonction par d'autres fonctions usuelles et il existe des tables de valeurs (voir la section Table de la loi normale ci-dessous).

Définition par la fonction caractéristique

Fonction caractéristique
Fonction caractéristique et fonction génératrice des moments de la loi normale centrée réduite.

La caractérisation d'une loi normale par sa fonction caractéristique présente un intérêt pour démontrer certaines propriétés, comme la stabilité par addition ou le théorème central limite. Cette fonction caractéristique <math>\phi:\R\to\R_+</math>, qui se calcule à partir de la densité de probabilité<ref name="Cramér50"/>,<ref name="Bogaert121">Modèle:Harvsp.</ref> et caractérise la loi, est donnée par : Modèle:Retrait Cette fonction caractéristique est égale, à une constante multiplicative près, à la densité de probabilité de la loi : on dit que la fonction caractéristique d'une gaussienne est gaussienne<ref group="a" name="Kahane"/>.

Si une variable aléatoire Modèle:Mvar suit la loi normale centrée réduite de fonction caractéristique Modèle:Mvar définie ci-dessus, alors<ref name="Bogaert123">Modèle:Harvsp.</ref> la transformation linéaire Modèle:Math admet pour fonction caractéristique : <math>\phi_Y(t)={\rm e}^{{\rm i}bt}\phi(at)</math>. C'est donc une variable aléatoire de loi normale de moyenne Modèle:Mvar et de variance Modèle:Math.

Définition par la fonction génératrice des moments

Une autre manière de définir une loi normale est par l'utilisation de sa fonction génératrice des moments <math>M:\R\to\R_+,\;t\mapsto\sum_{n=0}^\infty m_n\frac{t^n}{n!}=\mathbb E\left(\operatorname e^{tX}\right)</math>. Cette fonction, qui se calcule à partir de la fonction de densité<ref group="b">Pour une généralisation, voir la section Moments ci-dessous.</ref> et caractérise la loi, est donnée par<ref name="Protassov27">Modèle:Harvsp.</ref> : Modèle:Retrait On retrouve ainsi les valeurs des moments Modèle:Mvar Modèle:Supra.

Loi normale générale

Définition

Plus généralement que la loi normale centrée réduite, une loi normale (non centrée et non réduite) est une loi de probabilité absolument continue dont l'un des quatre points suivants est vérifié :

Pour le cas où Modèle:Math, c'est une forme dégénérée de la loi normale, parfois appelée loi normale impropre<ref name="Cramér51"/>. C'est alors la mesure de Dirac au point Modèle:Mvar qui n'est pas absolument continue.

La valeur Modèle:Mvar est la moyenne de la loi et Modèle:Mvar est l'écart type alors que Modèle:Mvar2 en est la variance. Cette loi est notée grâce à la première lettre de « normal ». Une variable aléatoire Modèle:Mvar qui suit une loi normale est notée de deux manières différentes suivant les auteurs<ref name="Quinio169">Modèle:Harvsp.</ref>,<ref name="Lifshits1">Modèle:Harvsp.</ref> :Modèle:Retrait La deuxième notation a l'intérêt de pouvoir noter la stabilité par addition de manière simple<ref group="a" name="eduscol">Modèle:Ouvrage.</ref> ; elle sera utilisée dans cet article.

Remarques et propriétés immédiates

Propriétés

Autres caractérisations

En addition de la densité de probabilité, de la fonction de répartition, de la fonction caractéristique et de la fonction génératrice des moments, il existe d'autres caractérisations des lois normales.

Moments

Le moment d'ordre 1 est appelé la moyenne (Modèle:Mvar) et est donné en paramètre d'une loi normale <math>\mathcal N(\mu,\sigma^2)</math>. Le deuxième paramètre est son écart type (Modèle:Mvar), c'est-à-dire la racine carrée de la variance qui est par définition la moyenne des carrés des écarts à la moyenne. Il est alors également intéressant d'obtenir les moments centrés d'une loi normale, ils sont donnés par<ref name="Protassov28"/> :

Modèle:Retrait pour <math>k\ge0</math> et Modèle:Mvar une variable aléatoire de loi normale <math>\mathcal N(\mu,\sigma^2)</math>.

Le moment ordinaire Modèle:Mvar peut s'obtenir à partir des moments d'ordre inférieur à n – 1 et du moment centré d'ordre n, en utilisant la formule qui exprime Modèle:Mvar en fonction de Modèle:Math. Les premiers moments d'une loi normale sont alors<ref name="Bogaert120">Modèle:Harvsp.</ref> : Modèle:Retrait

Calcul direct

Grâce à la symétrie autour de Modèle:Mvar de la fonction de densité d'une loi normale, les moments centrés d'ordre impair sont tous nuls<ref name="Protassov28"/>.

Des moments d'ordre pairs de la loi normale centrée réduite Modèle:Supra, on déduit la formule des moments centrés : <math>\mu_{2k} = \frac{(2\, k) !}{2^k k!}\sigma^{2k}</math>.

Par la fonction génératrice des moments

Les moments centrés Modèle:Math d'une loi peuvent s'obtenir à partir de la fonction génératrice des moments centrés. Le cas particulier Modèle:Math de la fonction génératrice des moments Modèle:Supra donne : Modèle:Retrait(t)={\rm e}^{\frac{\sigma^2t^2}2}=\sum_{k=0}^\infty \frac1{k!}\left(\frac{\sigma^2t^2}2\right)^k</math>.}}

Comme par ailleurs on a (pour toute loi) Modèle:Retrait(t)=\sum_{n=0}^\infty \frac1{n!}\mu_n t^n</math>,}} on en déduit, par identification des coefficients des deux séries<ref name="Protassov28"/>, les moments centrés d'une loi normale Modèle:Supra.

Quant aux moments ordinaires, leur fonction génératrice permet d'établir la relation de récurrence<ref group="b">Voir par exemple le lien en bas de page vers la leçon sur Wikiversité.</ref> :

<math>m_{n+1}=\mu m_n+n\sigma^2m_{n-1}\quad(n\ge1)</math>.
Densités de lois avec différents kurtosis
Densités de probabilités de lois de kurtosis différents. Loi de Laplace en rouge, loi sécante hyperbolique en orange, loi logistique en vert, loi normale en noir, loi du cosinus surélevé en cyan, loi du demi-cercle en bleu et loi uniforme en violet.

Asymétrie et aplatissement

L'asymétrie Modèle:Math, le kurtosis Modèle:Math et le kurtosis normalisé Modèle:Math s'obtiennent à partir des formules des moments<ref name="Bogaert119">Modèle:Harvsp.</ref> :

Modèle:Retrait

Les lois normales servent de point de référence pour la comparaison des épaisseurs de traîne : si une loi possède un kurtosis normalisé Modèle:Math, alors la loi possède une traîne plus épaisse qu'une loi normale et est dite leptokurtique ; à l'inverse si Modèle:Math, la loi possède une traîne moins épaisse qu'une loi normale et est appelée platikurtique ; les lois de kurtosis normalisé nul possèdent une traîne comparable à la loi normale et sont dites mésokurtiques.

Cumulants

La fonction caractéristique permet d'obtenir la fonction génératrice des cumulants par la formule <math>\ln (\phi(t))=\sum_{n=1}^{+\infty} K_n \frac{({\rm i}t)^n}{n!} </math> et permet d'obtenir les cumulants<ref name="Abramowitz930">Modèle:Harvsp.</ref> : Modèle:Math, Modèle:Math et Modèle:Math pour Modèle:Math.

Théorèmes de convergence

Animation montrant la convergence d'une loi discrète vers une loi continue.
Lorsque le nombre Modèle:Mvar de variables augmente, la densité de probabilité de la variable Modèle:Mvar (centrée réduite) se rapproche de la courbe en cloche d'une loi normale.

Modèle:Article détaillé La première version du théorème central limite, appelé alors théorème de Moivre-Laplace, a été énoncée dans le cas de variables aléatoires de loi de Bernoulli. De manière plus générale, si Modèle:Math sont des variables indépendantes et identiquement distribuées de variance finie et si la somme est notée Modèle:Math, alors<ref name="Grinstead330">Modèle:Harvsp.</ref> pour tout Modèle:Math Modèle:Retrait \leq b\right) = \int_a^b \varphi(x)\,\mathrm dx</math>}} où Modèle:Mvar est la densité de probabilité de la loi normale centrée réduite.

Ce théorème signifie que tout ce qui peut être considéré comme étant la somme d'une grande quantité de petites valeurs aléatoires indépendantes et identiquement distribuées est approximativement de loi normale<ref name="Grinstead345">Modèle:Harvsp.</ref>. Ceci montre le caractère central des lois normales en théorie des probabilités. Un énoncé physique de ce théorème peut être formulé<ref name="Protassov44">Modèle:Harvsp.</ref> : Modèle:Retrait

Ce théorème central limite est valide pour toute loi de probabilité initiale des variables iid Modèle:Math ayant un écart type fini, il permet d'obtenir de bonne approximation de la somme Modèle:Mvar, par exemple<ref name="Bogaert223">Modèle:Harvsp.</ref> :

Il existe des versions plus générales de ce théorème, par exemple en considérant des variables aléatoires indépendantes, pas de même loi mais ayant des variances petites comparées à celle de leur moyenne<ref name="Yger651">Modèle:Harvsp.</ref>. Un théorème de Gnedenko et Kolmogorov (1954) stipule qu'une variable aléatoire normale est la somme d'un grand nombre de variables aléatoires indépendantes petites dont aucune n'est prépondérante : Modèle:Théorème

Stabilités et famille normale

Stabilité par additivité (propriété de conservation)

Les lois normales sont stables par additivité<ref group="a" name="fuchs"/>, c'est-à-dire que la somme de deux variables aléatoires indépendantes de lois normales est elle-même une variable aléatoire de loi normale. Plus explicitement : si <math>X_1\sim \mathcal N(\mu_1,\sigma_1^2)</math>, <math>X_2\sim \mathcal N(\mu_2,\sigma_2^2)</math> et Modèle:Math et Modèle:Math sont indépendantes, alors la variable aléatoire <math>X_1+X_2</math> suit la loi normale <math>\mathcal N(\mu_1 + \mu_2, \sigma_1^2 + \sigma_2^2)</math>.

Cette propriété se généralise pour Modèle:Mvar variables, c'est-à-dire si pour tout <math>i\in \{1,2,\dots,n\}</math>, les variables aléatoires Modèle:Mvar suivent une loi normale <math>\mathcal N(\mu_i,\sigma_i^2)</math> et sont indépendantes, alors<ref name="Ross299">Modèle:Harvsp.</ref> la somme Modèle:Math suit une loi normale <math>\mathcal N(\mu_1+\mu_2+\dots+\mu_n,\sigma_1^2+\sigma_2^2+\dots+\sigma_n^2)</math>.

Cette propriété se démontre directement au moyen des fonctions caractéristiques. La densité de probabilité de la somme de deux variables indépendantes de loi normale est donnée par la convolution des deux densités. Ceci se traduit par les formules de convolution de fonctions<ref name="Cramér51"/> ou de convolution de mesures normales<ref name="Lifshits4">Modèle:Harvsp.</ref> que l'on note <math>\mathcal N_{\mu_1,\sigma_1^2}</math> : Modèle:Retrait\right)</math> et <math>\mathcal N_{\mu_1,\sigma_1^2} \ast \mathcal N_{\mu_2,\sigma_2^2} = \mathcal N_{\mu_1+\mu_2,\sigma_1^2+\sigma_2^2} </math>.}}

Il ne faut pas confondre avec la loi dont la densité est la somme de densités de lois normales (voir la section Constructions à partir de la loi normale ci-dessous).

densités de lois stables
Différentes densités de probabilité de lois stables dont la loi normale est un cas particulier : la courbe noire est la courbe en cloche.

Famille normale

L'ensemble de fonctions <math>\{ \varphi(\frac{x-\mu}{\sigma})\mid\mu\in\R,\sigma>0\}</math> forme la famille dite famille normale. La famille normale est également le nom de l'ensemble des lois normales<ref name="Lifshits4"/> <math>\{ \mathcal N_{\mu,\sigma^2}\mid\mu\in\R,\sigma>0\}</math>. La famille de fonctions est fermée pour la convolution au sens où<ref name="Cramér52"/> : la fonction Modèle:Mvar est la seule qui engendre la famille ; si la convolution de deux densités est dans la famille alors les deux fonctions sont dans la famille ; et toute densité convolée un nombre suffisamment grand de fois et convenablement renormalisée est proche d'une fonction de la famille normale. Les trois théorèmes suivants donnent plus de précisions mathématiques.

  1. Théorème<ref name="Cramér52">Modèle:Harvsp.</ref> : si pour une fonction de densité Modèle:Mvar de moyenne 0 et d'écart type 1, il existe <math>\mu\in\R</math> et <math>\sigma\in\R_+^*</math> satisfaisant :Modèle:Retraitalors <math>f\equiv\varphi</math> est la densité de la loi normale centrée réduite.
  2. Théorème de Lévy-Cramér (1936) (conjecturé par Paul Lévy en 1935)<ref name="Cramér53">Modèle:Harvsp.</ref>,<ref group="a" name="fuchs"/> : si deux fonctions de densité, Modèle:Math et Modèle:Math, vérifient :Modèle:RetraitalorsModèle:Retrait Autrement dit, si la somme de deux variables aléatoires indépendantes est normale, alors les deux variables sont de lois normales.
  3. Théorème<ref name="Cramér53"/> : si Modèle:Mvar est la densité commune de Modèle:Mvar variables aléatoires indépendantes de moyenne 0 et d'écart type 1, alors la convolée Modèle:Mvar fois de Modèle:Mvar converge uniformément en Modèle:Mvar : <math>\left( f(x/\sqrt n)\right)^{\ast n}\to\varphi(x)</math> (ce théorème est équivalent au théorème central limite). Il ne faut pas confondre cette famille normale avec la famille normale de fonctions holomorphes.

Stabilité par linéarité

Les lois normales sont stables par linéarité : si Modèle:Math et Modèle:Mvar sont deux réels et <math>X\sim\mathcal N(\mu,\sigma^2)</math>, alors<ref name="Ross235">Modèle:Harvsp.</ref> la variable aléatoire Modèle:Math suit la loi normale <math>\mathcal N(\alpha \mu + \beta, \alpha^2 \sigma^2)</math>.

Grâce aux stabilités par addition et par linéarité, une loi normale est un cas particulier de loi stable<ref group="a" name="Mandelbrot"/> avec pour paramètre de stabilité Modèle:Math. Parmi les lois stables, les lois normales, la loi de Lévy (Modèle:Math) et la loi de Cauchy (Modèle:Math) sont les seules à posséder une expression analytique de leur fonction de densité.

Stabilité par moyenne

Les lois normales sont stables par moyennisation, c'est-à-dire si Modèle:Math sont des variables aléatoires indépendantes suivant respectivement les lois normales <math>\mathcal N(\mu_1,\sigma_1^2),\mathcal N(\mu_2,\sigma_2^2),\dots,\mathcal N(\mu_n,\sigma_n^2)</math>, alors la moyenne Modèle:Math suit la loi <math>\mathcal N\left(\tfrac {\mu_1+\mu_2+\dots+\mu_n} n,\tfrac{\sigma_1^2+\sigma_2^2+\dots+\sigma_n^2}{n^2}\right)</math>.

Convexité

Les lois normales ne sont pas convexe<ref name="Lifshits125">Modèle:Harvsp.</ref>, c'est-à-dire que l'inégalité <math>\lambda\mathbb P(A)+(1-\lambda)\mathbb P(B)\le\mathbb P(\lambda A+(1-\lambda)B)</math> pour tous boréliens Modèle:Mvar et Modèle:Mvar n'est pas vérifiée lorsque la mesure <math>\mathbb P</math> est normale. Cependant, lorsque l'on normalise cette inégalité avec l'inverse de la fonction de répartition de la loi normale centrée réduite, on obtient le théorème suivant, analogue à l'inégalité de Brunn-Minkowski-Lusternik pour la mesure de Lebesgue dans <math> \R^n </math> :

Modèle:Théorème

En fait, les lois normales font partie de la famille des distributions de mesures log-concaves, c'est-à-dire vérifiant pour tous boréliens Modèle:Mvar et Modèle:Mvar et tout <math> \lambda \in ]0,1[ </math>,

<math>\mathbb P(\lambda A+(1-\lambda)B) \ge \mathbb P(A)^{\lambda}\mathbb P(B)^{1-\lambda}. </math>

Entropie et quantité d'information

Entropie de Shannon

L'entropie de Shannon d'une loi de probabilité absolument continue de densité donnée par Modèle:Mvar permet de mesurer une quantité d'information et est définie par : Modèle:Retrait Dans l'ensemble des lois absolument continues de variance Modèle:Mvar2 fixée, les lois normales <math>\mathcal N(\cdot,\sigma^2)</math> sont d'entropie maximum<ref group="a" name="shannon">Modèle:Article.</ref>. L'entropie maximum, pour une loi normale donc, est donnée par : Modèle:Math. Ainsi la théorie de maximisation de l'entropie dit que, même si elle n'est pas la meilleure loi adaptée aux valeurs, une loi normale ajustée aux valeurs est adéquate pour prendre une décision.

Il y a également une connexion entre la convergence de suites de lois de probabilité vers une loi normale et la croissance de l'entropie, ce qui en fait un outil majeur dans la théorie de l'information<ref group="a" name="fuchs"/>.

La quantité d'information de Fisher

L'information de Fisher d'une loi à densité de probabilité est une autre notion de quantité d'information. Pour une densité Modèle:Mvar, elle est donnée par : Modèle:Retrait Pour toute densité suffisamment régulière d'une loi centrée réduite, cette information vérifie Modèle:Math. Les lois normales se distinguent des autres densités puisque l'inégalité précédente est une égalité si et seulement si la densité est celle de la loi normale centrée réduite<ref group="a" name="fuchs"/>.

Distance entre lois

La divergence de Kullback-Leibler entre deux lois permet de mesurer une distance entre les deux lois, ou une perte d'information entre les deux lois. La divergence de Kullback-Leibler entre les deux lois normales <math>\mathcal N(\mu_1,\sigma_1^2)</math> et <math>\mathcal N(\mu_2,\sigma_2^2)</math> est : Modèle:Retrait Cette divergence est nulle pour Modèle:Mvar1 = Modèle:Mvar2 et Modèle:Mvar1 = Modèle:Mvar2 ; de plus, elle croît lorsque <math>|\mu_1-\mu_2|</math> croît<ref group="a" name="Allison">Modèle:Lien web.</ref>.

Approximation de la fonction de répartition

Il n'existe pas d'expression analytique pour la fonction de répartition Modèle:Math de la loi normale centrée réduite, c'est-à-dire qu'il n'existe pas de formule simple entre la fonction de répartition et les fonctions classiques telles que les fonctions polynomiales, exponentielle, logarithmique, trigonométriques, etc. Cependant la fonction de répartition apparaît dans plusieurs résultats à vocation à être appliqués, il est donc important de mieux cerner cette fonction. Différentes écritures sous forme de séries ou de fractions continues généralisées sont possibles<ref name="Abramowitz932">Modèle:Harvsp.</ref>.

Pour les valeurs de <math>0<x \ll 1</math>, la fonction de répartition de la loi normale centrée réduite s'écrit sous la forme<ref group="a" name="mathworldnormal">Modèle:MathWorld.</ref> : Modèle:Retrait \sum_{n=0}^{\infty} \frac{(-1)^n}{n! 2^n (2n+1)} x^{2n+1} = \frac12+ \frac1{\sqrt{2 \pi}} \left(x-\frac{x^3}6+\frac{x^5}{40}+\dots\right)</math>,}} ou sous la forme : Modèle:Retrait

Pour <math>1\ll x</math>, la fonction de répartition de la loi normale centrée réduite s'écrit sous la forme<ref name="Abramowitz932"/>,<ref group="a" name="mathworldnormal"/> : Modèle:Retrait\right)+R_n </math> avec <math>R_n=(-1)^{n+1}1 \cdot 3\dots (2n+1) \int_x^\infty \frac{\varphi(y)}{y^{2n+2}}\,\mathrm dy</math>.}}

De manière plus numérique et facilement calculable, les approximations suivantes donnent des valeurs de la fonction de répartition Modèle:Math de la loi normale centrée réduite avec :

  • une erreur de l'ordre de<ref name="Tassi126">Modèle:Harvsp.</ref> 10Modèle:-5 : pour Modèle:Math, <math>\Phi(x) = 1- \frac{{\rm e}^{-\frac{x^2}2}}{\sqrt{2\pi}} \left( \frac{0{,}4361836}{1+0{,}33267\,x} + \frac{-0{,}1201676}{(1+0{,}33267\,x)^2}+ \frac{0{,}9372980}{(1+0{,}33267\,x)^3} \right)+\epsilon(x)</math> où <math>|\epsilon(x)| < 10^{-5} </math> ;
  • une erreur de l'ordre de<ref name="Tassi126"/> <math>2{,}5\,.\,10^{-4}</math> : pour <math>x>0</math> : <math>\Phi(x) \approx 1- \frac1{2\left(1+0{,}196854\, x + 0{,}115194\, x^2 + 0{,}000344\, x^3 + 0{,}019527\, x^4\right)^4}</math> ;
  • une erreur de l'ordre de<ref group="a" name="mathworldnormal"/> <math>10^{-2}</math> : <math>\Phi(x)=\begin{cases}0{,}1 x(4{,}4-x)+0,5 & \text{ pour }0\leq x \le2{,}2 \\ 0{,}99 & \text{ pour }2{,}2\leq x\le2{,}6 \\ 1 & \text{ pour } x\ge2{,}6.\end{cases}</math>

Voici un exemple d'algorithme<ref group="a" name="Marsaglia"/> pour le langage C :

<syntaxhighlight lang="C"> double Phi(double x){

  long double s=x,t=0,b=x,q=x*x,i=1;
  while(s!=t)
     s = (t=s) + (b*=q/(i+=2));
  return 0.5 + s*exp(-0.5*q - 0.91893853320467274178L);

} </syntaxhighlight>

Une autre écriture de la fonction de répartition de la loi normale centrée réduite utilise une fraction continue généralisée<ref group="a" name="Marsaglia"/> : Modèle:Retrait\cfrac{\cfrac12{\rm e}^{-x^2}}{x+\cfrac1{2x+\cfrac2{x+\cfrac3{2x+\cfrac4{x+\dots}}}}}</math>.}}

Tables numériques et calculs

Fichier:Fonction quantile d'une loi normale.png
Fonction quantile d'une loi normale centrée réduite.

Modèle:Refnec Modèle:Boîte déroulante/début La table suivante donne les valeurs de la fonction de répartition <math>\Phi(x)=\mathbb P[X\leq x]</math>, lorsque Modèle:Mvar suit la loi normale centrée réduite <math>\mathcal N(0,1)</math>.

Les valeurs en début de lignes donnent la première partie de la variable, les valeurs en début de colonnes donnent la deuxième partie. Ainsi la case de la deuxième ligne et troisième colonne donne : Modèle:Math.

Aire sous la courbe de la densité
La courbe en cloche est la fonction de densité. La droite verticale est la valeur Modèle:Mvar. La surface de la partie colorée sous la courbe est la valeur de <math>\mathbb P[X\leq x]=\Phi(x)</math>.
Aire sous la courbe de la densité
La courbe en cloche est la fonction de densité. Les droites verticales sont les valeurs Modèle:Math et Modèle:Math. La surface de la partie colorée sous la courbe est la valeur de <math>\mathbb P[x_1\leq X\leq x_2]=\Phi(x_2)-\Phi(x_1)</math>.
Aire sous la courbe de la densité
La courbe en cloche est la fonction de densité. La droite verticale est la valeur Modèle:Mvar. La surface de la partie colorée sous la courbe est la valeur de <math>\mathbb P[X\geq x]=1-\Phi(x)</math>.
Table de valeur de la fonction de répartition de la loi normale
<math>\Phi(x)</math> 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
3,6 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989
3,7 0,99989 0,99990 0,99990 0,99990 0,99991 0,99992 0,99992 0,99992 0,99992 0,99992
3,8 0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995
3,9 0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997

Modèle:Boîte déroulante/fin

Modèle:Boîte déroulante/début Les deux tables suivantes donnent<ref name="Bogaert354">Modèle:Harvsp.</ref> les valeurs du quantile <math>q_p</math> de la loi normale centrée réduite <math>\mathcal N(0,1)</math> défini par <math>q_p=\Phi^{-1}(p)</math>.

Les valeurs en début de ligne donne la première partie de la variable, les valeurs en début de colonne donne la deuxième partie. Ainsi la case de la deuxième ligne et troisième colonne donne : <math>q_{0{,}62}=\Phi^{-1}(0{,}62)=0{,}3055</math>.

Table de valeurs des quantiles <math>q_p</math>
<math>q_p</math> 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,50 0,0000 0,0251 0,0502 0,0753 0,1004 0,1257 0,1510 0,1764 0,2019 0,2275
0,60 0,2533 0,2793 0,3055 0,3319 0,3585 0,3853 0,4125 0,4399 0,4677 0,4959
0,70 0,5244 0,5534 0,5828 0,6128 0,6433 0,6745 0,7063 0,7388 0,7722 0,8064
0,80 0,8416 0,8779 0,9154 0,9542 0,9945 1,036 1,080 1,126 1,175 1,227
0,90 1,282 1,341 1,405 1,476 1,555 1,645 1,751 1,881 2,054 2,326

Cette table donne les valeurs des quantiles pour Modèle:Mvar grand.

Table de valeur des quantiles <math>q_p</math>
p 0,975 0,995 0,999 0,9995 0,9999 0,99995 0,99999 0,999995
<math>q_p</math> 1,9600 2,5758 3,0902 3,2905 3,7190 3,8906 4,2649 4,4172

Modèle:Boîte déroulante/fin

Les tables sont données pour les valeurs positives de la loi normale centrée réduite. Grâce aux formules de la fonction de répartition, il est possible d'obtenir d'autres valeurs.

Les valeurs négatives de la fonction de répartition sont données par la formule<ref name="Dodge502" /> Modèle:Math. Par exemple : Modèle:Retrait

Les valeurs de la fonction de répartition de la loi générale s'obtiennent par la formule<ref name="Grinstead213"/> <math>F(y)=\Phi(\frac{y-\mu}{\sigma})</math>. Par exemple<ref name="Grinstead214">Modèle:Harvsp.</ref> : Modèle:Retrait

La table de valeurs permet également d'obtenir la probabilité qu'une variable aléatoire de loi normale <math>X\sim\mathcal N(0,1)</math> appartienne à un intervalle donné Modèle:Math par la formule : <math>\mathbb P\left[X\in [a,b]\right]=\mathbb P[X\leq b]-\mathbb P[X < a]=\Phi(b)-\Phi(a)</math>. Par exemple :

  • <math>\mathbb P[X\geq 1{,}07]=1-\mathbb P[X < 1{,}07]=1-\mathbb P[X \leq 1{,}07]\approx 0{,}14231</math> pour <math>X\sim \mathcal N(0,1)</math> ;
  • <math>\mathbb P[0\leq X\leq 1{,}07]=\Phi(1{,}07)-\Phi(0)=\Phi(1{,}07)-0{,}5\approx 0{,}85769-0{,}5=0{,}35769</math> pour <math>X\sim \mathcal N(0,1)</math>.

Plages de normalité, intervalles de confiance

Un des intérêts de calculer des probabilités sur des intervalles est l'utilisation des intervalles de confiance pour les tests statistiques. Une loi normale est définie par deux valeurs : sa moyenne Modèle:Mvar et son écart type Modèle:Mvar. Ainsi il est utile de s'intéresser aux intervalles<ref name="Protassov72">Modèle:Harvsp.</ref> du type Modèle:Math. Modèle:Retrait

Modèle:Boîte déroulante/début

Fichier:Standard deviation diagram micro.svg
La courbe en cloche est la densité de probabilité. Les surfaces des zones colorées sous la courbe correspondent aux probabilités des intervalles Modèle:Math.

La table suivante s'obtient grâce aux tables précédentes<ref name="Protassov72"/> et donne les probabilités : Modèle:Retrait

Table de valeurs des intervalles de confiance
Modèle:Mvar 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5
<math>\mathbb P_r</math> 0,00 0,3829 0,6827 0,8664 0,9545 0,9876 0,9973 0,9995

Modèle:Boîte déroulante/fin

boite à moustache et courbe de Gauss
Représentation d'une boîte à moustaches et le lien avec les quantiles d'une loi normale.

Cette table de valeurs des intervalles de confiance permet d'obtenir les plages de normalité pour un niveau de confiance donné. Pour <math>Y\sim \mathcal N(\mu,\sigma^2)</math>, le tableau donne<ref name="Protassov29" /> :

  • <math>\mathbb P(\mu - \sigma \leq Y \leq \mu + \sigma) \approx 0{,}6827</math>.Modèle:Retrait
  • <math>\mathbb P(\mu - 0{,}5H \leq Y \leq \mu + 0{,}5H) \approx 0{,}76</math>.Modèle:Retrait
  • <math>\mathbb P(\mu - 2\sigma \leq Y \leq \mu + 2\sigma) \approx 0{,}9545</math>

Modèle:Retrait

  • <math>\mathbb P(\mu - 1.96\sigma \leq Y \leq \mu + 1.96\sigma) \approx 0{,}95</math>

Modèle:Retrait

  • <math>\mathbb P(\mu - 3\sigma \leq Y \leq \mu + 3\sigma) \approx 0{,}9973</math>Modèle:Retrait

Inversement, lorsque la valeur de la probabilité Modèle:Math est fixée, il existe<ref group="a" name="eduscol"/> une unique valeur <math>r>0</math> telle que : <math>\mathbb P(\mu - r\sigma \leq Y \leq \mu + r\sigma) = 2\Phi(r)-1= \alpha</math>. L'intervalle Modèle:Math est appelé plage de normalité ou intervalle de confiance au niveau de confiance Modèle:Mvar. Pour une loi normale <math>\mathcal N(\mu,\sigma^2)</math> et le seuil Modèle:Mvar donnés, la méthode pour retrouver cette valeur Modèle:Mvar consiste<ref name="Bogaert90">Modèle:Harvsp.</ref> à utiliser le tableau de valeur des quantiles (ci-dessus) pour trouver la valeur Modèle:Mvar telle que Modèle:Math ; l'intervalle de confiance est alors Modèle:Math.

Par exemple, la plage de normalité au niveau de confiance 95 % d'une loi normale <math>\mathcal N(10{,}2^2)</math> est l'intervalle Modèle:MathModèle:Mvar vérifie Modèle:Math, soit Modèle:Math, l'intervalle est donc : Modèle:Math aux arrondis près.

Liens avec d'autres lois

Grâce à son rôle central parmi les lois de probabilité et dans les applications, les lois normales possèdent beaucoup de liens avec les autres lois. Certaines lois sont même construites à partir d'une loi normale pour mieux correspondre aux applications.

Lois usuelles

Différentes lois du <math>\chi</math> et <math>\chi^2</math>
Lois en fonction de variables de loi normale
loi du χ² <math>\sum_{i=1}^k \left(\frac{X_i-\mu_i}{\sigma_i}\right)^2</math>
loi du χ² non centrée <math>\sum_{i=1}^k \left(\frac{X_i}{\sigma_i}\right)^2</math>
loi du χ <math>\sqrt{\sum_{i=1}^k \left(\frac{X_i-\mu_i}{\sigma_i}\right)^2}</math>
loi du χ non centrée <math>\sqrt{\sum_{i=1}^k \left(\frac{X_i}{\sigma_i}\right)^2}</math>

Lois unidimensionnelles

  • Si une variable aléatoire <math>X</math> suit la loi normale <math>\mathcal N(\mu,\sigma^2)</math>, alors<ref name="Ross301">Modèle:Harvsp.</ref> la variable aléatoire <math>\exp(X)</math> suit la loi log-normale.
  • Si Modèle:Mvar et Modèle:Mvar sont deux variables aléatoires indépendantes de loi uniforme sur [0, 1], alors les deux variables aléatoires <math>X=\sqrt{-2\ln(U)}\, \cos(2\pi V)</math> et <math>Y=\sqrt{-2\ln(U)}\, \sin(2\pi V)</math> sont de loi normale centrée réduite<ref name="Grinstead213">Modèle:Harvsp.</ref>. De plus Modèle:Mvar et Modèle:Mvar sont indépendantes. Ces deux formules sont utilisées pour simuler la loi normale.
  • Si les variables <math>X_1,X_2,\dots,X_n</math> sont indépendantes et de loi commune <math>\mathcal N(0,1)</math>, alors<ref name="Yger703">Modèle:Harvsp.</ref> la somme de leur carré : <math>\sum_{k=1}^n X_k^2</math> suit une loi du χ² à Modèle:Mvar degrés de liberté : <math>\chi^2(n)</math>. La formule s'étend pour des variables normales non centrées et non réduites. De plus, le même type de lien existe avec la loi du χ² non centrée, la loi du χ et la loi du χ non centrée (voir le tableau ci-contre).
  • Si la variable Modèle:Mvar suit la loi normale centrée réduite : <math>\mathcal N(0,1)</math>, si Modèle:Mvar suit une loi du Modèle:Mvar2 à Modèle:Mvar degrés de liberté <math>\chi^2(n)</math> et si Modèle:Mvar et Modèle:Mvar sont indépendantes, alors<ref name="Yger703"/> la variable <math>\frac U{\sqrt{\frac Vn}}</math> suit une loi de Student à Modèle:Mvar degrés de liberté : <math>t(n)</math>.
  • Si <math>X</math> est une variable aléatoire de loi normale centrée réduite et <math>U</math> de loi uniforme sur [0, 1], alors <math>\frac XU</math> est de loi dite de Slash<ref group="a" name="Ferrari">

Modèle:Article.</ref>.

  • Pour une variable aléatoire <math>X</math> de loi normale centrée réduite <math>\mathcal N(0,1)</math>, la variable <math>\mathrm{signe}(X) |X|^p</math> est de loi normale puissance p. Pour <math>p=1</math>, cette variable est de loi normale centrée réduite<ref group="a" name="Ferrari"/>.
  • Si <math>Z_1</math> et <math>Z_2</math> sont deux variables aléatoires indépendantes de loi normale centrée réduite, alors<ref name="Bogaert330">Modèle:Harvsp.</ref> le quotient <math>\frac{Z_1}{Z_2}</math> suit la loi de Cauchy de paramètre 0 et 1 : <math>Cau(0,1)</math>. Dans le cas où <math>Z_1</math> et <math>Z_2</math> sont deux gaussiennes quelconques (non centrées, non réduites), le quotient <math>\frac{Z_1}{Z_2}</math> suit une loi complexe dont la densité s'exprime en fonction de polynômes d'Hermite (l'expression exacte est donnée par Pham-Gia en 2006<ref group="a">Modèle:Article</ref>).

Lois multidimensionnelles

  • Il existe une version multidimensionnelle d'une loi normale, appelée loi normale multidimensionnelle, loi multinormale ou loi de Gauss à plusieurs variables. Lorsque <math>X_1,X_2,\dots,X_n</math> sont des variables aléatoires de lois normales, alors la loi de probabilité du vecteur aléatoire <math>(X_1,X_2,\dots,X_n)</math> est de loi normale multidimensionnelle. Sa densité de probabilité prend la même forme que la densité d'une loi normale mais avec une écriture matricielle. Si le vecteur aléatoire <math>(X_1,X_2)</math> est de loi normale multidimensionnelle <math>\mathcal N(\mu,\mathbf{\Sigma})</math> où Modèle:Mvar est le vecteur des moyennes et <math>\mathbf\Sigma</math> est la matrice de variance-covariance, alors la loi conditionnelle <math>(X_1|X_2=x)</math> de <math>X_1</math> sachant que <math>X_2=x</math> est la loi normale<ref name="Bogaert341">Modèle:Harvsp.</ref> <math>\mathcal N(\mu_{1|x},\sigma_{1|x})</math> :Modèle:Retrait{\sigma_{22}} \left( x - \mu_2 \right)</math> et <math>\sigma_{1|x} = \sigma_{11} - \frac{\sigma_{12}\sigma_{21}}{\sigma_{22}}</math>.}}
  • La loi de la norme euclidienne d'un vecteur dont les coordonnées sont indépendantes et de lois normales centrées, de même variance, est une loi de Rayleigh<ref group="a" name="fuchs"/>.

Il est à noter que la loi inverse-gaussienne et loi inverse-gaussienne généralisée n'ont pas de lien avec une formule simple créée à partir de variables de loi normale, mais ont une relation avec le mouvement brownien.

Lois normales généralisées

Modèle:Article détaillé Plusieurs généralisations de la loi normale ont été introduites afin de changer sa forme, son asymétrie, son support, etc.

Un nouveau paramètre <math>\beta>0</math> dit de forme peut être introduit dans une loi normale pour obtenir une loi normale généralisée. Cette famille de lois contient les lois normales, c'est le cas pour <math>\beta=2</math>, mais également la loi de Laplace pour <math>\beta=1</math>. La nouvelle densité de probabilité est donnée par<ref group="a">Modèle:Article.</ref> Modèle:Retrait

Il existe une manière de changer l'asymétrie d'une loi normale afin d'obtenir une loi dite loi normale asymétrique (skew normal distribution en anglais)<ref group="a">Modèle:Article.</ref>. L'introduction d'un paramètre <math>\lambda\in\R</math> permet d'obtenir une loi normale lorsque <math>\lambda=0</math>, une asymétrie vers la droite lorsque <math>\lambda>0</math> et une asymétrie vers la gauche lorsque <math>\lambda<0</math>. La densité de cette loi est donnée par : Modèle:Retrait

Afin de changer le support d'une loi normale et notamment de le rendre borné, une modification possible de cette loi est de la tronquer. Elle est alors changée d'échelle pour que les parties coupées se répartissent sur l'ensemble des valeurs gardées (à la différence de la loi repliée, voir ci-dessous). La loi normale centrée réduite tronquée en –T et en T a pour support l'intervalle <math>[-T,T]</math> et sa fonction de densité se définit par<ref group="a">Modèle:Article.</ref> : Modèle:Retrait

Il est également possible de tronquer une loi normale d'un seul côté. Elle est alors appelée « loi normale rectifiée ». Si une variable aléatoire <math>X</math> suit la loi normale <math>\mathcal N(\mu, \sigma^2)</math>, alors <math>\max(X,0)</math> suit la loi normale rectifiée<ref group="a" name="hochreiter">Modèle:Article.</ref>.

Une autre manière de changer le support de la loi normale est de « replier » la densité à partir d'une valeur, la loi obtenue est une loi normale repliée. Les valeurs retirées, par exemple <math>\left]-\infty,0\right[</math>, sont alors réparties proche de la valeur charnière, 0 ici (à la différence de la loi tronquée, voir ci-dessus). La densité de probabilité de la loi normale repliée en 0 est donnée par<ref group="a">Modèle:Article.</ref> : Modèle:Retrait \, \exp \left( -\frac{(x+\mu)^2}{2\sigma^2} \right) + \frac1{\sigma\sqrt{2\pi}} \, \exp \left( -\frac{(x-\mu)^2}{2\sigma^2} \right)& \text{ si }x \ge 0 \\ 0 &\text{ sinon.}\end{cases} </math>}}

Une version généralisée de la loi log-normale permet d'obtenir une famille de lois comprenant les lois normales comme cas particulier<ref name="Hosking197">Modèle:Harvsp.</ref>. La famille est définie à partir de trois paramètres : un paramètre de position Modèle:Mvar, un paramètre d'échelle Modèle:Mvar et un paramètre de forme <math>\kappa\in\R</math>. Lorsque <math>\kappa=0</math>, cette loi log-normale généralisée est la loi normale. La densité est donnée par : Modèle:Retrait

Fichier:Generalized normal densities.svg
Différentes formes pour la densité de la loi normale généralisée.
Fichier:Skew normal densities.svg
Différentes formes pour la densité de la loi normale asymétrique.
Fichier:Normaletronquée2.svg
Loi normale centrée réduite tronquée en 1,5 pour la courbe rouge et en 2,5 pour la courbe bleue.
Fichier:Folded normal pdf.svg
En vert, la densité de la loi normale repliée en 0.
Fichier:Generalized normal densities 2.svg
Différentes formes pour la densité de la loi log-normale.
 

Constructions à partir d'une loi normale

Mélange de lois

Modèle:Article détaillé

densité d'un mélange de lois normales.
En bleu : densité d'une combinaison linéaire de deux densités normales.

Un mélange gaussien est une loi de probabilité dont la densité est définie par une combinaison linéaire de deux densités de lois normales. Si l'on note <math>f_1</math> la densité de <math>\mathcal N(\mu_1,\sigma_1^2)</math> et <math>f_2</math> la densité de <math>\mathcal N(\mu_2,\sigma_2^2)</math>, alors <math>\lambda f_1+(1-\lambda)f_2</math> est la densité d'une loi de probabilité dite mélange gaussien<ref name="Bogaert86">Modèle:Harvsp.</ref>.

Il ne faut pas confondre la combinaison linéaire de deux variables aléatoires indépendantes de loi normale, qui reste une variable gaussienne, et la combinaison linéaire de leurs deux densités, qui permet d'obtenir une loi qui n'est pas une loi normale.

Les modes des deux lois normales sont donnés par Modèle:Mvar1 et Modèle:Mvar2, le mélange gaussien est alors une loi bimodale. Ses maxima locaux sont proches de mais non égaux<ref name="Bogaert86"/> aux valeurs Modèle:Mvar1 et Modèle:Mvar2.

Généralités

Il est possible de construire d'autres densités de probabilité grâce à la densité <math>\varphi</math> de la loi normale centrée réduite. Harald Cramér énonce en 1926 un résultat général<ref name="Tassi205">Modèle:Harvsp.</ref> : si une densité de probabilité <math>g</math> est deux fois dérivable, si l'intégrale <math>\int (g(x))^2{\rm e}^{x^2/2}\,\mathrm dx</math> converge et si <math>\lim_{+\infty}g=\lim_{-\infty}g=0</math>, alors la fonction <math>g</math> peut être développée en une série absolument et uniformément convergente en fonction des dérivées de la densité de la loi normale centrée réduite et des polynômes d'Hermite <math>H_k</math> : Modèle:Retrait

Utilisations

Historiquement, les lois normales sont introduites lors d'études d'objets célestes ou de jeux de hasard. Elles sont ensuite étudiées et généralisée mathématiquement puis elles sont utilisées dans de nombreuses autres applications : en mathématiques, dans d'autres sciences exactes, dans des sciences plus appliquées ou des sciences humaines et sociales. Voici une sélection d'exemples.

Balistique

Au Modèle:S mini- siècleModèle:Vérification siècle, pour améliorer les précisions des tirs de l'artillerie, de nombreux tirs de canons sont réalisés. Il est observé que la direction et la portée sont assimilables à des lois normales<ref group="a" name="Hadjadji">Modèle:Article.</ref>. Cette compréhension permet de mieux entraîner les servants pour régler les tirs. Ces lois normales proviennent de différents facteurs comme les conditions climatiques, mais également de l'usure du matériel militaire. La dispersion des points d'impact, et donc de la loi, renseigne sur l'état du matériel et sur le nombre éventuel de tirs anormaux. L'ajustement à une loi normale est alors effectué par le test de Lhoste sur une série de 200 tirs. Le mathématicien Jules Haag applique la méthode pour Modèle:Unité de différentes portées et de différentes directions<ref group="a" name="Hadjadji"/>.

Quotient intellectuel

Le quotient intellectuel (QI) a pour objectif de donner une valeur numérique à l'intelligence humaine. En 1939, David Wechsler donne une définition à ce quotient de manière statistique. Une note de 100 est donnée à la moyenne des valeurs obtenues dans une population de même âge et 15 points sont retranchés pour un écart égal à l'écart type obtenu à partir des valeurs de la population testée<ref name="Bogaert68">Modèle:Harvsp.</ref>. Pour cette raison, en pratique, la courbe de répartition du QI est modélisée par la courbe en cloche de la loi normale centrée en 100 et d'écart type 15 : <math>\mathcal N(100,\ 15^2)</math>. Cependant cette modélisation est remise en cause par certains scientifiques. En effet, les résultats des tests dépendraient des classes sociales ; la population ne serait donc plus homogène, c'est-à-dire que la propriété d'indépendance des individus ne serait pas vérifiée<ref group="a" name="Mollo">Modèle:Article.</ref>. Modèle:Refnec

Anatomie humaine

Courbe de croissance du poids.
Exemple de courbe de croissance du poids.

Un caractère observable et mesurable dans une population d'individus comparables a souvent une fréquence modélisée par une loi normale. C'est le cas par exemple de la taille humaine pour un âge donné (en séparant les hommes et les femmes)<ref name="Ridley76">Modèle:Harvsp.</ref>, de la taille des becs dans une population d'oiseaux comme les pinsons de Darwin étudiés par Darwin<ref name="Ridley226"/>. Plus précisément, un caractère mesurable dans une population peut être modélisé à l'aide d'une loi normale s'il est codé génétiquement par de nombreux allèles ou par de nombreux loci<ref name="Ridley226">Modèle:Harvsp.</ref> ou si le caractère dépend d'un grand nombre d'effets environnementaux<ref name="Ridley252">Modèle:Harvsp.</ref>.

Les courbes de croissance données par l'OMS, et présentes par exemple dans les carnets de santé, sont issues de modélisations grâce à une loi normale. Grâce à une étude détaillée des centiles mesurés dans une population d'âge fixé et grâce à des tests statistiques d'adéquation, les répartitions du poids et de la taille par tranche d'âge ont été modélisées par des lois de probabilité. Parmi ces lois on retrouve les lois normales, la Modèle:Lien (généralisation de la loi normale), la loi Student de Box-Cox (généralisation de la loi normale de Box-Cox) ou encore la loi exponentielle-puissance de Box-Cox<ref group="a" name="borghi">Modèle:Article.</ref>. Modèle:Refnec

Traitement du signal et mesures physiques

lissage gaussien
Un filtre gaussien a été appliqué à l'image du haut, issue d'un journal, pour obtenir l'image du bas, plus lisse, moins granuleuse.

Lorsqu'un signal est transmis, une perte d'information apparaît à cause du moyen de transmission ou du décodage du signal. Lorsqu'une mesure physique est effectuée, une incertitude sur le résultat peut provenir d'une imprécision de l'appareil de mesure ou d'une impossibilité à obtenir la valeur théorique. Une méthode pour modéliser de tels phénomènes est de considérer un modèle déterministe (non aléatoire) pour le signal ou la mesure et d'y ajouter ou multiplier un terme aléatoire qui représente la perturbation aléatoire, parfois appelée erreur ou bruit. Dans beaucoup de cas cette erreur additive est supposée de loi normale, de loi log-normale dans le cas multiplicatif<ref name="Hosking157">Modèle:Harvsp.</ref>. C'est le cas, par exemple, pour la transmission d'un signal à travers un câble électrique<ref name="Ross239"/>. Lorsque le processus dépend du temps, le signal ou la mesure est alors modélisé grâce à un bruit blanc (voir ci-dessus)<ref name="Yadolah354">Modèle:Harvsp.</ref>.

Modèle:Refnec

Économie

Les prix de certaines denrées sont données par une bourse, c'est le cas du cours du blé, du coton brut ou de l'or. Au temps <math>t</math>, le prix <math>Z(t)</math> évolue jusqu'au temps <math>t+T</math> par l'accroissement <math>Z(t+T)-Z(t)</math>. En 1900, Louis Bachelier postule que cet accroissement suit une loi normale de moyenne nulle et dont la variance dépend de <math>t</math> et <math>T</math>. Cependant ce modèle satisfait peu l'observation faite des marchés financiers. D'autres mathématiciens proposent alors d'améliorer ce modèle en supposant que c'est l'accroissement <math>\ln Z(t+T)-\ln Z(t)</math> qui suit une loi normale<ref group="a" name="Mandelbrot">Modèle:Article.</ref>, c'est-à-dire que l'accroissement du prix suit une loi log-normale. Cette hypothèse est à la base du modèle et de la formule de Black-Scholes utilisés massivement par l'industrie financière.

Ce modèle est encore amélioré, par Benoît Mandelbrot notamment, en supposant que l'accroissement suit une loi stable (la loi normale est un cas particulier de loi stable). Il apparaît alors le mouvement brownien dont l'accroissement est de loi normale et le processus de Lévy (stable) dont l'accroissement stable pour modéliser les courbes des marchés<ref group="a" name="Mandelbrot" />.

Mathématiques

Bruit blanc gaussien
Bruit blanc gaussien unidimensionnel.

Les lois normales sont utilisées dans plusieurs domaines des mathématiques. Le bruit blanc gaussien est un processus stochastique tel qu'en tout point, le processus est une variable aléatoire de loi normale indépendante du processus aux autres points<ref name="Yger573">Modèle:Harvsp.</ref>. Le mouvement brownien <math>(B(t),t\geq 0)</math> est un processus stochastique dont les accroissements sont indépendants, stationnaires et de loi normale<ref group="a" name="Mandelbrot"/>. Notamment pour une valeur <math>t>0</math> fixée, la variable aléatoire <math>B(t)</math> suit la loi normale <math>\mathcal N(0,t)</math>. Ce processus aléatoire possède de nombreuses applications, il fait un lien entre l'équation de la chaleur et la loi normale<ref group="a" name="Kahane"/>. Lorsque l'extrémité d'une tige métallique est chauffée pendant un court instant, la chaleur se propage le long de la tige sous la forme d'une courbe en cloche.

Les lois normales ont également des applications dans des domaines mathématiques non aléatoires comme la théorie des nombres. Tout nombre entier Modèle:Mvar peut s'écrire comme un produit de puissances de nombres premiers. Notons <math>\omega(n)</math> le nombre de nombres premiers différents dans cette décomposition. Par exemple, puisque <math>60=2^2\times 3 \times 5</math>, <math>\omega(60)=3</math>. Le théorème d'Erdős-Kac assure<ref group="a" name="Kahane">Modèle:Lien web.</ref> que cette fonction <math>n\mapsto \omega(n)</math> pour <math>n\leq N</math> est apparentée à la densité d'une loi normale <math>\mathcal N\left(\ln\ln(N),\sqrt{\ln\ln(N)}\right)</math>. C'est-à-dire que pour un grand nombre de l'ordre de <math>1000000000=10^9</math>, il y a une forte probabilité pour que le nombre de diviseurs premiers soit 3, puisque <math>\ln\ln(10^9)\approx 3{,}03</math>.

Tests et estimations

Critères de normalité

Droite de Henry.
Quatre valeurs ainsi que la droite de Henry représentées sur un papier gausso-arithmétique.

Modèle:Refnec

Modèle:Refnec

La droite de Henry permet de faire un ajustement des valeurs observées avec une loi normale. C'est-à-dire qu'en représentant la droite de Henry, il est possible de porter un diagnostic sur la nature normale ou non de la distribution et, dans le cas où celle-ci a des chances d'être normale, elle permet d'en déterminer la moyenne et l'écart type. Les valeurs <math>(x_i , i\leq n)</math> sont observées et représentées par leur fonction de répartition empirique <math>F_n</math>. Elles sont gaussiennes si les points <math>(x_i,F_n(x_i))</math> représentés sur un papier gausso-arithmétique sont alignés suivant une droite dite de Henri<ref name="Tassi144">Modèle:Harvsp.</ref>. Un papier gausso-arithmétique est gradué avec une échelle arithmétique en abscisse et graduée suivant l'inverse de la fonction de répartition de la loi normale centrée réduite <math>\Phi^{-1}</math> en ordonnée<ref name="Yadolah228">Modèle:Harvsp.</ref>.

Modèle:Refnec

Tests de normalité

Modèle:Article détaillé Grâce à son rôle dans le théorème central limite, les lois normales se retrouvent dans de nombreux tests statistiques dits gaussiens ou asymptotiquement gaussiens. L'hypothèse dite de normalité est faite sur une loi a priori dans un test d'adéquation pour indiquer que cette loi suit, approximativement, une loi normale<ref group="a" name="Hadjadji"/>. Il existe plusieurs tests de normalité.

  • Un [[Test du χ²#Test du χ² d'adéquation|test du Modèle:Mvar2 d'adéquation]] à une loi normale est possible pour tester si une série de k valeurs observées suit une loi normale<ref name="Yadolah519">Modèle:Harvsp.</ref>. Dans ce type de test, l'hypothèse nulle est : la distribution observée peut être approchée par une loi normale. Après avoir regroupé les k valeurs observées en classes, il faut calculer les probabilités qu'une variable aléatoire de loi normale appartienne à chaque classe en estimant les paramètres de la loi grâce aux valeurs observées. Ces probabilités peuvent être obtenues avec les tables numériques d'une loi normale. Si l'hypothèse nulle est vraie, la [[Test du χ²#Test du χ² d'adéquation|statistique du Modèle:Mvar2]] calculée à partir des valeurs observées et des probabilités précédentes suit une loi du χ². Le nombre de degré de liberté est Modèle:Math si la moyenne et l'écart type sont connus, Modèle:Math si l'un des deux paramètres est inconnu, ou Modèle:Math si les deux paramètres sont inconnus. L'hypothèse nulle est rejetée si la statistique du Modèle:Mvar2 est supérieure à la valeur obtenue grâce à la [[Table des lois de probabilités|table de la loi du Modèle:Mvar2]] au seuil Modèle:Mvar.
  • Le test de Lilliefors est basé sur la comparaison entre la fonction de répartition d'une loi normale et la fonction de répartition empirique, c'est une adaptation du test de Kolmogorov-Smirnov. Les avis sont partagés sur la puissance de ce test, il est performant autour de la moyenne mais l'est moins pour la comparaison des queues de distribution<ref group="a" name="Akotomalala"/>. Les valeurs observées <math>(x_i , i\leq n)</math> sont rangées par ordre croissant <math>(x_{(i)},i\leq n)</math>, les valeurs <math>F_i=\Phi\left((x_{(i)}-\overline{x})/s\right)</math> sont les fréquences théoriques de la loi normale centrée réduite associées aux valeurs standardisées. Si la statistique :Modèle:Retraitest supérieure à une valeur critique calculée grâce au seuil Modèle:Mvar et à la taille de l'échantillon, alors l'hypothèse de normalité est rejetée au seuil Modèle:Mvar.
  • Le test d'Anderson-Darling est une autre version du test de Kolmogorov-Smirnov mieux adaptée à l'étude des queues de distribution<ref group="a" name="Akotomalala"/>. En reprenant les mêmes notations que le test de Lilliefors, si la statistique :Modèle:Retraitest supérieure à une valeur critique calculée grâce au seuil Modèle:Mvar et à la taille de l'échantillon, alors l'hypothèse de normalité est rejetée au seuil Modèle:Mvar.
  • Le test de D'Agostino est basé sur les coefficients de symétrie et d'aplatissement. Il est particulièrement efficace à partir de <math>n\geq 20</math> valeurs observées<ref group="a" name="Akotomalala"/>. Même si l'idée de ce test est simple, les formules sont plus compliquées à écrire. L'idée est de construire des modifications des coefficients de symétrie et d'aplatissement pour obtenir des variables <math>z_1</math> et <math>z_2</math> de loi normale centrée réduite. Il faut alors effectuer un test du χ² avec la statistique <math>z_1^2+z_2^2</math>.
  • Le test de Jarque-Bera est également basé sur les coefficients de symétrie et d'aplatissement. Ce test n'est intéressant que pour un nombre élevé de valeurs observées<ref group="a" name="Akotomalala"/>. En considérant les deux estimateurs :Modèle:Retrait</math> et <math>b_2=\frac{\frac1n\sum_{i=1}^n (x_i-\overline x)^4}{\left(\frac1n\sum_{i=1}^n (x_i-\overline x)^2\right)^2},</math>}}comme précédemment, il faut effectuer un test du Modèle:Mvar2 avec la statistique <math>T=n\left( b_1^2/6 + (b_2-3)^2/24 \right)</math>.
  • Le test de Shapiro-Wilk (proposé en 1965) est efficace pour les petits échantillons de moins de 50 valeurs<ref group="a" name="Akotomalala">Modèle:Lien web.</ref>. Les valeurs observées <math>(x_i , i\leq n)</math> sont rangées par ordre croissant <math>(x_{(i)},i\leq n)</math> et des coefficients <math>a_i</math> sont calculés à partir de quantiles, moyenne, variance et covariance d'une loi normale. Si la statistiqueModèle:Retraitest inférieure à une valeur critique calculée grâce au seuil Modèle:Mvar et à la taille de l'échantillon, alors l'hypothèse de normalité est rejetée au seuil Modèle:Mvar.

Estimations des paramètres

Lorsqu'un phénomène aléatoire est observé et qu'il est considéré comme pouvant être modélisé par une loi normale, une des questions que l'on peut se poser est : que valent les paramètres Modèle:Mvar et Modèle:Mvar de la loi normale <math>\mathcal N(\mu,\sigma^2)</math> ? Une estimation est alors à effectuer. Les observations récupérées lors de l'observation du phénomène sont notées par des variables aléatoires <math>X_1,X_2,\dots,X_n</math>, les notations de la moyenne arithmétique et de la moyenne des carrés sont également utiles<ref name="Yger715">Modèle:Harvsp.</ref> : Modèle:Retrait et Modèle:Retrait Ces deux valeurs sont respectivement des estimateurs de la moyenne et de la variance qui se calculent à partir des valeurs observées. Puisque les variables <math>X_1,X_2,\dots,X_n</math> sont de loi normale, alors Modèle:Retrait et Modèle:Retrait

Estimation de la moyenne Modèle:Mvar (lorsque l'écart type Modèle:Mvar est connu)

Une méthode est de chercher un intervalle de confiance à un seuil Modèle:Mvar autour de la moyenne théorique Modèle:Mvar. En utilisant les quantiles d'ordre <math>\frac{\alpha}2</math> et <math>1-\frac{\alpha}2</math>, la formule définissant les quantiles permet d'obtenir<ref name="Yger715"/> : Modèle:Retrait Grâce aux valeurs observées et aux tables numériques de la loi normale centrée réduite (voir la table), il est alors possible de donner les valeurs numériques de l'intervalle <math>\left[S_n-\frac{\sigma}{\sqrt n}q_{\alpha/2} , S_n+\frac{\sigma}{\sqrt n}q_{\alpha/2} \right]</math>, intervalle de confiance pour Modèle:Mvar au seuil Modèle:Mvar.

Estimation de la moyenne Modèle:Mvar (lorsque l'écart type Modèle:Mvar est inconnu)

Une méthode est d'utiliser une variable intermédiaire qui peut s'écrire à l'aide de nouvelles variables aléatoires <math>U=\frac{S_n-\mu}{\sigma/\sqrt n}</math> de loi <math>\mathcal N(0,1)</math> et <math>V=\frac{n-1}{\sigma^2}T_{n-1}^2</math> de loi <math>\chi^2 (n-1)</math> : <math>\sqrt n\frac{S_n-\mu}{T_{n-1}} = \frac{U\sqrt{n-1}}{\sqrt{V}}</math> est de loi de Student <math>t(n-1)</math>. En utilisant les quantiles d'ordre <math>\frac{\alpha}2</math> et <math>1-\frac{\alpha}2</math>, la formule définissant les quantiles permet d'obtenir<ref name="Yger716">Modèle:Harvsp.</ref> : Modèle:Retrait{\sqrt n}q_{\alpha/2} \leq \mu \leq S_n-\frac{T_{n-1}}{\sqrt n}q_{\alpha/2} \right)\geq 1- \alpha</math>.}} Grâce aux valeurs observées et aux tables numériques des lois de Student, il est alors possible de donner les valeurs numériques de l'intervalle <math>\left[S_n+\frac{T_{n-1}}{\sqrt n}q_{\alpha/2} , S_n-\frac{T_{n-1}}{\sqrt n}q_{\alpha/2} \right]</math>, intervalle de confiance pour Modèle:Mvar au seuil Modèle:Mvar.

Estimation de l'écart type Modèle:Mvar (lorsque la moyenne Modèle:Mvar est inconnue)

La méthode est la même que la précédente. L'introduction de la variable aléatoire <math>T_{n-1}^2\frac{n-1}{\sigma^2}</math> de loi du χ² à Modèle:Math degrés de liberté permet d'obtenir<ref name="Yger717">Modèle:Harvsp.</ref> : Modèle:Retrait} \leq \sigma \leq \sqrt{T_{n-1}^2\frac{n-1}{q_{\alpha/2}}} \right)\geq 1- \alpha</math> où <math>q_{1-\alpha/2}</math> et <math>q_{\alpha/2}</math> sont les quantiles de la loi du Modèle:Mvar2 à Modèle:Math degrés de liberté que l'on peut obtenir à partir de la table numérique du Modèle:Mvar2. L'intervalle <math>\left[\sqrt{T_{n-1}^2\frac{n-1}{q_{1-\alpha/2}}} , \sqrt{T_{n-1}^2\frac{n-1}{q_{\alpha/2}}}\right]</math> est l'intervalle de confiance au seuil Modèle:Mvar.}}

Simulation

Pour étudier un phénomène aléatoire dans lequel intervient une variable normale dont les paramètres sont connus ou estimés, une approche analytique est souvent trop complexe à développer. Dans un tel cas, il est possible de recourir à une méthode de simulation, en particulier à la méthode de Monte-Carlo qui consiste à générer un échantillon artificiel de valeurs indépendantes de la variable, ceci à l'aide d'un ordinateur. Les logiciels ou les langages de programmation possèdent en général un générateur de nombres pseudo-aléatoires ayant une distribution uniforme sur ]0, 1[. Il s'agit alors de transformer cette variable de loi <math>U(]0, 1[)</math> en une variable <math>\mathcal N(0,1)</math> (l'adaptation à d'autres valeurs des paramètres ne pose pas de problème).

Approches à éviter

  • De manière générale, on peut exploiter la fonction réciproque de la fonction de répartition : en l'occurrence, la variable aléatoire <math>\Phi^{-1}(U)</math> suit la loi normale centrée réduite ; cette méthode est cependant malcommode, faute d'expressions simples des fonctions <math>\Phi</math> et <math>\Phi^{-1}</math> ; par ailleurs, les résultats sont numériquement insatisfaisants.
  • Si <math>U_1, U_2,\dots, U_{12}</math> sont douze variables indépendantes de loi uniforme sur [0, 1], alors la variable <math>\sum_{k=1}^{12}U_k-6</math> est de moyenne nulle et d'écart type unitaire. Ainsi, grâce au théorème central limite, cette variable suit approximativement la loi normale centrée réduite<ref group="a" name="Atkinson">Modèle:Article.</ref>. C'est une manière simple de générer une loi normale, cependant l'approximation reste imprécise.

Approches efficientes

  • Un meilleur algorithme est la méthode de Box-Muller qui utilise une représentation polaire de deux coordonnées uniformes donnée par les formules : Modèle:Retraitet les deux variables obtenues sont indépendantes. Cet algorithme est simple à réaliser, mais le calcul d'un logarithme, d'une racine carrée et d'une fonction trigonométrique ralentit le traitement<ref group="a" name="Atkinson"/>.
  • Une amélioration a été proposée par Modèle:Lien et Bray en 1964<ref group="a">{{#invoke:Langue|indicationDeLangue}} George Marsaglia et Thomas A. Bray, « A convenient method for generating normal variables », SIAM Review, vol. 6, Modèle:N°, juillet 1964, Modèle:P. (Modèle:Jstor, Modèle:Doi).</ref>, en remplaçant les cosinus et sinus par les variables <math>V_1/\sqrt W</math> et <math>V_2/\sqrt W</math> où <math>V_1</math> et <math>V_2</math> sont indépendantes de loi <math>\mathcal U(-1,1)</math> et <math>W=V_1^2+V_2^2</math>, lorsque <math>W<1</math> (on rejette les couples qui ne vérifient pas cette dernière condition). Ainsi :Modèle:Retrait\sim\mathcal N(0,1) \\ V_2\sqrt{-2\dfrac{\ln W}{W}}\sim\mathcal N(0,1).\end{cases}</math>}}Cet algorithme n'est pas plus lourd à mettre en œuvre et la simulation gagne en vitesse<ref group="a" name="Atkinson"/>.
  • Pour un grand nombre de tirages aléatoires, la méthode Ziggourat est encore plus rapide, mais sa mise en œuvre est plus complexe.

Hommages

Par son utilisation généralisée dans les sciences, une loi normale, souvent par l'utilisation de la courbe en cloche, est mise en avant dans différents contextes et est utilisée pour représenter l'universalité d'une répartition statistique, entre autres.

Fichier:10 DM Serie4 Vorderseite.jpg
Carl Friedrich Gauss et la courbe en cloche sur un billet de dix deutschemarks.

Francis Galton parle des lois normales dans son œuvre Natural Inheritence de 1889 en ces termes élogieux<ref group="a" name="fuchs"/> : Modèle:Citation bloc

En 1989, un hommage est rendu à Carl Friedrich Gauss en imprimant un billet à son effigie, la courbe en cloche est également présente sur le billet. Des pierres tombales portent le signe de la courbe en cloche, c'est le cas pour certains mathématiciens.

Le statisticien William J. Youden écrit<ref name="Stigler415">Modèle:Harvsp.</ref> en 1962 une explication du but et de la position des lois normales dans les sciences. Il la présente en calligramme sous forme de courbe en cloche :

THE
NORMAL
LAW OF ERROR
STANDS OUT IN THE
EXPERIENCE OF MANKIND
AS ONE OF THE BROADEST
GENERALIZATIONS OF NATURAL
PHILOSOPHY ♦ IT SERVES AS THE
GUIDING INSTRUMENT IN RESEARCHES
IN THE PHYSICAL AND SOCIAL SCIENCES AND
IN MEDICINE AGRICULTURE AND ENGINEERING ♦
IT IS AN INDISPENSABLE TOOL FOR THE ANALYSIS AND THE
INTERPRETATION OF THE BASIC DATA OBTAINED BY OBSERVATION AND EXPERIMENT

Modèle:Citation bloc

Notes et références

Notes

Modèle:Références

Références

Ouvrages

Modèle:Références

Articles et autres sources

Modèle:Références

Voir aussi

Modèle:Autres projets Modèle:Catégorie principale

Bibliographie

Modèle:Légende plume

Articles connexes

Liens externes

Modèle:Liens

Modèle:Palette Modèle:Portail Modèle:Bon article