Loi binomiale
Modèle:En-tête label Modèle:Infobox/Début Modèle:Infobox/Titre Modèle:Infobox/Image Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Notice Modèle:Infobox/Fin
En théorie des probabilités et en statistique, la loi binomiale modélise la fréquence du nombre de succès obtenus lors de la répétition de plusieurs expériences aléatoires identiques et indépendantes.
Plus mathématiquement, la loi binomiale est une loi de probabilité discrète décrite par deux paramètres : Modèle:Math le nombre d'expériences réalisées, et Modèle:Math la probabilité de succès. Pour chaque expérience appelée épreuve de Bernoulli, on utilise une variable aléatoire qui prend la valeur Modèle:Math lors d'un succès et la valeur Modèle:Math sinon. La variable aléatoire, somme de toutes ces variables aléatoires, compte le nombre de succès et suit une loi binomiale. Il est alors possible d'obtenir la probabilité de Modèle:Math succès dans une répétition de Modèle:Math expériences :
- <math>\mathbb{P}(X = k)= {n \choose k} \, p^k (1-p)^{n-k}.</math>
Cette formule fait intervenir le coefficient binomial <math>{n\choose k}</math> duquel provient le nom de la loi.
L'importance de cette loi est d'abord historique puisqu'elle a été l'objet d'étude du théorème de Moivre-Laplace, résultat du Modèle:S mini- siècleModèle:Vérification siècle fondateur des théorèmes de convergence. Une loi binomiale peut également être utilisée pour modéliser des situations simples de succès ou échec, un jeu de pile ou face par exemple. Le calcul de sa fonction de masse devient rapidement fastidieux lorsque Modèle:Math est grand, il est alors possible d'utiliser des approximations par d'autres lois de probabilité telles que la loi de Poisson ou la loi normale et d'utiliser des tables de valeurs.
La loi binomiale est utilisée dans divers domaines d'étude, notamment à travers des tests statistiques qui permettent d'interpréter des données et de prendre des décisions dans des situations dépendant de l'aléa. De par la simplicité de sa définition, c'est l'une des lois de probabilité étudiées dans les cours d'introduction à la théorie des probabilités.
Explication intuitive
Premiers exemples
Pile ou face
Considérons n lancers successifs d'une pièce de monnaie. Alors le nombre de fois où la pièce apparaît du côté pile suit la loi binomiale où le nombre d'expériences réalisées est n et où la probabilité de succès est <math>p = \frac 1 2</math>.
Lancer de dé
Considérons n lancers successifs d'un dé à 6 faces. Alors le nombre de fois où l'on obtient un 1, suit la loi binomiale où le nombre d'expériences réalisées est n et où la probabilité de succès est <math>p = \frac 1 6</math>.
Définition intuitive
Une loi de Bernoulli décrit le comportement d'une expérience aléatoire qui possède deux résultats possibles traditionnellement appelés succès et échec<ref name="gossett310">Modèle:Harvsp.</ref>. Une telle expérience s'appelle une épreuve de Bernoulli. Par exemple, lors d'un lancer de pile ou face, on peut considérer qu'obtenir face est un succès et obtenir pile est un échec. Dans ce modèle, la probabilité de succès est une valeur fixe, c'est-à-dire qui reste constante à chaque renouvellement de l'expérience aléatoire. Cette probabilité de succès est notée p.
On considère la situation où une telle expérience aléatoire (deux résultats possibles et une probabilité fixe) est répétée un certain nombre de fois de manière indépendante ; notons Modèle:Math ce nombre de fois. Cette répétition indépendante d'épreuves de Bernoulli s'appelle un schéma de Bernoulli ou simplement des épreuves de Bernoulli<ref name="dodge175">Modèle:Harvsp.</ref>. Une loi binomiale décrit le nombre de fois où le succès apparaît sur les Modèle:Math expériences effectuées. Le nombre de succès obtenus étant une valeur aléatoire, une loi binomiale est décrite grâce à la donnée des probabilités que le succès apparaisse précisément Modèle:Math fois sur les Modèle:Math essais.
Arbre de probabilité
Une manière visuelle de représenter une suite d'expériences est d'utiliser un arbre de probabilité. Chaque épreuve est représentée par deux branches : l'une pour le succès, l'autre l'échec. À chaque extrémité, on rajoute deux branches (succès et échec) pour l'épreuve suivante. On recommence jusqu'au nombre total d'épreuves. À chaque extrémité finale, on peut compter le nombre de succès obtenus. Il suffit de multiplier le nombre de fois où il y a Modèle:Math succès par la probabilité d'obtenir Modèle:Math succès pour obtenir la probabilité correspondante de la loi binomiale.
Par exemple, on lance 3 fois de suite un dé équilibré à six faces et on s'intéresse au nombre de fois que le Modèle:Math apparaît. Il apparaît 0, 1, 2 ou 3 fois. Chaque lancer est indépendant des autres et la probabilité d'obtenir le Modèle:Math est de Modèle:Math sur chacun d'entre eux, autrement dit la probabilité qu'il n'apparaisse pas est de Modèle:Math à chaque lancer. Ainsi, pour chaque lancer, on considère une loi de Bernoulli de paramètre Modèle:Math. Il y a trois configurations pour obtenir une seule fois le Modèle:Math : il apparaît au premier lancer ou au deuxième ou au troisième. Chacune de ces issues a la même probabilité d'apparaître : <math>\frac{1}{6} \times \frac{5}{6} \times \frac{5}{6}</math>. La probabilité pour avoir une fois le Modèle:Math est alors : <math>3\times \frac{1}{6} \times \frac{5}{6} \times \frac{5}{6}</math>. On retrouve bien <math>\mathbb P(X=1)={3\choose 1} \left(1/6\right)^1\left(5/6\right)^{3-1}</math> pour une loi binomiale Modèle:Math. Il est possible de retrouver les autres probabilités de la même façon.
Définition mathématique
La loi binomiale est une loi de probabilité discrète<ref name="dodge287"/> à deux paramètres : <math>n\in \mathbb N^*</math> et <math>p\in[0;1]</math>. Il est fréquent d'utiliser également le paramètre Modèle:Math pour avoir des expressions plus concises. Elle possède plusieurs définitions équivalentes :
On rappelle que des variables aléatoires <math>Y_1</math> et <math>Y_2</math> de loi discrète sont indépendantes si <math>\mathbb P(Y_1=k,Y_2=h)=\mathbb P(Y_1=k)\mathbb P(Y_2=h)</math>.
La fonction de masse donnée dans la définition 3 a bien un sens puisque la formule du binôme de Newton donne<ref name="gossett316">Modèle:Harvsp.</ref> : <math>\sum_{k=0}^n \mathbb P(X=k)=\sum_{k=0}^n{n\choose k}p^kq^{n-k}=(p+1-p)^n=1</math>. La définition 2 est l'écriture mathématique de la définition 1<ref name="ruegg39">Modèle:Harvsp.</ref>.
La définition 3 est équivalente aux deux autres : on calcule explicitement la probabilité que Modèle:Math succès apparaissent dans Modèle:Math essais. Puisque les Modèle:Math répétitions sont indépendantes, la probabilité d'obtenir Modèle:Math succès et donc Modèle:Math échecs est : <math>p^k(1-p)^{n-k}</math>, dans le cas où on ne tient pas compte de la place des résultats<ref name="bogaert50" />,<ref name="gossett311">Modèle:Harvsp.</ref>. Il suffit alors de s'intéresser à la place des Modèle:Math succès et Modèle:Math échecs. C'est-à-dire, combien y a-t-il de manière de placer Modèle:Math succès parmi Modèle:Math résultats (sans s'occuper de l'ordre entre les succès) ? C'est le nombre de combinaisons de Modèle:Math éléments parmi Modèle:Math éléments<ref>Modèle:Harvsp.</ref> donné par le coefficient binomial <math>{n\choose k}</math>. On retrouve alors la fonction de masse de la définition 3.
- Notation
Le fait qu'une variable aléatoire Modèle:Math suive une loi binomiale de paramètres Modèle:Math et Modèle:Math est noté<ref name="dodge287"/>,<ref name="bogaert50"/> : <math>X\sim b(n,p)</math> ; <math>X\sim B(n,p)</math> ou <math>X\sim Bi(n,p)</math>.
- Mesure de probabilité
Puisque la loi binomiale Modèle:Math est une loi discrète, il est possible de la définir grâce à sa mesure de probabilité<ref name="foata68">Modèle:Harvsp.</ref> :
- <math>\mathbb P = \sum_{k=0}^n {n\choose k}p^kq^{n-k}\delta_k</math> , où <math>\delta_k</math> est la mesure de Dirac au point Modèle:Math.
Historique
La loi binomiale fait partie des plus anciennes lois de probabilités étudiées<ref name="dodge287"/>. Elle a été introduite par Jacques Bernoulli qui y fait référence en 1713 dans son ouvrage Ars Conjectandi. Entre 1708 et 1718, on découvre aussi la loi multinomiale (généralisation multi-dimensionnelle de la loi binomiale), la loi binomiale négative ainsi que l'approximation de la loi binomiale par la loi de Poisson, la loi des grands nombres pour la loi binomiale et une approximation de la queue de la loi binomiale<ref name="hald">Modèle:Harvsp.</ref>.
Grâce à l'expression de sa fonction de masse, la loi binomiale a été utilisée par plusieurs scientifiques pour réaliser des calculs dans des situations concrètes. C'est le cas d'Abraham de Moivre<ref name="fuchs" group="a">Modèle:Lien web.</ref> qui réussit à trouver une approximation de la loi binomiale par la loi normale, il publie d'abord ses résultats en 1733 en latin<ref name="hald485">Modèle:Harvsp.</ref> : Modèle:Langue, puis les traduit pour les publier en 1738 dans Modèle:Langue<ref name="hald485"/>. En 1812, Pierre-Simon de Laplace reprend ces travaux. Francis Galton crée la planche de Galton qui permet d'avoir une représentation physique de cette convergence<ref name="fuchs" group="a"/>. En 1909, Émile Borel énonce et prouve, dans le cas de la loi binomiale, la première version de la loi forte des grands nombres<ref name="hazewinkel438">Modèle:Harvsp.</ref>.
Plus récemment, en 1914, McKendrick démontre que la loi binomiale est la solution d'un processus simple de naissance et d'émigration<ref name="johnson109">Modèle:Harvsp.</ref>. D'après les travaux de William Feller en 1957, elle peut aussi être vue comme la loi stationnaire pour le modèle des urnes d'Ehrenfest. Cette même année, Haight montre que la loi binomiale est liée à un problème de file d'attente<ref name="johnson109"/>.
La loi binomiale apparaît dans de nombreuses applications au Modèle:S mini- siècleModèle:Vérification siècle<ref name="johnson136">Modèle:Harvsp.</ref> : en génétique, en biologie animale, en écologie végétale, pour les tests statistiques, dans différents modèles physiques tels que des réseaux téléphoniques<ref name="johnson140">Modèle:Harvsp.</ref> ou le modèle des urnes d'Ehrenfest, etc.
Le nom « binomiale » de cette loi provient<ref name="ruegg39"/>,<ref name="fuchs" group="a"/> de l'écriture de sa fonction de masse (voir ci-dessous) qui contient un coefficient binomial issu du développement du binôme : Modèle:Math.
Représentation sous la forme d'un arbre
Puisque la loi binomiale est une suite d'épreuves de Bernoulli, il est possible de la représenter grâce à un arbre de probabilité : chaque nœud représente le résultat d'une épreuve, les probabilités de succès et d'échecs sont représentés par deux branches distinctes rattachées à un nœud. Le graphique est donc un arbre binaire équilibré. Un arbre contenant Modèle:Math générations correspond à une loi binomiale Modèle:Math.
Si on indique les résultats de chaque épreuve sur les arêtes de l'arbre, il est possible de visualiser les différentes issues de la loi binomiale<ref name="gossett274">Modèle:Harvsp.</ref>. Si ce sont les valeurs des probabilités qui sont indiquées sur les arêtes, alors les probabilités de la loi binomiale apparaissent au bout des branches<ref name="ruegg23">Modèle:Harvsp.</ref> (voir le graphique ci-contre).
Le graphique est un arbre de probabilité pour une loi binomiale de paramètre Modèle:Math. Sur chaque branche sont indiquées les probabilités des différentes issues : par exemple branches droite, gauche puis droite ; c'est-à-dire échec, succès puis échec. Au bout des branches de l'arbre, apparaissent les probabilités de chaque issue de la loi binomiale Modèle:Math. C'est-à-dire pour les valeurs Modèle:Math ou Modèle:Math, on obtient <math>\mathbb P(X=0)=q^3</math>, <math>\mathbb P(X=1)=3pq^2</math>, <math>\mathbb P(X=2)=3qp^2</math> et <math>\mathbb P(X=3)=p^3</math>. On retrouve ainsi les différents coefficients binomiaux : <math>{3 \choose 0} = 1 \text{ ; } {3 \choose 1} = 3 \text{ ; } {3 \choose 2} = 3 \text{ ; } {3 \choose 3} = 1 \text{.}</math>
Propriétés
Moments
Les plus connus sont l'espérance et la variance, que l'on déduit classiquement<ref group="a">Suivre par exemple le lien en bas de cette page vers la leçon sur Wikiversité.</ref> de la définition 2 ci-dessus :
- <math>\mathbb E(X)=np\quad\text{et}\quad\operatorname{Var}(X)=npq</math>.
Les moments factoriels de la loi binomiale de paramètres Modèle:Math et Modèle:Math sont<ref group="a">Modèle:Article.</ref>,<ref group="a">Modèle:Lien web, Modèle:P..</ref> :
Par conséquent<ref>Modèle:Harvsp. </ref>, ses moments ordinaires sont<ref>Modèle:Harvsp. </ref> :
Modèle:Retrait avec comme premières valeurs<ref name="johnson110">Modèle:Harvsp. </ref> :
<math>\mu'_1=\mathbb E(X)=</math> | <math>np</math> (espérance) |
<math>\mu'_2=\mathbb E(X^2)=</math> | <math>np+n(n-1)p^2</math> |
<math>\mu'_3=\mathbb E(X^3)=</math> | <math>np+3n(n-1)p^2+n(n-1)(n-2)p^3</math> |
On peut aussi les obtenir par la formule de récurrence
Modèle:Retrait{1-q^n}</math>. De la même manière il est possible de définir la loi binomiale négative.
- La loi multinomiale est la généralisation multi-dimensionnelle de la loi binomiale<ref name="hazewinkel"/> dans le sens où la loi multinomiale modélise une succession d'épreuves dont chacune possède plusieurs issues, pas uniquement succès ou échec. Cette loi multidimensionnelle donne les probabilités du nombre d'apparition des différentes issues dans une succession d'épreuves indépendantes<ref group="a" name="morice"/>.
- La loi bêta-binomiale est construite grâce à un mélange de loi<ref name="johnson253">Modèle:Harvsp.</ref> : une variable aléatoire qui suit une loi binomiale <math>b(n,\pi)</math> dont le paramètre <math>\pi</math> est une variable aléatoire qui suit une loi bêta <math> B(\alpha,\beta)</math>, est de loi bêta-binomiale de paramètres <math>n,\alpha,\beta</math>. Cette loi binomiale est similaire à la Modèle:Lien, il suffit de changer les paramètres<ref name="johnson254">Modèle:Harvsp.</ref>.
- La fonction de masse d'une variable Modèle:Math de loi hypergéométrique de paramètres <math>A,p=1-q,n</math> est donnée par : <math>\mathbb P(Y=k)=\frac{{k\choose pA}{n-A\choose qA}}Modèle:N\choose A</math>. Elle correspond au nombre tirages gagnants dans une expérience de Modèle:Math tirages simultanés dans une urne contenant Modèle:Math boules et une proportion de Modèle:Math boules gagnantes.
- Si le nombre de boules augmente, c'est-à-dire Modèle:Math tend vers l'infini, et si Modèle:Math tend vers une valeur <math>p'\in [0,1]</math>, alors la loi hypergéométrique converge vers une loi binomiale<ref name="courtin1G18">Modèle:Harvsp.</ref> Modèle:Math.
- Autrement dit, si la taille de la population (Modèle:Math) est grande par rapport à la taille de l'échantillon (Modèle:Math), alors les tirages peuvent être convenablement représentés par une loi binomiale de paramètre Modèle:Math égal au pourcentage (Modèle:Math) d'éléments ayant le caractère étudié.
- De plus, si <math>X_1</math> et <math>X_2</math> sont deux variables aléatoires indépendantes de loi binomiale respectives <math>b(n_1,p)</math> et <math>b(n_2,p)</math>, alors la loi de <math>X_1</math> sachant que <math>X_1+X_2=k</math> est la loi hypergéométrique de paramètres<ref name="johnson115"/> : <math>k, \frac{n_1}{n_1+n_2}</math> et <math>n_1+n_2</math>.
Convergences et approximations
Pour de grandes valeurs de Modèle:Math, le calcul des fonctions de masse et de répartition deviennent vite fastidieux. Une méthode est d'approcher ces valeurs grâce aux théorèmes limites. La loi (faible ou forte) des grands nombres permet d'approcher la moyenne de la loi binomiale. Pour obtenir des valeurs approchées de la fonction de répartition, il est possible d'utiliser l'approximation normale ou l'approximation par la loi de Poisson. L'approximation normale est plus performante lorsque le paramètre Modèle:Math n'est pas trop proche de Modèle:Math ou de Modèle:Math, sinon l'approximation par la loi de Poisson donne de meilleurs résultats<ref name="siegmund14">Modèle:Harvsp.</ref>.
Loi des grands nombres
Modèle:Article détaillé La loi faible des grands nombres, appliquée à un processus de Bernoulli de paramètre Modèle:Math, garantit que pour toute suite Modèle:Math de variables aléatoires, définies sur un même espace probabilisé, et de lois respectives Modèle:Math (cf. définition 2 ci-dessus), on a, pour tout <math>\varepsilon>0</math> : Modèle:Retrait Plus précisément, puisque l'[[#Moments|espérance et la variance de Modèle:Math]] sont respectivement égales à Modèle:Math et Modèle:Math, l'inégalité de Bienaymé-Tchebychev montre que<ref name="courtin1G17"/> : Modèle:Retrait Cela peut s'interpréter grossièrement de la manière suivante. Si l'on sait que lors d'une expérience aléatoire (tirage d'un individu dans une population de grande taille, lancer d'une pièce…) la probabilité d'apparition de la propriété Modèle:Math est Modèle:Math, alors la fréquence d'apparition de la propriété Modèle:Math au cours de Modèle:Math expériences de ce type (tirages de Modèle:Math individus dans une population de taille très supérieure à Modèle:Math, Modèle:Math lancers de pièce…) est souvent voisine de Modèle:Math, avec une probabilité d'autant meilleure que Modèle:Math est grand et que Modèle:Math est proche de Modèle:Math ou Modèle:Math.
Il existe de meilleures majorations de cette probabilité, l'inégalité de Hoeffding donne<ref group="a">Modèle:Article.</ref> : Modèle:Retrait
Convergence vers la loi de Poisson
- Convergence
Considérons une loi binomiale Modèle:Math telle que les paramètres Modèle:Math et Modèle:Math sont liés par la formule : <math>np=\lambda>0</math> où <math>\lambda</math> est fixé. Lorsque Modèle:Math tend vers l'infini, et donc Modèle:Math tend vers 0, alors<ref name="foata73">Modèle:Harvsp.</ref> : <math>\lim_{n\rightarrow +\infty} {n\choose k}p^kq^{n-k} = \mathrm{e}^{-\lambda}\frac{\lambda^k}{k!}</math>. Autrement dit, la probabilité qu'une variable de loi binomiale prenne la valeur Modèle:Math converge (lorsque Modèle:Math devient grand) vers la probabilité qu'une variable de loi de Poisson prenne la valeur Modèle:Math. Le paramètre Modèle:Math converge alors vers 0, il correspond donc à un évènement de probabilité très faible, la loi de Poisson est alors appelée loi des évènements rares<ref name="foata73"/>. Par sommation, on obtient alors le résultat<ref name="hald215">Modèle:Harvsp.</ref> :
- <math>\lim_{n\rightarrow +\infty}\mathbb P(X\leq x)=\lim_{n\rightarrow +\infty}\sum_{k=0}^{\lfloor x\rfloor} {n\choose k}p^kq^{n-k} = \mathrm{e}^{-\lambda}\sum_{k=0}^{\lfloor x\rfloor}\frac{\lambda^k}{k!}=\mathbb P(Y\leq x)</math>
où <math>\lfloor \cdot\rfloor</math> est la partie entière, Modèle:Math est une variable de loi binomiale et Modèle:Math de loi de Poisson <math>\mathcal P(\lambda)</math>. Cette limite montre la convergence en loi de la loi binomiale (avec les conditions précédentes) vers la loi de Poisson. Une expression plus détaillée de la convergence peut être donnée par la formule<ref name="johnson121">Modèle:Harvsp.</ref>,<ref name="hazewinkel"/> : <math>\mathbb P(X\leq x) = \mathrm{e}^{-\lambda}\sum_{k=0}^{\lfloor x\rfloor}\frac{\lambda^k}{k!}+\mathcal O\left(\frac{1}{n^2}\right)</math> avec <math>\lambda = \frac{(2n-\lfloor x\rfloor)p}{2-p}</math> lorsque Modèle:Math tend vers l'infini et <math>\mathcal O(\cdot)</math> est le comparateur asymptotique.
En 1953, Iouri Prokhorov donne une majoration de l'erreur totale d'approximation entre la fonction de répartition d'une loi binomiale Modèle:Math et une loi de Poisson <math>\mathcal P(np)</math><ref name="johnson123">Modèle:Harvsp.</ref> : <math> \sum_{k=0}^{+\infty}\left|{n\choose k}p^kq^{n-k}-\frac{\mathrm{e}^{-np}(np)^k}{k!}\right| \leq \min (2np^2,3p) </math>. Il est également possible de borner le ratio entre les deux fonctions de répartition<ref name="johnson123"/> : <math>\mathrm{e}^{np}\left(1-\frac{k}{n}\right)^k q^n \leq \frac{{n\choose k}p^kq^{n-k}}{\mathrm{e}^{-np}(np)^k/k!} \leq \mathrm{e}^{np} q^{n-k}.</math>
- Approximation
Grâce à la convergence ci-dessus, il est possible d'approcher les probabilités de la loi binomiale par la loi de Poisson. En pratique, le cas s'applique lorsque Modèle:Math est grand et donc Modèle:Math petit. Différentes valeurs sont proposées<ref name="johnson121" />,<ref name="foata73"/>,<ref name="Bogaert p348">Modèle:Harvsp.</ref>,<ref name="Mittag106">Modèle:Harvsp.</ref> :
- <math>p<0,4</math>, lorsque <math>n=3</math> (ce qui fait <math>np<1,2</math>) ;
- <math>p<0,3</math>, lorsque <math>n=30</math> (ce qui fait <math>np<9</math>) ;
- <math>p<0,2</math>, lorsque <math>n=300</math> (ce qui fait <math>np<60</math>) ;
- <math>0<np<10</math> ;
- <math>p<0,1</math>, lorsque <math>n\geq 30</math> ;
- <math>np\leq 10</math> et <math>n\geq 1500 p</math>.
L'idée commune de toutes ces propositions est d'avoir la valeur Modèle:Math stable lorsque Modèle:Math est grand et Modèle:Math petit.
Convergence vers la loi normale
- Convergence
Le théorème de Moivre-Laplace, énoncé en 1733, montre qu'une variable aléatoire de loi binomiale, convenablement renormalisée, converge en loi vers une variable aléatoire de loi normale. Ce résultat peut s'énoncer grâce aux fonctions de répartition des deux lois. Considérons une variable aléatoire Modèle:Math de loi binomiale Modèle:Math, la variable aléatoire Modèle:Math renormalisée est la variable aléatoire centrée et réduite, c'est-à-dire : <math>\frac{X-\mathbb E(X)}{\sigma_X}=\frac{X-np}{\sqrt{npq}}</math>. Si l'on note <math>\Phi</math> la fonction de répartition de la loi normale, alors :
- Théorème de Moivre-Laplace : pour tout <math>x\in \mathbb R</math> , <math>\lim_{n\to+\infty}\mathbb{P} \left(\frac{X- np}{\sqrt{npq}}\leq x \right) =\frac{1}{\sqrt{2\pi}}\int_{-\infty}^x \mathrm{e}^{-\frac{t^2}{2}}{\rm d}t = \Phi(x).</math>
Bien qu'Abraham de Moivre n'ait énoncé ce résultat que dans le cas d'une loi binomiale<ref name="hald492">Modèle:Harvsp.</ref>, cette convergence est généralisée dans le cas d'autres lois, c'est le théorème central limite. Ce théorème permet d'approcher une loi discrète par une loi continue, il est alors utile d'ajouter un coefficient, dit correction de continuité, afin d'améliorer les approximations futures (voir ci-dessous). La convergence précédente peut alors s'écrire sous forme d'équivalence lorsque Modèle:Math tend vers l'infini<ref name="ruegg93">Modèle:Harvsp.</ref> : pour tout <math>a,b\in \mathbb R</math>
- <math>\mathbb P\left(a \leq X \leq b\right) \approx \mathbb P\left(\frac{a-\frac{1}{2}-np}{\sqrt{npq}} \leq \frac{X-np}{\sqrt{npq}}\leq \frac{b+\frac{1}{2}-np}{\sqrt{npq}} \right) \operatorname{\sim}_{n\rightarrow +\infty} \Phi\left(\frac{b+\frac{1}{2}-np}{\sqrt{npq}}\right) - \Phi\left(\frac{a-\frac{1}{2}-np}{\sqrt{npq}}\right).</math>
L'erreur commise par l'approximation est estimée par l'inégalité de Berry-Esseen dont la constante est régulièrement améliorée, elle fournit une borne de la différence entre les deux fonctions de répartition lorsque Modèle:Math est grand<ref name="hazewinkel369">Modèle:Harvsp.</ref>,<ref group="a">Modèle:Article.</ref>, pour Modèle:Math une variable aléatoire de loi binomiale Modèle:Math et Modèle:Math de loi normale <math>\mathcal N(0,1)</math> de fonction de répartition notée <math>\Phi</math> : <math>\sup_{x\in \mathbb R}\left| \mathbb P\left(\frac{X-np}{\sqrt{npq}}\leq x \right) - \Phi(x) \right| \leq \frac{0,4748}{\sqrt{npq}}</math>. Une expression plus détaillée de la convergence peut être donnée par la formule avec correction de continuité<ref name="hazewinkel"/> : <math>\mathbb P(X\leq x) = \Phi\left(\frac{x-np+1/2}{\sqrt{npq}} \right)+\mathcal O(\frac{1}{\sqrt{n}})</math> uniformément pour toute variable Modèle:Math, lorsque Modèle:Math tend vers l'infini et où <math>\mathcal O(\cdot)</math> est le comparateur asymptotique. D'autres approximations plus fines ont été étudiées<ref name="johnson118">Modèle:Harvsp.</ref>, par exemple par Laplace (1820), Prokhorov (1953) ou Peizer et Modèle:Lien (1968).
- Approximation
Grâce aux théorèmes de convergence ci-dessus, lorsque Modèle:Math est grand, les probabilités de la binomiale renormalisée peuvent être approchées par les valeurs des probabilités de la loi normale. Il existe plusieurs règles sur les paramètres Modèle:Math et Modèle:Math pour que l'approximation soit valable<ref name="johnson117">Modèle:Harvsp.</ref>,<ref name="Mittag106"/>,<ref name="lesigne34">Modèle:Harvsp.</ref>,<ref name="bogaert71">Modèle:Harvsp.</ref> :
- <math>n>30</math>, <math>np>5</math> et <math>nq>5</math> ;
- <math>npq>9</math> ou <math>npq>18</math> ;
- <math>np>9</math> et <math>p<1/2</math>.
L'influence de ces paramètres sur l'approximation a été finement étudiée dans les années 1990, par exemple<ref name="johnson117"/> : pour Modèle:Math fixé, l'erreur absolue minimale est atteinte pour Modèle:Math ; l'erreur absolue est inférieure à <math>0,0212/\sqrt{npq}</math>.
Tables de la loi binomiale
Des tables de la fonction de masse et de la fonction de répartition de la loi binomiale ont été publiées en 1950 par le National Bureau of Standards puis en 1955 dans National of the Computation Laboratory et par Rao Modèle:Et al. en 1985<ref>Modèle:Harvsp.</ref>.
Grâce aux relations de symétrie (voir ci-dessus), il suffit<ref name="Mittag515"/>,<ref name="Mittag105"/> de donner des tables de valeurs pour <math>p\leq 0{,}5</math>.
Valeurs de la fonction de masse
Les tables de valeurs suivantes<ref name="Bogaert p348" /> donnent les valeurs de la fonction de masse de la loi binomiale Modèle:Math pour différentes valeurs de Modèle:Math.
- Exemples : Si Modèle:Math suit une loi <math>b(10\,;\,0,15)</math>, alors <math>\mathbb P(X=4)\simeq 0,0401</math>. Si Modèle:Math suit une loi <math>b(10\,;\,0,85)</math>, alors <math>\mathbb P(Y=4)=\mathbb P(X=6)\simeq 0,0012</math>.
<math>k / p</math> | 0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 |
---|---|---|---|---|---|---|---|---|---|
0 | 0,7738 | 0,5905 | 0,4437 | 0,3277 | 0,2373 | 0,1681 | 0,1160 | 0,0778 | 0,0312 |
1 | 0,2036 | 0,3281 | 0,3915 | 0,4096 | 0,3955 | 0,3601 | 0,3124 | 0,2592 | 0,1562 |
2 | 0,0214 | 0,0729 | 0,1382 | 0,2048 | 0,2637 | 0,3087 | 0,3364 | 0,3456 | 0,3125 |
3 | 0,0011 | 0,0081 | 0,0244 | 0,0512 | 0,0879 | 0,1323 | 0,1811 | 0,2304 | 0,3105 |
4 | 0,0000 | 0,0005 | 0,0022 | 0,0064 | 0,0146 | 0,0283 | 0,0488 | 0,0768 | 0,1562 |
5 | 0,0000 | 0,0000 | 0,0001 | 0,0003 | 0,0010 | 0,0024 | 0,0053 | 0,0102 | 0,0312 |
<math>k / p</math> | 0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 |
---|---|---|---|---|---|---|---|---|---|
0 | 0,5987 | 0,3487 | 0,1969 | 0,1074 | 0,0563 | 0,0282 | 0,0135 | 0,0060 | 0,0010 |
1 | 0,3151 | 0,3874 | 0,3474 | 0,2684 | 0,1877 | 0,1211 | 0,0725 | 0,0403 | 0,0098 |
2 | 0,0746 | 0,1937 | 0,2759 | 0,3020 | 0,2816 | 0,2335 | 0,1757 | 0,1209 | 0,0439 |
3 | 0,0105 | 0,0574 | 0,1298 | 0,2013 | 0,2503 | 0,2668 | 0,2522 | 0,2150 | 0,1172 |
4 | 0,0010 | 0,0112 | 0,0401 | 0,0881 | 0,1460 | 0,2001 | 0,2377 | 0,2508 | 0,2051 |
5 | 0,0001 | 0,0015 | 0,0085 | 0,0264 | 0,0584 | 0,1029 | 0,1536 | 0,2007 | 0,2461 |
6 | 0,0000 | 0,0001 | 0,0012 | 0,0055 | 0,0162 | 0,0368 | 0,0689 | 0,1115 | 0,2051 |
7 | 0,0000 | 0,0000 | 0,0001 | 0,0008 | 0,0031 | 0,0090 | 0,0212 | 0,0425 | 0,1172 |
8 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0004 | 0,0014 | 0,0043 | 0,0106 | 0,0439 |
9 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0005 | 0,0016 | 0,0098 |
10 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0010 |
<math>k / p</math> | 0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 |
---|---|---|---|---|---|---|---|---|---|
0 | 0,3585 | 0,1216 | 0,0388 | 0,0115 | 0,0032 | 0,0008 | 0,0002 | 0,0000 | 0,0000 |
1 | 0,3774 | 0,2702 | 0,1368 | 0,0576 | 0,0211 | 0,0068 | 0,0020 | 0,0005 | 0,0000 |
2 | 0,1887 | 0,2852 | 0,2293 | 0,1369 | 0,0669 | 0,0278 | 0,0100 | 0,0031 | 0,0002 |
3 | 0,0596 | 0,1901 | 0,2428 | 0,2054 | 0,1339 | 0,0716 | 0,0323 | 0,0123 | 0,0011 |
4 | 0,0133 | 0,0898 | 0,1821 | 0,2182 | 0,1897 | 0,1304 | 0,0738 | 0,0350 | 0,0046 |
5 | 0,0022 | 0,0319 | 0,1028 | 0,1746 | 0,2023 | 0,1789 | 0,1272 | 0,0746 | 0,0148 |
6 | 0,0003 | 0,0089 | 0,0454 | 0,1091 | 0,1686 | 0,1916 | 0,1712 | 0,1244 | 0,0370 |
7 | 0,0000 | 0,0020 | 0,0160 | 0,0545 | 0,1124 | 0,1643 | 0,1844 | 0,1659 | 0,0739 |
8 | 0,0000 | 0,0004 | 0,0046 | 0,0222 | 0,0609 | 0,1144 | 0,1614 | 0,1797 | 0,1201 |
9 | 0,0000 | 0,0001 | 0,0011 | 0,0074 | 0,0271 | 0,0654 | 0,1158 | 0,1597 | 0,1602 |
10 | 0,0000 | 0,0000 | 0,0002 | 0,0020 | 0,0099 | 0,0308 | 0,0686 | 0,1171 | 0,1762 |
11 | 0,0000 | 0,0000 | 0,0000 | 0,0005 | 0,0030 | 0,0120 | 0,0336 | 0,0710 | 0,1602 |
12 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0008 | 0,0039 | 0,0136 | 0,0355 | 0,1201 |
13 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0002 | 0,0010 | 0,0045 | 0,0146 | 0,0739 |
14 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0002 | 0,0012 | 0,0049 | 0,0370 |
15 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0003 | 0,0013 | 0,0148 |
16 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0003 | 0,0046 |
17 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0011 |
18 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0002 |
Valeurs de la fonction de répartition
Les tables de valeurs suivantes<ref>Modèle:Harvsp.</ref> donnent les valeurs de la fonction de répartition de la loi binomiale Modèle:Math pour différentes valeurs de Modèle:Math.
- Exemples : Si Modèle:Math suit une loi <math>b(10\,;\,0,15)</math>, alors <math>\mathbb P(X\leq 4)\simeq 0,9901</math>. Si Modèle:Math suit une loi <math>b(10\,;\,0,85)</math>, alors <math>\mathbb P(Y\leq 4)=\mathbb P(X\geq 6)=1-\mathbb P(X\leq 5)\simeq 1-0,9986=0,0014</math>.
<math>k / p</math> | 0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 |
---|---|---|---|---|---|---|---|---|---|
0 | 0,7738 | 0,5905 | 0,4437 | 0,3277 | 0,2373 | 0,1681 | 0,1160 | 0,0778 | 0,0312 |
1 | 0,9774 | 0,9185 | 0,8352 | 0,7373 | 0,6328 | 0,5282 | 0,4284 | 0,3370 | 0,1875 |
2 | 0,9988 | 0,9914 | 0,9734 | 0,9421 | 0,8965 | 0,8369 | 0,7648 | 0,6826 | 0,5000 |
3 | 1,0000 | 0,9995 | 0,9978 | 0,9933 | 0,9844 | 0,9692 | 0,9460 | 0,9130 | 0,8125 |
4 | 1,0000 | 1,0000 | 0,9999 | 0,9997 | 0,9990 | 0,9976 | 0,9947 | 0,9898 | 0,9688 |
5 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 |
<math>k / p</math> | 0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 |
---|---|---|---|---|---|---|---|---|---|
0 | 0,5987 | 0,3487 | 0,1969 | 0,1074 | 0,0563 | 0,0282 | 0,0135 | 0,0060 | 0,0010 |
1 | 0,9139 | 0,7361 | 0,5443 | 0,3758 | 0,2440 | 0,1493 | 0,0860 | 0,0464 | 0,0107 |
2 | 0,9885 | 0,9298 | 0,8202 | 0,6778 | 0,5256 | 0,3828 | 0,2616 | 0,1673 | 0,0547 |
3 | 0,9990 | 0,9872 | 0,9500 | 0,8791 | 0,7759 | 0,6496 | 0,5138 | 0,3823 | 0,1719 |
4 | 0,9999 | 0,9984 | 0,9901 | 0,9672 | 0,9219 | 0,8497 | 0,7515 | 0,6331 | 0,3770 |
5 | 1,0000 | 0,9999 | 0,9986 | 0,9936 | 0,9803 | 0,9527 | 0,9051 | 0,8338 | 0,6230 |
6 | 1,0000 | 1,0000 | 0,9999 | 0,9991 | 0,9965 | 0,9894 | 0,9740 | 0,9452 | 0,8281 |
7 | 1,0000 | 1,0000 | 1,0000 | 0,9999 | 0,9996 | 0,9984 | 0,9952 | 0,9877 | 0,9453 |
8 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9999 | 0,9995 | 0,9983 | 0,9893 |
9 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9999 | 0,9990 |
10 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 |
<math>k / p</math> | 0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 |
---|---|---|---|---|---|---|---|---|---|
0 | 0,3585 | 0,1216 | 0,0388 | 0,0115 | 0,0032 | 0,0008 | 0,0002 | 0,0000 | 0,0000 |
1 | 0,7358 | 0,3817 | 0,1756 | 0,0692 | 0,0243 | 0,0076 | 0,0021 | 0,0005 | 0,0000 |
2 | 0,9245 | 0,6769 | 0,4049 | 0,2061 | 0,0913 | 0,0355 | 0,0121 | 0,0036 | 0,0002 |
3 | 0,9841 | 0,8670 | 0,6477 | 0,4114 | 0,2252 | 0,1071 | 0,0444 | 0,0160 | 0,0013 |
4 | 0,9974 | 0,9568 | 0,8298 | 0,6296 | 0,4148 | 0,2375 | 0,1182 | 0,0510 | 0,0059 |
5 | 0,9997 | 0,9887 | 0,9327 | 0,8042 | 0,6172 | 0,4164 | 0,2454 | 0,1256 | 0,0207 |
6 | 1,0000 | 0,9976 | 0,9781 | 0,9133 | 0,7858 | 0,6080 | 0,4166 | 0,2500 | 0,0577 |
7 | 1,0000 | 0,9996 | 0,9941 | 0,9679 | 0,8982 | 0,7723 | 0,6010 | 0,4159 | 0,1316 |
8 | 1,0000 | 0,9999 | 0,9987 | 0,9900 | 0,9591 | 0,8867 | 0,7624 | 0,5956 | 0,2517 |
9 | 1,0000 | 1,0000 | 0,9998 | 0,9974 | 0,9861 | 0,9520 | 0,8782 | 0,7553 | 0,4119 |
10 | 1,0000 | 1,0000 | 1,0000 | 0,9994 | 0,9961 | 0,9829 | 0,9468 | 0,8725 | 0,5881 |
11 | 1,0000 | 1,0000 | 1,0000 | 0,9999 | 0,9991 | 0,9949 | 0,9804 | 0,9435 | 0,7483 |
12 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,998 | 0,9987 | 0,9940 | 0,9790 | 0,8684 |
13 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9997 | 0,9985 | 0,9935 | 0,9423 |
14 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9997 | 0,9984 | 0,9793 |
15 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9997 | 0,9941 |
16 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9987 |
17 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9998 |
18 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 |
Tests et applications
Tests
D'une manière générale, un test statistique permet de rejeter, ou non, une hypothèse dite hypothèse nulle. L'idée principale est de prendre un échantillon et de vérifier si l'hypothèse est vraie pour chaque élément de l'échantillon. Si on considère que les éléments sont indépendants, on compte donc le nombre d'éléments vérifiant une propriété, il y a donc présence de la loi binomiale. On compare si la proportion observée est significativement éloignée de la probabilité théorique de la loi binomiale<ref name="dagnelie122">Modèle:Harvsp.</ref>. Ce test est appelé un test binomial. On peut utiliser aussi la loi normale lorsque la taille de l'échantillon est grand.
Il est possible d'effectuer un test statistique sur la conformité des valeurs des paramètres d'une loi de probabilité, notamment d'une loi binomiale, par rapport aux paramètres théoriques attendus pour la population étudiée<ref name="dagnelie76">Modèle:Harvsp.</ref>. Le test de conformité de l'indice de dispersion s'applique dans ce cas<ref name="dagnelie78">Modèle:Harvsp.</ref>. Cet indice de dispersion est le quotient de la somme des carrés des écarts et de la moyenne. Si <math>x_k,\,k=1\dots n</math> sont les valeurs étudiées de moyenne notée <math>\bar{x}</math> alors l'indice est : <math>\frac{1}{\bar{x}} \sum_{k=1}^n(x_k-\bar{x})^2</math>. Grâce à une Loi du χ² ou une loi normale, le test rejette l'hypothèse de la valeur que prend le paramètre Modèle:Math de la loi binomiale<ref name="dagnelie78"/>.
Il est également possible de tester l'égalité de deux variables aléatoires de lois binomiales. Soient <math>X_1</math> et <math>X_2</math> deux variables aléatoires de lois respectives <math>b(n_1,p_1)</math> et <math>b(n_2,p_2)</math>. On souhaite tester si <math>p_1=p_2=p</math>, c'est l'hypothèse <math>H_0</math> du test. Par le théorème central limite, l'estimateur <math>\hat{p}_1=X_1/n_1</math> suit une loi normale <math>\mathcal N(p_1, p_1(1-p_1)/n_1)</math> lorsque <math>n_1</math> est grand. Il en est de même avec <math>\hat{p}_2</math>. En considérant l'hypothèse <math>H_0</math> vraie, on peut montrer que <math>Z=\frac{\hat{p}_1-\hat{p}_2}{\sqrt{p(1-p)(1/n_1+1/n_2)}}</math> suit une loi normale centrée réduite<ref name="siegmund17">Modèle:Harvsp.</ref>. On rejette alors l'hypothèse <math>H_0</math> au niveau de confiance 0,95 si <math>|Z|>1,96</math>.
Autres applications
Par définition la somme de variables aléatoires indépendantes de loi de Bernoulli suit une loi binomiale. Un exemple typique de phénomène suivant une loi de Bernoulli est le lancer d'une pièce pour un pile ou face<ref name="lesigne4eme"/>. Le nombre de succès, par exemple le nombre de fois où l'on obtient pile, suit donc une loi binomiale. De nombreuses situations peuvent être modélisées par cet exemple ce qui donne son importance à la loi<ref name="lesigne4eme" />.
En génétique, lors de la reproduction, chaque gène est composée de deux allèles qui sont issus des deux parents. Soit les deux allèles proviennent du même parent, soit chaque parent transmet un allèle. Il est alors possible de faire une liste de différents allèles et de noter ces deux cas. Le nombre d'allèles issus du même parent peut être modélisé par une variable aléatoire de loi binomiale<ref name="siegmund11">Modèle:Harvsp.</ref>. Pour savoir s'il y a égale probabilité d'allèle de même provenance ou de provenance différente, on peut étudier un test statistique<ref name="siegmund11" />. Inversement, pour simuler les allèles d'un individu, il est possible de simuler les fréquences des allèles par des variables aléatoires binomiales<ref name="siegmund240">Modèle:Harvsp.</ref>.
En linguistique, la loi binomiale est utilisée pour étudier la richesse du vocabulaire d'un texte<ref group="a">Modèle:Article.</ref>. C'est un outil quantitatif qui permet de mesurer la fréquence d'un mot dans un texte indépendamment de la longueur du texte. Plus précisément la méthode de Müller permet d'évaluer la richesse théorique du vocabulaire d'un texte grâce au vocabulaire d'un texte plus long, et ainsi comparer avec la richesse du vocabulaire du texte court en question. Techniquement, si <math>N_a</math> est le nombre de mots d'un texte et <math>N_b</math> celui d'un autre texte. Alors <math>p=\frac{N_a}{N_a+N_b}</math> est la probabilité d'apparition d'un mot tiré au hasard dans le premier texte ; de même pour <math>q=\frac{N_b}{N_a+N_b}</math> dans le deuxième texte<ref group="a">Modèle:Article.</ref>. Le nombre de mots ayant la même fréquence d'apparition dans le premier texte suit alors une loi binomiale de paramètres <math>n=N_a+N_b</math> et Modèle:Math. Il est possible d'effectuer des tests statistiques pour conclure si la richesse du vocabulaire est grande ou non.
En 1908, Émile Borel étudie la fréquence des différents chiffres dans le développement décimal d'un nombre réel. Il considère les Modèle:Math premières valeurs de la décomposition décimale et estime la probabilité d'obtention du nombre de fois où apparaît chaque entier dans cette décomposition grâce à l'approximation par la loi normale. Il démontre ainsi le théorème des nombres normaux<ref group="a">Modèle:Article.</ref>.
Une marche aléatoire sur <math>\mathbb Z</math> est un processus stochastique <math>(S_n,n\in \mathbb N^*)</math> à temps entier<ref name="pfister154">Modèle:Harvsp.</ref>. C'est-à-dire que la marche part d'une valeur initiale Modèle:Math par exemple et à chaque unité de temps, le marcheur se déplace (indépendamment du chemin parcouru avant) d'un pas vers le haut avec une probabilité Modèle:Math ou d'un pas vers le bas avec une probabilité Modèle:Math, ainsi Modèle:Math ou Modèle:Math. Modèle:Math donne la position du marcheur au bout d'un temps Modèle:Math. Si Modèle:Math, la marche est dite symétrique et le marcheur a autant de chance d'aller vers le haut que vers le bas. Dans ce cas, au bout du temps Modèle:Math, la variable aléatoire <math>\frac{1}{2}(S_{n}+n)</math> peut prendre comme valeurs <math>0,1 \dots n</math> et elle est de loi binomiale Modèle:Math. Cette considération ainsi que la convergence vers la loi normale (voir ci-dessus) permet de démontrer qu'une marche aléatoire renormalisée converge vers le mouvement brownien (voir Théorème de Donsker)<ref name="pfister155">Modèle:Harvsp.</ref>.
Notes et références
- Articles et autres sources
Voir aussi
Bibliographie
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume
- Modèle:OuvrageModèle:Plume