Loi de Poisson

{{#ifeq:||Un article de Ziki, l'encyclopédie libre.|Une page de Ziki, l'encyclopédie libre.}}

Modèle:Voir homonymes Modèle:Confusion

Modèle:Infobox/Début Modèle:Infobox/Titre Modèle:Infobox/Image Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Image Modèle:Infobox/Séparateur optionnel Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Ligne mixte optionnelle Modèle:Infobox/Notice Modèle:Infobox/Fin

En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent.

Fichier:Chewing gum on a sidewalk in Reykjavík.JPG
Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de PoissonModèle:Ref nec.

La loi de Poisson est également pertinente pour décrire le nombre d'événements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes.

Histoire

La loi de Poisson a été introduite en 1838 par Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile<ref name=":0">Siméon-Denis Poisson, {{#if:|https://gallica.bnf.fr/ark:/12148/bpt6k110193z%7C{{ #if: bpt6k110193z |{{ #if: Recherches sur la probabilité des jugements en matière criminelle et en matière civile ; précédées des Règles générales du calcul des probabilités | Recherches sur la probabilité des jugements en matière criminelle et en matière civile ; précédées des Règles générales du calcul des probabilités | lire en ligne]}} | {{ #if: |[{{{1}}} lire en ligne]|lire en ligne}} }} sur Gallica}}, 1837, passage 81, p. 205.</ref>. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées « arrivées ») qui prennent place pendant un laps de temps donné.

Définition

Si le nombre moyen d'occurrences dans un intervalle de temps fixé est Modèle:Math, alors la probabilité qu'il existe exactement Modèle:Mvar occurrences (Modèle:Mvar étant un entier naturel, Modèle:Math) est Modèle:Retrait où :

On dit alors que Modèle:Mvar suit la loi de Poisson de paramètre Modèle:Math, noté <math>X \sim \operatorname{Pois}\left(\lambda \right)</math>.

Par exemple, si un certain type d'événements se produit en moyenne 4 fois par minute, pour étudier le nombre d'événements se produisant dans un laps de temps de 10 minutes, on choisit comme modèle une loi de Poisson de paramètre Modèle:Math.

Calcul de p(k)

Ce calcul peut se faire de manière déductive en travaillant sur une loi binomiale de paramètres <math>\left(T; \frac{\lambda}{T}\right)</math>. Pour Modèle:Mvar grand, on démontre que la loi binomiale converge vers la loi de Poisson.

Il peut aussi se faire de manière inductive en étudiant sur l'intervalle Modèle:Math les fonctions Modèle:Math, qui donnent la probabilité que l'événement se produise Modèle:Mvar fois sur l'intervalle de temps Modèle:Math. En utilisant la récurrence et du calcul différentiel, on parvient à retrouver les formules précédentes<ref>Voir par exemple, Modèle:Ouvrage ou encore ces notes de cours.</ref>.

Propriétés

Dans toute cette section Modèle:Mvar est une variable aléatoire suivant une loi de Poisson de paramètre Modèle:Math.

Moments et fonctions génératrices

Moments ordinaires

Les quatre premiers moments ordinaires d'une loi de Poisson sont donnés par<ref name=":2">Modèle:Lien web</ref> :

<math>\begin{array}{lll}

\mathbb{E}[X] &=& \lambda \\ \mathbb{E}[X^2] &=& \lambda(1+\lambda) \\ \mathbb{E}[X^3] &=& \lambda(1+3\lambda+\lambda^2) \\ \mathbb{E}[X^4] &=& \lambda(1+7\lambda+6\lambda^2+\lambda^3) \end{array} </math>

On en déduit la variance et l'écart type :

<math>\begin{array}{lll}

V(X) &=& \lambda \\ \sigma(X) &=& \sqrt{\lambda} \end{array} </math>

Plus généralement, le Modèle:Mvar-ième moment ordinaire d'une loi de Poisson de paramètre Modèle:Math estModèle:Retraitoù Modèle:Math est le nombre de Stirling de seconde espèce de paramètres Modèle:Mvar et Modèle:Mvar.

En particulier lorsque Modèle:Math, le Modèle:Mvar-ième moment de Modèle:Mvar correspond au Modèle:Mvar-ième nombre de Bell. En effet cela est une conséquence de la formule de Dobiński.

La borne suivante majore les moments d'une loi de Poisson<ref>Modèle:Article</ref> : Modèle:Retrait On a la relation de récurrence<ref name=":3">Modèle:Ouvrage</ref> :Modèle:Retrait

Moments centrés

Les quatre premiers moments centrés d'une loi de Poisson sont donnés par<ref name=":2" />,<ref name=":3" /> :

<math>\begin{array}{lll}

\mathbb{E}[(X-\lambda)^2] &=& \lambda \\ \mathbb{E}[(X-\lambda)^3] &=& \lambda \\ \mathbb{E}[(X-\lambda)^4] &=& \lambda(1+3\lambda) \\ \mathbb{E}[(X-\lambda)^5] &=& \lambda(1+10\lambda) \end{array}

</math>

On en déduit l'asymétrie et le kurtosis normalisé :

<math>\begin{array}{lll}

\gamma_1(X) &=& 1/\sqrt{\lambda} \\ \gamma_2(X) &=& 1/\lambda \end{array}

</math>

On a la relation de récurrence<ref name=":3" /> :Modèle:Retrait

Moments factoriels

Le Modèle:Mvar-ième moment factoriel d'une loi de Poisson est

Modèle:Retrait

où <math>(x)_r = x(x-1)\dots(x-r+1)</math> désigne la factorielle décroissante.

Fonction génératrice des probabilités

La fonction génératrice des probabilités d'une loi de Poisson est

Modèle:Retrait

Fonction génératrice des moments

La fonction génératrice des moments d'une loi de Poisson est

Modèle:Retrait Modèle:Démonstration{(k-1)!} \qquad (\text{on reconnaît le développement en série entière de } \mathrm{e}^\lambda)\\

&=\lambda\,\mathrm{e}^{-\lambda}\,\mathrm{e}^{\lambda}\\
&=\lambda.

\end{align}</math>

Variance

<math>\begin{align}V(X) &= \mathbb{E}(X^2) - ( \mathbb{E}(X) ) ^2&\\
&= \sum_{k=1}^\infty k^2\,\mathbb{P}(X=k) - \lambda^2&\\
&= \sum_{k=1}^\infty k^2\,\mathrm{e}^{-\lambda}\frac{\lambda^k}{k!}  -  \lambda^2&\\
&= \lambda\,\mathrm{e}^{-\lambda} \sum_{k=1}^\infty \,\frac{k\lambda^{k-1}}{(k-1)!} - \lambda^2&\\
&= \lambda\,\mathrm{e}^{-\lambda}  \sum_{k=1}^\infty \,\frac{d}{d\lambda}\frac{\lambda^k}{(k-1)!} - \lambda^2 &\qquad (\text{la série entière ayant un rayon de convergence infini,}\\
&= \lambda\,\mathrm{e}^{-\lambda}  \frac{d}{d\lambda} \sum_{k=1}^\infty \,\frac{\lambda^k}{(k-1)!} - \lambda^2 &\qquad \text{on peut inverser la sommation et la dérivation})\\
&= \lambda\,\mathrm{e}^{-\lambda}  \frac{d}{d\lambda}\left[\lambda\sum_{k=1}^\infty \,\frac{\lambda^{k-1}}{(k-1)!}\right] - \lambda^2 
&\qquad (\text{on reconnaît le développement en série entière de }  \mathrm{e}^\lambda)\\
&= \lambda\,\mathrm{e}^{-\lambda}  \frac{d}{d\lambda}[\lambda\,\mathrm{e}^{\lambda}] - \lambda^2 & \\
&= \lambda\,\mathrm{e}^{-\lambda}(\lambda+1)\,\mathrm{e}^{\lambda}  -  \lambda^2&\\
&= \lambda\,(\lambda+1) - \lambda^2&\\
&= \lambda.&

\end{align}</math>

Fonction génératrice

On rappelle que la fonction génératrice de Modèle:Mvar est définie par <math>G_{X}(t) = \mathbb{E}(t^X)</math>. Ainsi on obtient :

<math>\begin{align}\mathbb{E}(t^X) &= \sum_{k=0}^{\infty} t^k \mathbb{P}(X=k)\\
&= \sum_{k=0}^{\infty} t^k \mathrm{e}^{-\lambda} \frac{\lambda^k}{k!}\\
&= \mathrm{e}^{-\lambda}\sum_{k=0}^{\infty}  t^k \frac{\lambda^k}{k!}\\
&= \mathrm{e}^{-\lambda}\sum_{k=0}^{\infty}  \frac{(t\lambda)^k}{k!} \qquad (\text{on reconnaît le développement en série entière de } \mathrm{e}^{t\lambda})\\
&= \mathrm{e}^{-\lambda} \mathrm{e}^{t\lambda}\\
&= \mathrm{e}^{\lambda(t-1)}.

\end{align}</math>

Fonction génératrice des moments

On rappelle que la fonction génératrice des moments de Modèle:Mvar est définie par <math>M_X(t)= \mathbb{E}(\mathrm{e}^{tX})</math>. Ainsi on obtient :

<math>\begin{align}

M_{X}(t) &= \sum_{k=0}^{\infty}\mathrm{e}^{tk}\mathbb{P}(X=k)\\

&= \sum_{k=0}^{\infty}\mathrm{e}^{tk}\frac{\lambda^{k}}{k!}\,\mathrm{e}^{-\lambda}\\
&= \mathrm{e}^{-\lambda}  \sum_{k=0}^{\infty} \frac{(\lambda\, \mathrm{e}^{t})^{k}}{k!} \qquad (\text{on reconnaît le développement en série entière de } \mathrm{e}^x \text{ évalué en } x=\lambda \mathrm{e}^t)\\
&= \mathrm{e}^{-\lambda} \mathrm{e}^{\lambda\, \mathrm{e}^{t}}\\
&= \mathrm{e}^{\lambda(\mathrm{e}^{t}-1)}.

\end{align}</math>

Moments factoriels

<math>\begin{align}

\mathbb{E}((X)_r) &= \mathrm{e}^{-\lambda} \sum_{k=r}^{\infty} \frac{k!}{(k-r)!} \frac{\lambda^k}{k!}\\ &= \lambda^r \mathrm{e}^{-\lambda} \sum_{k=r}^\infty \frac{\lambda^{k-r}}{(k-r)!}\\ &= \lambda^r \mathrm{e}^{-\lambda} \sum_{k=0}^\infty \frac{\lambda^k}{k!}\\ &= \lambda^r. \end{align}</math>

Moments

Les nombres de Stirling de seconde espèce vérifient la relation

<math>X^n = \sum_{k=0}^n S(n,k) (X)_k</math>.

Ainsi, en utilisant la formule des moments factoriels d'une loi de Poisson ainsi que la linéarité de l'espérance on conclut que

<math>\mathbb{E}(X^n) = \sum_{k=0}^n S(n,k) \lambda^k</math>.

|style=width:1000px}}

Diagramme en bâton

Comme toute loi de probabilité discrète, une loi de Poisson peut être représentée par un diagramme en bâtons. Ci-dessous sont représentés les diagrammes en bâtons des lois de Poisson de paramètres 1, 2 et 5.

diagramme en bâtons d'une loi de Poisson de paramètre 1 diagramme en bâtons d'une loi de Poisson de paramètre 2 diagramme en bâtons d'une loi de Poisson de paramètre 5

Lorsque le paramètre Modèle:Math de la loi de Poisson devient grand, (pratiquement lorsqu'il est supérieur à 5), son diagramme en bâton est correctement approché par l'histogramme d'une loi normale d'espérance et de variance égales à Modèle:Math (l'intervalle de classe étant égal à l'unité). Cette convergence était mise à profit, avant que les moyens informatiques ne se généralisent, pour utiliser la loi normale en lieu et place de la loi de Poisson dans certains tests.

Stabilité de la loi de Poisson par la somme

Si les variables Modèle:Math sont indépendantes et suivent une loi de Poisson de paramètres respectifs Modèle:Math, alors leur somme suit une loi de Poisson de paramètre la somme des Modèle:Math: Modèle:Retrait

{{Démonstration|contenu= On montre le cas Modèle:Math, les cas supérieurs se déduisent par récurrence.

On rappelle que {{Retrait|<math> \mathbb{P}(X_1=n)=\frac{{\lambda_1}^{n}}{n!}\mathrm{e}^{-\lambda_1} \text{ et } \mathbb{P}(X_2=n)=\frac{{\lambda_2}^{n}}{n!}\mathrm{e}^{-{\lambda_2}}.</math>|taille=2em}} On a alors Modèle:Retrait{k!}\mathrm{e}^{-\lambda_1}\cdot \frac{\lambda_2^{n-k}}{(n-k)!}\mathrm{e}^{-\lambda_2}\\ &=\frac{\mathrm{e}^{-\lambda_1} \mathrm{e}^{-\lambda_2}}{n!}\sum_{k=0}^{n}\frac{n!}{k!(n-k)!}\lambda_1^{k}\lambda_2^{n-k}=\frac{\mathrm{e}^{-(\lambda_1+\lambda_2)}}{n!}(\lambda_1+\lambda_2)^{n} \end{align}</math>|taille=2em}}

L'indépendance a été utilisée à la Modèle:2e égalité. La dernière égalité est obtenue via la formule du binôme de Newton.}}

Bornes de queue

Un argument de type borne de Chernoff permet de déduire les bornes de queue suivantes<ref>Modèle:Ouvrage</ref>

<math>\mathbb{P}(X \geq x) \leq \frac{\mathrm{e}^{-\lambda}(\mathrm{e}\lambda)^x}{x^x}</math> pour tout Modèle:Math et
<math>\mathbb{P}(X \leq x) \leq \frac{\mathrm{e}^{-\lambda}(\mathrm{e}\lambda)^x}{x^x}</math> pour tout Modèle:Math.

Ces bornes peuvent se réécrire de la manière suivante<ref name=":1">Modèle:Lien web</ref>

<math>\mathbb{P}(X \geq x+\lambda) \leq \mathrm{e}^{-\frac{x^2}{2\lambda}h\left(\frac{x}{\lambda}\right)}</math> pour tout Modèle:Math et
<math>\mathbb{P}(X \leq -x+\lambda) \leq \mathrm{e}^{-\frac{x^2}{2\lambda}h\left(-\frac{x}{\lambda}\right)}</math> pour tout Modèle:Math

où <math>h(u) := 2\frac{(1+u)\ln(1+u)-u}{u^2}</math> pour tout <math>u \geq -1</math>. Ces dernières bornes impliquent en particulier la borne suivante<ref name=":1" /> (qui est plus faible mais plus agréable à manipuler)

<math>\mathbb{P}(|X-\lambda| \geq x) \leq 2\mathrm{e}^{-\frac{x^2}{2(\lambda+x)}}</math>.

La borne supérieure donnée par Chernoff peut être améliorée d'un facteur 2 au moins<ref>Modèle:Article</ref>

<math>\mathbb{P}(X \geq x+\lambda) \leq \frac{\mathrm{e}^{-\frac{x^2}{2\lambda}h\left(\frac{x}{\lambda}\right)}}{\max\left\{2 , \sqrt{\frac{2\pi x^2}{\lambda}h\left(\frac{x}{\lambda}\right)} \right\}}</math> pour tout Modèle:Math.

Il est à noter que la fonction Modèle:Mvar est liée à la divergence de Kullback-Leibler entre une loi de Poisson de paramètre Modèle:Math et une loi de Poisson de paramètre Modèle:Math. En effet on a la relation

<math>D_{KL}(x+\lambda||\lambda) = (x+\lambda)\ln\left(\frac{x}{\lambda}+1\right) - x = \frac{x^2}{2\lambda}h\left( \frac{x}{\lambda}\right)</math>.

Simulation

Un algorithme simple pour simuler la loi de Poisson consiste à utiliser le résultat suivant :

Modèle:Théorème

La méthode de la transformée inverse permet de donner une façon simple de générer un tirage aléatoire suivant une loi exponentielle :

Si Modèle:Mvar suit une loi uniforme sur Modèle:Math, alors Modèle:Math suit une loi exponentielle de paramètre Modèle:Math.

En générant les <math>E_i</math> par l'intermédiaire de variables aléatoires <math>U_i \sim \mathcal{U}[0,1]</math>, On a ainsi <math>S_n = -\frac{1}{\lambda}\ln(\prod_i^n U_i)</math> et, en notant <math>P_n := \prod_{i=1}^n U_i, n \geq 1</math> : <math>S_n \leq 1 < S_{n+1} \Leftrightarrow P_n \geq e^{-\lambda} > P_{n+1} \; \forall n \in \mathbb{N}^*</math>.

L'algorithme peut ainsi se simplifier en :

Estimation du paramètre Modèle:Math

L'estimateur par maximum de vraisemblance du paramètre Modèle:Math d'un échantillon issu d'une loi de Poisson est la moyenne empirique. C'est un estimateur convergent, sans biais, efficace, Modèle:Lien, exhaustif.

Lien avec d'autres lois de probabilités

Lien avec la loi de Bernoulli

Le décompte des événements rares se fait souvent au travers d'une somme de variables de Bernoulli, la rareté des événements se traduisant par le fait que les paramètres de ces variables de Bernoulli sont petits (ainsi, la probabilité que chaque événement survienne est faible). Le lien entre la loi de Poisson et les événements rares peut alors s'énoncer ainsi : Modèle:Théorème

L'inégalité de Le Cam précise le paradigme de Poisson : soit <math>X_{1,n}, X_{2,n},\dots, X_{a_n,n}\ </math> un tableau de variables aléatoires de Bernoulli indépendantes, avec paramètres respectifs Modèle:Math. On note

Modèle:Retrait

Modèle:Théorème{k!}\right|\ \le\ \sum_{k=1}^{a_n}\,p_{k,n}^2.</math>

En particulier, si les deux conditions suivantes sont réunies :

  • <math>\lim_n \lambda_n\,=\,\lambda>0,\ </math>
  • <math>\lim_n \sum_{k=1}^{a_n}\,p_{k,n}^2\,=\,0,\ </math>

alors Modèle:Mvar converge en loi vers la loi de Poisson de paramètre λ.}} Dans l'énoncé du paradigme de Poisson, on fait deux hypothèses (vagues) sur les termes d'une somme Modèle:Mvar de variables de Bernoulli :

  • les paramètres des variables de Bernoulli sont petits ; or les deux conditions ci-dessus entraînent que

Modèle:Retrait Modèle:Retrait

  • il y a un grand nombre de termes ; or les deux conditions ci-dessus entrainent que le nombre de termes tend vers l'infini :

Modèle:Retrait Modèle:Exemple

Domaines d'application

Le domaine d'application de la loi de Poisson a été longtemps limité à celui des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz<ref>Modèle:Ouvrage, Modèle:P..</ref>).

Mais, depuis la fin du Modèle:S mini- siècleModèle:Vérification siècle, son champ d'application s'est considérablement élargi. On l'utilise beaucoup dans les télécommunications (pour compter le nombre de communications dans un intervalle de temps donné), le contrôle de qualité statistique (nombre de défauts en SPC), la description de certains phénomènes liés à la désintégration radioactive (la désintégration des noyaux radioactifs suivant, par ailleurs, une loi exponentielle de paramètre noté aussi lambda), la biologie (mutations dans l'expérience de Luria et Delbrück, nombre de potentiels d'actions émis par un neurone en neurosciences), la météorologie, la finance pour modéliser la probabilité de défaut d'un crédit, le Yield Management (American Airlines, Lufthansa et SAS pour estimer la demande de passagers)Modèle:Etc

La loi de Poisson est également utilisable dans le cadre sportif. Elle peut être utilisé afin d'effectuer des prédiction statistiques sur le nombre de buts inscrits lors d'un match. Les probabilités issues de ce modèle permettent aux bookmakers de définir leurs cotes.

En littérature

Dans le roman de Thomas Pynchon, L'Arc-en-ciel de la gravité, un des personnages, le statisticien Roger Mexico, utilise la loi de Poisson pour cartographier les zones d'impact des fusées allemandes V2 sur la ville de Londres durant la Seconde Guerre mondiale.

Notes et références

Modèle:Références

Voir aussi

Articles connexes

Lien externe

Modèle:Palette Modèle:Portail