logo

Loi de Poisson



Loi de Poisson : encyclopédie mathématiques

wikipediaCet article est issu de l'encyclopédie libre Wikipedia.
Vous pouvez consulter l'article ici ainsi que son historique.
Les textes et les images sont disponibles sous les termes de la Licence de documentation libre GNU.
Aller Ă  : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Poisson (homonymie).
Poisson
Image illustrative de l'article Loi de Poisson
Densité de probabilité (ou fonction de masse)
Les fonctions de masse ne sont définies que pour les entiers k.

Image illustrative de l'article Loi de Poisson
Fonction de répartition
Les fonctions de répartition sont discontinues en chaque entier naturel.

Paramètres \lambda \in{} ]0,+\infty[[1]
Support k \in \N
Densité de probabilité (fonction de masse) \frac{e^{-\lambda} \lambda^k}{k!}\!
Fonction de rĂ©partition \frac{\Gamma(\lfloor k+1\rfloor,  \lambda)}{\lfloor k\rfloor !}\!\text{ pour }k\ge 0

(où \Gamma(x, y) est la Fonction gamma incomplète)

Espérance \lambda\,
MĂ©diane \text{environ }\lfloor\lambda+1/3-0.02/\lambda\rfloor
Mode \lfloor\lambda\rfloor si \lambda est un réel non entier,

\lambda et \lambda-1 si \lambda est un nombre entier

Variance \lambda\,
Asymétrie \lambda^{-1/2}\,
Kurtosis normalisé \lambda^{-1}\,
Entropie \lambda[1\!-\!\log(\lambda)]\!+\!e^{-\lambda}\sum_{k=0}^\infty  \frac{\lambda^k\log(k!)}{k!}.

Pour \lambda grand :

\scriptstyle\frac{1}{2}\log(2 \pi e  \lambda) -  \frac{1}{12 \lambda} -  \frac{1}{24 \lambda^2} - \frac{19}{360 \lambda^3} +  O\left(\frac{1}{\lambda^4}\right)

Fonction génératrice des moments \exp(\lambda (e^t-1))\,
Fonction caractéristique \exp(\lambda (e^{it}-1))\,

En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'évènements se produisant dans un laps de temps fixé, si ces évènements se produisent avec une fréquence moyenne connue et indépendamment du temps écoulé depuis l'évènement précédent. La loi de Poisson est également pertinente pour décrire le nombre d'évènements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes.

La loi de Poisson a Ă©tĂ© introduite en 1838 par SimĂ©on Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilitĂ© des jugements en matière criminelle et en matière civile[2]. Le sujet principal de cet ouvrage consiste en certaines variables alĂ©atoires N qui dĂ©nombrent, entre autres choses, le nombre d'occurrences (parfois appelĂ©es « arrivĂ©es Â») qui prennent place pendant un laps de temps donnĂ©.

Si le nombre moyen d'occurrences dans cet intervalle est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2, ...) est

p(k) =  P(X = k)= \frac{\lambda ^k}{k!}e^{-\lambda}\,

oĂą

  • e est la base de l'exponentielle (2,718...)
  • k! est la factorielle de k
  • λ est un nombre rĂ©el strictement positif[1].

On dit alors que X suit la loi de Poisson de paramètre λ.

Par exemple, si un certain type d'Ă©vènements se produit en moyenne 4 fois par minute, pour Ă©tudier le nombre d'Ă©vènements se produisant dans un laps de temps de 10 minutes, on choisit comme modèle une loi de Poisson de paramètre λ = 10Ă—4 = 40.

Calcul de p(k)[modifier | modifier le code]

Ce calcul peut se faire de manière déductive en travaillant sur une loi binomiale de paramètres (T; λ/T). Pour T grand, on démontre que la loi binomiale converge vers la loi de Poisson.

Il peut aussi se faire de manière inductive en Ă©tudiant sur l'intervalle [0; T] les fonctions F_k(t) = probabilitĂ© que l'Ă©vĂ©nement se produise k fois sur l'intervalle de temps [0 ; t]. En utilisant la rĂ©currence et du calcul diffĂ©rentiel, on parvient Ă  retrouver les formules prĂ©cĂ©dentes.

Espérance, variance, écart type, fonctions génératrices[modifier | modifier le code]

  • L'espĂ©rance d'une loi de Poisson est \lambda.
  • La variance d'une loi de Poisson est Ă©galement \lambda.
  • Son Ă©cart type est donc \sqrt{\lambda}.
  • La fonction gĂ©nĂ©ratrice de la loi de Poisson est
G_{X} (t) =\ e^{\lambda(t-1)}.
  • La fonction gĂ©nĂ©ratrice des moments d'une loi de Poisson est
M_{X}(t)\equiv   \mathbb{E}(e^{tX})=\exp\left(\lambda (e^t-1)\right).

Domaine d'application[modifier | modifier le code]

Le domaine d'application de la loi de Poisson a été longtemps limité à celui des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz[3]).

Mais depuis quelques décennies son champ d'application s'est considérablement élargi. Actuellement, on l'utilise beaucoup dans les télécommunications (pour compter le nombre de communications dans un intervalle de temps donné), le contrôle de qualité statistique (nombre de défauts en SPC), la description de certains phénomènes liés à la désintégration radioactive (la désintégration des noyaux radioactifs suivant, par ailleurs, une loi exponentielle de paramètre noté aussi lambda), la biologie (mutations), la météorologie, la finance pour modéliser la probabilité de défaut d'un crédit, le Yield Management (American Airlines, Lufthansa et SAS pour estimer la demande de passagers)...

Lien avec la loi de Bernoulli[modifier | modifier le code]

Le dĂ©compte des Ă©vènements rares se fait souvent au travers d'une somme de variables de Bernoulli, la raretĂ© des Ă©vènements se traduisant par le fait que les paramètres de ces variables de Bernoulli sont petits (ainsi, la probabilitĂ© que chaque Ă©vènement survienne est faible). Le lien entre la loi de Poisson et les Ă©vènements rares peut alors s'Ă©noncer ainsi :

Paradigme de Poisson â€”  La somme Sn d'un grand nombre de variables de Bernoulli indĂ©pendantes de petit paramètre suit approximativement la loi de Poisson de paramètre \scriptstyle\ \mathbb{E}[S_n]. \

L'inĂ©galitĂ© de Le Cam prĂ©cise le paradigme de Poisson : soit \scriptstyle\ X_{1,n}, X_{2,n},\dots, X_{a_n,n}\ un tableau de variables alĂ©atoires de Bernoulli indĂ©pendantes, avec paramètres respectifs \scriptstyle\ p_{k,n}.\ On note

S_n=\sum_{k=1}^{a_n}\,X_{k,n}\quad\text{et}\quad\lambda_n\ =\ \mathbb{E}[S_n]=\sum_{k=1}^{a_n}\,p_{k,n}.\
InĂ©galitĂ© de Le Cam[4] â€” Pour tout ensemble A d'entiers naturels,
\left|\mathbb{P}\left(S_n\in A\right)-\sum_{k\in A}\,\frac{\lambda_n^k\,e^{-\lambda_n}}{k!}\right|\ \le\ \sum_{k=1}^{a_n}\,p_{k,n}^2.

En particulier, si les deux conditions suivantes sont rĂ©unies :

  • \lim_n \lambda_n\,=\,\lambda>0,\
  • \lim_n \sum_{k=1}^{a_n}\,p_{k,n}^2\,=\,0,\

alors Sn converge en loi vers la loi de Poisson de paramètre λ.

Dans l'Ă©noncĂ© du paradigme de Poisson, on fait deux hypothèses (vagues) sur les termes d'une somme Sn de variables de Bernoulli :

  • les paramètres des variables de Bernoulli sont petits ; or les deux conditions ci-dessus entrainent que
\lim_n\,\left(\max_{1\le k\le a_n}\,p_{k,n}\right)\,=\,0,\
ce qui reformule l'hypothèse « les paramètres des variables de Bernoulli sont petits Â» de manière plus prĂ©cise ;
  • il y a un grand nombre de termes ; or les deux conditions ci-dessus entrainent que le nombre de termes tend vers l'infini :
\lim_n a_n\,=\,+\infty.\
Remarques  :
  • Ce paradigme reste pertinent, dans certaines conditions, si l'on relaxe l'hypothèse d'indĂ©pendance[5].
    • Un exemple frappant est le nombre de points fixes d'une permutation tirĂ©e au hasard.
    • Un autre exemple est le nombre de points isolĂ©s du graphe alĂ©atoire, dont la convergence vers la loi de Poisson a permis Ă  Erdös et RĂ©nyi de dĂ©montrer, en 1960, le thĂ©orème double-exponentiel.
  • Le cas particulier an=n, pk,n=λ/n, λn=λ, de l'inĂ©galitĂ© de Le Cam, prĂ©cise la rapiditĂ© de convergence de la loi binomiale de paramètres n et λ/n vers la loi de Poisson de paramètre λ.

Diagrammes en bâtons[modifier | modifier le code]

Comme toute loi de probabilité discrète, une loi de Poisson peut être représentée par un diagramme en bâtons. Ci-dessous sont représentés les diagrammes en bâtons des lois de Poisson de paramètres 1, 2 et 5.

diagramme en bâtons d'une loi de Poisson de paramètre 1 diagramme en bâtons d'une loi de Poisson de paramètre 2 diagramme en bâtons d'une loi de Poisson de paramètre 5

Lorsque le paramètre λ de la loi de Poisson devient grand, (pratiquement lorsqu'il est supérieur à 5), son diagramme en bâton est correctement approché par l'histogramme d'une loi normale d'espérance et de variance égales à λ (l'intervalle de classe étant égal à l'unité). Cette convergence était mise à profit, avant que les moyens informatiques ne se généralisent, pour utiliser la loi normale en lieu et place de la loi de Poisson dans certains tests.

Stabilité de la loi de Poisson par la somme[modifier | modifier le code]

Si X et Y sont deux variables aléatoires indépendantes qui suivent des lois de Poisson de paramètres λ et μ, alors X+Y est une variable aléatoire qui suit la loi de Poisson de paramètre λ + μ.

ThĂ©orème â€” Si   X\sim \mathcal{P}(\lambda) et Y \sim \mathcal{P}(\mu) sont indĂ©pendantes, alors X+Y \sim  \mathcal{P}(\lambda+\mu)

En littérature[modifier | modifier le code]

Dans le roman de Thomas Pynchon, L'Arc-en-ciel de la gravité, un des personnages, le statisticien Roger Mexico, utilise la loi de Poisson pour cartographier les zones d'impact des fusées allemandes V2 sur la ville de Londres durant la bataille d'Angleterre.

Notes et références[modifier | modifier le code]

  1. ↑ a et b Avec les conventions habituelles 0!=1 et 00=1, la dĂ©finition de la loi de Poisson s'Ă©tend Ă  λ=0 : on trouve alors p(0)=1 et, dès que k>0, p(k)=0. Ainsi une variable alĂ©atoire nulle presque sĂ»rement peut ĂŞtre vue comme suivant la loi de Poisson de paramètre 0. Cette convention est cohĂ©rente avec les propriĂ©tĂ©s essentielles de la loi de Poisson de paramètre strictement positif. Elle est commode, voire indispensable, par exemple lors de l'Ă©tude des processus ponctuels de Poisson.
  2. ↑ [1]
  3. ↑ Ladislaus Bortkiewicz, Das Gesetz der kleinen Zahlen,‎ 1898 (lire en ligne), p. 23
  4. ↑ (en) L. Le Cam, « An Approximation Theorem for the Poisson Binomial Distribution Â», Pacific Journal of Mathematics, vol. 10, no 4,‎ 1960, p. 1181–1197 (lire en ligne)
  5. ↑ (en) A. D. Barbour, L. Holst et S. Janson, Poisson approximation, The Clarendon Press Oxford University Press,‎ 1992 (ISBN 0198522355).

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

  • ProbabilitĂ©
  • ProbabilitĂ© (mathĂ©matiques Ă©lĂ©mentaires)
  • Loi de probabilitĂ©
  • Loi de Bernoulli
wikipediaCet article est issu de l'encyclopédie libre Wikipedia.
Vous pouvez consulter l'article ici ainsi que son historique.
Les textes et les images sont disponibles sous les termes de la Licence de documentation libre GNU.


maths - prof de maths - cours particuliers haut de pagehaut Retrouvez cette page sur ilemaths l'île des mathématiques
© Tom_Pascal & Océane 2014