Relations entre distributions de probabilité

Ce tableau présente une série de relations fonctionnelles entre les distributions de probabilité courantes.

Les relations peuvent prendre les formes suivantes :

  • Une distribution G est la généralisation d'une distribution F, le plus couramment en introduisant un nouveau paramètre.
Autrement dit, F est un cas particulier de G pour une valeur spécifique d'un paramètre.
Exemple : Exponentielle(λ)=Gamma(λ,1).
  • Une distribution est la limite d'une autre quand un paramètre tend vers l'infini (ou zéro).
Elle peut servir d'approximation si elle est plus aisée à calculer.
Exemple : Poisson approxime la Binomiale si n est grand et p petit.
  • Une variable aléatoire y de distribution G est la transformation y(x) d'une variable x de distribution F.
Exemples
Univariée : X ~ Normale Standard —> Y=x² ~ Khi-carré (1)
Multivariée : X1 ~ Khi-carré (n), X2 ~ Khi-carré (m) —> Y=(x1/n)/(x2/m) ~ F de Fisher-Snedecor
Statistiques : Xj ~ Géométrique —> Y=Σxj ~ Binomiale Négative
  • Une distribution est une composée (ou un mélange) : le paramètre θ d'une distribution F(x|θ) est lui-même une variable aléatoire , de distribution G(θ), ce qui donne la distribution-mélange (ou composition) H(x). Parfois la conditionnelle J(θ|x) peut aussi suivre une distribution connue (Voir Duales en analyse bayésienne).
Exemple : le mélange Gamma (G) de Poissons (F) est une Binomiale Négative (H). La duale (J) est une autre Gamma.
N.B. Souvent ces composées sont connues simplement sous le nom de leur construction.
Exemples : la Bêta-binomiale est un mélange Bêta de Binomiales ; la Gamma composée est un mélange Gamma de Gammas.
  • Une distribution F est la duale d'une distribution G si elle traite en variable un paramètre de G et en paramètre la variable de G.
    • Souvent, on les retrouve ensemble dans un contexte stochastique (processus de Poisson, de Bernoulli).
àExemple : la variable Poisson mesure un nombre d'événements sur un temps donné, la variable Gamma mesure le temps nécessaire à un nombre donné d'événements.
    • Les duales servent aussi dans l'analyse bayesienne : F est la prieure conjuguée de G, permettant d'en estimer le paramètre.
Exemple : la Bêta (xa(1-x)b) est la prieure conjuguée de la Binomiale (px(1-p)n-x) pour le paramètre p.

Attention ! Dans le résumé, la notation χ k 2 {\displaystyle \chi _{k}^{2}} ne représente pas la distribution Khi², mais une variable aléatoire de distribution Khi².
La distribution de la somme de deux variables aléatoires (qu'on appelle la convolution des deux distributions F 1 , F 2 {\displaystyle F_{1},F_{2}} ) s'écrit F 1 F 2 {\displaystyle F_{1}*F_{2}} , alors que nous notons ici la somme des variables χ k 2 + χ l 2 {\displaystyle \chi _{k}^{2}+\chi _{l}^{2}} .
Le signe {\displaystyle \propto } signifie "a la même distribution que".

Généralisations et paramètres particuliers

Description Résumé
La Bernoulli est une Binomiale de paramètre n=1. B i 1 , p B p {\displaystyle Bi_{1,p}\propto B_{p}}
La Géométrique est une Binomiale Négative de paramètre n=1. N B i 1 , p G e p {\displaystyle NBi_{1,p}\propto Ge_{p}}
L'Exponentielle est une Gamma (ou Erlang) de paramètre 1. Γ λ , 1 E λ {\displaystyle \Gamma _{\lambda ,1}\propto E_{\lambda }}
La Khi² est une Gamma de paramètres 1/2 et n/2. Γ 1 2 , n χ 2 n 2 {\displaystyle \Gamma _{{\frac {1}{2}},n}\propto \chi _{2n}^{2}}
L'Exponentielle est un cas particulier de la Weibull. W 0 , σ , 1 E 1 σ {\displaystyle W_{0,\sigma ,1}\propto E_{\frac {1}{\sigma }}}

Sommes de variables aléatoires

Distributions stables :

Une somme de Normales est une Normale. N μ 1 , σ 1 2 + N μ 2 , σ 2 2 N μ 1 + μ 2 , σ 1 2 + σ 2 2 + 2 σ 12 {\displaystyle N_{\mu _{1},\sigma _{1}^{2}}+N_{\mu _{2},\sigma _{2}^{2}}\propto N_{\mu _{1}+\mu _{2},\sigma _{1}^{2}+\sigma _{2}^{2}+2\sigma _{12}}}
Une somme de Khi² indépendantes est une Khi². χ k 2 + χ l 2 χ k + l 2 {\displaystyle \chi _{k}^{2}+\chi _{l}^{2}\propto \chi _{k+l}^{2}}
Une somme de Poisson indépendantes est une Poisson. P α + P β P α + β {\displaystyle P_{\alpha }+P_{\beta }\propto P_{\alpha +\beta }}
Une somme de Binomiales indépendantes de même paramètre p est une Binomiale. B i m , p + B i n , p B i m + n , p {\displaystyle Bi_{m,p}+Bi_{n,p}\propto Bi_{m+n,p}}
Une somme de Binomiales Négatives indépendantes de même paramètre p est une Binomiale Négative. N B i m , p + N B i n , p N B i m + n , p {\displaystyle NBi_{m,p}+NBi_{n,p}\propto NBi_{m+n,p}}
donc : Une somme de Géométriques indépendantes de même paramètre p est une Binomiale Négative. G e p + G e p N B i p , 2 {\displaystyle Ge_{p}+Ge_{p}\propto NBi_{p,2}}
Une somme de Gamma indépendantes de même paramètre λ est une Gamma. Γ λ , m + Γ λ , n Γ λ , ( m + n ) {\displaystyle \Gamma _{\lambda ,m}+\Gamma _{\lambda ,n}\propto \Gamma _{\lambda ,(m+n)}}
donc : Une somme d'Exponentielles indépendantes de même paramètre λ est une Gamma. E λ + E λ Γ λ , 2 {\displaystyle E_{\lambda }+E_{\lambda }\propto \Gamma _{\lambda ,2}}

Transformations de variables aléatoires

Le carré d'une normale standard est une Khi² à 1 degré. N 0 , 1 2 χ 1 2 {\displaystyle N_{0,1}^{2}\propto \chi _{1}^{2}}
Si X est une Normale Standard et Y une Khi² de degré k, indépendantes, alors X Y k {\displaystyle {\frac {X}{\sqrt {\frac {Y}{k}}}}} est une T de Student à k degrés de liberté. N 0 , 1 χ k 2 k T k {\displaystyle {\frac {N_{0,1}}{\sqrt {\frac {\chi _{k}^{2}}{k}}}}\propto T_{k}}
Si X et Y sont des Khi² indépendantes, alors X m Y n {\displaystyle {\frac {\frac {X}{m}}{\frac {Y}{n}}}} est une F de Fisher. χ m 2 m χ n 2 n F m , n {\displaystyle {\frac {\frac {\chi _{m}^{2}}{m}}{\frac {\chi _{n}^{2}}{n}}}\propto F_{m,n}}
Le logarithme d'une Log-normale suit une loi Normale. ln ( L N μ , σ 2 ) N μ , σ 2 {\displaystyle \ln(LN_{\mu ,\sigma ^{2}})\propto N_{\mu ,\sigma ^{2}}}

Approximations et limites

Composées et mélanges (mixtures)

Dualité

Voir aussi

  • icône décorative Portail des probabilités et de la statistique