Processus de naissance et de mort

Les processus de naissance et de mort sont des cas particuliers de processus de Markov en temps continu où les transitions d'état sont de deux types seulement : les «naissances» où l'état passe de n à n+1 et les morts où l'état passe de n à n-1.

Ces processus ont de nombreuses applications en dynamique des populations et dans la théorie des files d'attente. Le processus est spécifié par les taux de naissance ( λ n ) n = 0 {\displaystyle (\lambda _{n})_{n=0\ldots \infty }} et les taux de mortalité ( μ n ) n = 0 {\displaystyle (\mu _{n})_{n=0\ldots \infty }} .

Conditions de récurrence et de fugacité

Les conditions de la récurrence et de la fugacité ont été établies par Samuel Karlin and James McGregor[1].

Un processus de naissance et de mort est récurrent si et seulement si
i = 1 n = 1 i μ n λ n = . {\displaystyle \sum _{i=1}^{\infty }\prod _{n=1}^{i}{\frac {\mu _{n}}{\lambda _{n}}}=\infty .}
Un processus de naissance et de mort est ergodique si et seulement si
i = 1 n = 1 i μ n λ n = et i = 1 n = 1 i λ n 1 μ n < . {\displaystyle \sum _{i=1}^{\infty }\prod _{n=1}^{i}{\frac {\mu _{n}}{\lambda _{n}}}=\infty \quad {\text{et}}\quad \sum _{i=1}^{\infty }\prod _{n=1}^{i}{\frac {\lambda _{n-1}}{\mu _{n}}}<\infty .}
Un processus de naissance et de mort est null-récurrent si et seulement si
i = 1 n = 1 i μ n λ n = et i = 1 n = 1 i λ n 1 μ n = . {\displaystyle \sum _{i=1}^{\infty }\prod _{n=1}^{i}{\frac {\mu _{n}}{\lambda _{n}}}=\infty \quad {\text{et}}\quad \sum _{i=1}^{\infty }\prod _{n=1}^{i}{\frac {\lambda _{n-1}}{\mu _{n}}}=\infty .}

Les conditions de récurrence, de fugacité, d’ergodicité et de récurrence nulle peuvent être dérivées sous une forme plus explicite[2].

Pour les entiers K 1 {\displaystyle K\geq 1} , laisser ln ( K ) ( x ) {\displaystyle \ln _{(K)}(x)} désignent le K {\displaystyle K} ème itération du logarithme népérien, c’est-à-dire ln ( 1 ) ( x ) = ln ( x ) {\displaystyle \ln _{(1)}(x)=\ln(x)} , et pour tout 2 k K {\displaystyle 2\leq k\leq K} , ln ( k ) ( x ) = ln ( k 1 ) ( ln ( x ) ) {\displaystyle \ln _{(k)}(x)=\ln _{(k-1)}(\ln(x))} .

Ensuite, les conditions de récurrence et de fugacité d’un processus de naissance et de mort sont les suivants.

Le processus de naissance et de mort est transitoire s’il existe c > 1 {\displaystyle c>1} , K 1 {\displaystyle K\geq 1} et n 0 {\displaystyle n_{0}} , de telle sorte que, pour tous

n > n 0 {\displaystyle n>n_{0}} ,

λ n μ n 1 + 1 n + 1 n k = 1 K 1 1 j = 1 k ln ( j ) ( n ) + c n j = 1 K ln ( j ) ( n ) , {\displaystyle {\frac {\lambda _{n}}{\mu _{n}}}\geq 1+{\frac {1}{n}}+{\frac {1}{n}}\sum _{k=1}^{K-1}{\frac {1}{\prod _{j=1}^{k}\ln _{(j)}(n)}}+{\frac {c}{n\prod _{j=1}^{K}\ln _{(j)}(n)}},}

où la somme vide de K = 1 {\displaystyle K=1} est supposé être égal à 0.

Le processus de naissance et de mort est récurrent s’il existe K 1 {\displaystyle K\geq 1} et n 0 {\displaystyle n_{0}} , de telle sorte que, pour tous

n > n 0 {\displaystyle n>n_{0}} ,

λ n μ n 1 + 1 n + 1 n k = 1 K 1 j = 1 k ln ( j ) ( n ) . {\displaystyle {\frac {\lambda _{n}}{\mu _{n}}}\leq 1+{\frac {1}{n}}+{\frac {1}{n}}\sum _{k=1}^{K}{\frac {1}{\prod _{j=1}^{k}\ln _{(j)}(n)}}.}

Des classes plus larges de processus de naissance et de mort, pour lesquels les conditions de récurrence et de fugacité peuvent être établies, peuvent être trouvées dans [3]

Application

Considérez la marche aléatoire unidimensionnelle S t {\displaystyle S_{t}} , t = 0 , 1 , {\displaystyle t=0,1,\ldots } , qui se définit comme suit. Laisser S 0 = 1 {\displaystyle S_{0}=1} et S t = S t 1 + e t {\displaystyle S_{t}=S_{t-1}+e_{t}} , t 1 {\displaystyle t\geq 1} , où e t {\displaystyle e_{t}} prend des valeurs ± 1 {\displaystyle \pm 1} , et la distribution des S t {\displaystyle S_{t}} est défini par les conditions suivantes:

P { S t + 1 = S t + 1 | S t > 0 } = 1 2 + α S t S t , P { S t + 1 = S t 1 | S t > 0 } = 1 2 α S t S t , P { S t + 1 = 1 | S t = 0 } = 1 , {\displaystyle {\mathsf {P}}\{S_{t+1}=S_{t}+1|S_{t}>0\}={\frac {1}{2}}+{\frac {\alpha _{S_{t}}}{S_{t}}},\quad {\mathsf {P}}\{S_{t+1}=S_{t}-1|S_{t}>0\}={\frac {1}{2}}-{\frac {\alpha _{S_{t}}}{S_{t}}},\quad {\mathsf {P}}\{S_{t+1}=1|S_{t}=0\}=1,}

α n {\displaystyle \alpha _{n}} satisfont à la condition 0 < α n < min { C , n / 2 } {\displaystyle 0<\alpha _{n}<\min\{C,n/2\}} , C > 0 {\displaystyle C>0} .

La marche aléatoire décrite ici est un analogue temporel discret du processus de naissance et de mort (voir chaîne de Markov) avec les taux de natalité
1 2 + α n 2 , {\displaystyle {\frac {1}{2}}+{\frac {\alpha _{n}}{2}},}
et taux de mortalité
1 2 α n 2 . {\displaystyle {\frac {1}{2}}-{\frac {\alpha _{n}}{2}}.}

Ainsi, la récurrence ou la fugacité de la marche aléatoire est associée à la récurrence ou à la fugacité du processus de naissance et de mort[2].

La marche aléatoire est transitoire s’il y en a c > 1 {\displaystyle c>1} , K 1 {\displaystyle K\geq 1} et n 0 {\displaystyle n_{0}} de telle sorte que pour tous les n > n 0 {\displaystyle n>n_{0}}
α n 1 4 ( 1 + k = 1 K 1 j = 1 k 1 ln ( j ) ( n ) + c j = 1 K 1 ln ( j ) ( n ) ) , {\displaystyle \alpha _{n}\geq {\frac {1}{4}}\left(1+\sum _{k=1}^{K-1}\prod _{j=1}^{k}{\frac {1}{\ln _{(j)}(n)}}+c\prod _{j=1}^{K}{\frac {1}{\ln _{(j)}(n)}}\right),}
où la somme vide de K = 1 {\displaystyle K=1} est supposé être nul.
La marche aléatoire est récurrente s’il existe K 1 {\displaystyle K\geq 1} et n 0 {\displaystyle n_{0}} de telle sorte que pour tous les n > n 0 {\displaystyle n>n_{0}}
α n ( 1 + k = 1 K j = 1 k 1 ln ( j ) ( n ) ) . {\displaystyle \alpha _{n}\leq \left(1+\sum _{k=1}^{K}\prod _{j=1}^{k}{\frac {1}{\ln _{(j)}(n)}}\right).}

Le générateur

On suppose que μ 0 = 0 {\displaystyle \mu _{0}=0} . Si π n ( t ) {\displaystyle \pi _{n}(t)} est la probabilité de trouver le système dans l'état n {\displaystyle n} (avec n = 0 , 1 , 2 , . . . {\displaystyle n=0,1,2,...} ) à l'instant t {\displaystyle t} , alors

d π n ( t ) d t = λ n 1 π n 1 ( t ) ( λ n + μ n ) π n ( t ) + μ n + 1 π n + 1 ( t ) . {\displaystyle {\frac {d\pi _{n}(t)}{dt}}=\lambda _{n-1}\pi _{n-1}(t)-(\lambda _{n}+\mu _{n})\pi _{n}(t)+\mu _{n+1}\pi _{n+1}(t).}

Autrement dit,

d π d t = π ( t ) A , {\displaystyle {\frac {d\pi }{dt}}=\pi (t)A,}

A {\displaystyle A} est le générateur défini par

A = ( λ 0 λ 0 0 . . . μ 1 λ 1 μ 1 λ 1 0 . . . 0 μ 2 λ 2 μ 2 λ 2 ) . {\displaystyle A={\begin{pmatrix}-\lambda _{0}&\lambda _{0}&0&...&\\\mu _{1}&-\lambda _{1}-\mu _{1}&\lambda _{1}&0&...\\0&\mu _{2}&-\lambda _{2}-\mu _{2}&\lambda _{2}\\\vdots &\ddots &\ddots &\ddots \\\end{pmatrix}}.}

Si plus généralement on note P i , j ( t ) {\displaystyle P_{i,j}(t)} la probabilité d'être dans l'état j {\displaystyle j} à l'instant t {\displaystyle t} sachant que le système était dans l'état i {\displaystyle i} à l'instant t = 0 {\displaystyle t=0} , alors d P d t = A P ( t ) = P ( t ) A {\displaystyle {\frac {dP}{dt}}=AP(t)=P(t)A} et P ( 0 ) = I {\displaystyle P(0)=I} (la matrice identité).


Exemples

Le processus de Yule correspond à μ n = 0 {\displaystyle \mu _{n}=0} et λ n = n λ {\displaystyle \lambda _{n}=n\lambda } .

Le processus linéaire de naissance et de mort correspond à μ n = n μ {\displaystyle \mu _{n}=n\mu } et λ n = n λ {\displaystyle \lambda _{n}=n\lambda } .

La file M/M/1 correspond à μ n = μ {\displaystyle \mu _{n}=\mu } pour n 1 {\displaystyle n\geq 1} et λ n = λ {\displaystyle \lambda _{n}=\lambda } pour n 0 {\displaystyle n\geq 0} .

Propriétés

Supposons que λ n > 0 {\displaystyle \lambda _{n}>0} pour tout n > 0 {\displaystyle n>0} . Le processus de naissance et de mort a une durée de vie infinie si et seulement si

n > 0 ( 1 λ n + μ n λ n λ n 1 + + μ n μ 2 λ n λ 2 λ 1 ) {\displaystyle \sum _{n>0}\left({\frac {1}{\lambda _{n}}}+{\frac {\mu _{n}}{\lambda _{n}\lambda _{n-1}}}+\cdots +{\frac {\mu _{n}\cdots \mu _{2}}{\lambda _{n}\cdots \lambda _{2}\lambda _{1}}}\right)}

est infini.

Par exemple, le processus de Yule a une durée de vie infinie car la série harmonique 1 / n {\displaystyle \sum 1/n} diverge.

Formule de Karlin et McGregor

On définit une suite de polynômes Q k ( x ) {\displaystyle Q_{k}(x)} telle que Q 0 ( x ) = 1 {\displaystyle Q_{0}(x)=1} et x Q = A Q {\displaystyle -xQ=AQ} . Autrement dit,

x Q 0 ( x ) = λ 0 Q 0 ( x ) + λ 0 Q 1 ( x ) {\displaystyle -xQ_{0}(x)=-\lambda _{0}Q_{0}(x)+\lambda _{0}Q_{1}(x)}

et

x Q k ( x ) = μ k Q k 1 ( x ) ( λ k + μ k ) Q k ( x ) + λ k Q k + 1 ( x ) {\displaystyle -xQ_{k}(x)=\mu _{k}Q_{k-1}(x)-(\lambda _{k}+\mu _{k})Q_{k}(x)+\lambda _{k}Q_{k+1}(x)}

pour tout k 1 {\displaystyle k\geq 1} . Ces polynômes sont orthogonaux par rapport à une mesure de probabilité ψ {\displaystyle \psi } sur l'intervalle [ 0 , + [ {\displaystyle [0,+\infty [} et

P i , j ( t ) = 0 e x t Q i ( x ) Q j ( x ) d ψ ( x ) 0 Q j ( x ) 2 d ψ ( x ) . {\displaystyle P_{i,j}(t)={\frac {\int _{0}^{\infty }e^{-xt}Q_{i}(x)Q_{j}(x)\,d\psi (x)}{\int _{0}^{\infty }Q_{j}(x)^{2}d\psi (x)}}.}

Cette formule est due à Karlin et McGregor.

Exemples

  • Si λ n = λ {\displaystyle \lambda _{n}=\lambda } et μ n = n μ {\displaystyle \mu _{n}=n\mu } pour tout n 0 {\displaystyle n\geq 0} (file d'attente M/M/ {\displaystyle \infty } ), alors Q i ( x ) = C i ( x / μ ; λ / μ ) , {\displaystyle Q_{i}(x)=C_{i}(x/\mu ;\lambda /\mu ),} où les C i {\displaystyle C_{i}} sont les polynômes de Charlier. Les polynômes Q i ( x ) {\displaystyle Q_{i}(x)} sont orthogonaux par rapport à la distribution de Poisson qui attribue le poids e λ / μ ( λ / μ ) n n ! {\displaystyle e^{-\lambda /\mu }{\frac {(\lambda /\mu )^{n}}{n!}}} sur les entiers n = 0 , μ , 2 μ , . . . {\displaystyle n=0,\mu ,2\mu ,...}
  • Si λ n = ( n + β ) λ {\displaystyle \lambda _{n}=(n+\beta )\lambda } et μ n = n μ {\displaystyle \mu _{n}=n\mu } avec β > 0 , λ > 0 , μ > 0 {\displaystyle \beta >0,\lambda >0,\mu >0} , alors il faut distinguer trois cas.

1er cas : Si λ < μ {\displaystyle \lambda <\mu } , alors

Q i ( x ) = M i ( x μ λ ; β , λ μ ) , {\displaystyle Q_{i}(x)=M_{i}\left({\frac {x}{\mu -\lambda }};\beta ,{\frac {\lambda }{\mu }}\right),}

où les M i {\displaystyle M_{i}} sont les polynômes de Meixner. Ainsi, les polynômes Q i ( x ) {\displaystyle Q_{i}(x)} sont orthogonaux par rapport à la distribution de probabilités qui attribue le poids

w n = ( 1 λ / μ ) β β ( β + 1 ) ( β + n 1 ) n ! ( λ / μ ) n {\displaystyle w_{n}=(1-\lambda /\mu )^{\beta }{\frac {\beta (\beta +1)\cdots (\beta +n-1)}{n!}}(\lambda /\mu )^{n}}

aux points ( μ λ ) n {\displaystyle (\mu -\lambda )n} pour n = 0 , 1 , 2 , . . . {\displaystyle n=0,1,2,...}

2e cas : Si λ > μ {\displaystyle \lambda >\mu } , alors

Q i ( x ) = M i ( x λ μ β ; β , μ λ ) . {\displaystyle Q_{i}(x)=M_{i}\left({\frac {x}{\lambda -\mu }}-\beta ;\beta ,{\frac {\mu }{\lambda }}\right).}

Les polynômes Q i ( x ) {\displaystyle Q_{i}(x)} sont orthogonaux par rapport à la distribution de probabilités qui attribue le poids

w n = ( 1 μ / λ ) β β ( β + 1 ) ( β + n 1 ) n ! ( μ / λ ) n {\displaystyle w_{n}=(1-\mu /\lambda )^{\beta }{\frac {\beta (\beta +1)\cdots (\beta +n-1)}{n!}}(\mu /\lambda )^{n}}

aux points ( λ μ ) ( n + β ) {\displaystyle (\lambda -\mu )(n+\beta )} pour n = 0 , 1 , 2 , . . . {\displaystyle n=0,1,2,...}

3e cas : Si λ = μ {\displaystyle \lambda =\mu } , alors

Q i ( x ) = i ! β ( β + 1 ) ( β + i 1 ) L i ( β 1 ) ( x / λ ) , {\displaystyle Q_{i}(x)={\frac {i!}{\beta (\beta +1)\cdots (\beta +i-1)}}L_{i}^{(\beta -1)}(x/\lambda ),}

où les L i ( β 1 ) {\displaystyle L_{i}^{(\beta -1)}} sont des polynômes de Laguerre généralisés. Les polynômes Q i ( x ) {\displaystyle Q_{i}(x)} sont orthogonaux par rapport à la distribution de probabilités sur [ 0 , + [ {\displaystyle [0,+\infty [} de densité donnée par la distribution Gamma Γ ( β , λ ) {\displaystyle \Gamma (\beta ,\lambda )}  :

f ( x ) = 1 λ β Γ ( β ) x β 1 e x / λ . {\displaystyle f(x)={\frac {1}{\lambda ^{\beta }\Gamma (\beta )}}x^{\beta -1}e^{-x/\lambda }.}

Processus absorbants

Lorsque λ 0 = 0 {\displaystyle \lambda _{0}=0} , l'état 0 est absorbant. Ce cas intervient souvent en dynamique des populations et correspond à l'extinction de la population. Notons u n {\displaystyle u_{n}} la probabilité que le système soit absorbé en 0 au bout d'un temps fini, si l'on part de l'état n > 0 {\displaystyle n>0} . Posons

U = n = 1 μ 1 μ n λ 1 λ n . {\displaystyle U=\sum _{n=1}^{\infty }{\frac {\mu _{1}\ldots \mu _{n}}{\lambda _{1}\ldots \lambda _{n}}}.}

Si U = + {\displaystyle U=+\infty } , alors u n = 1 {\displaystyle u_{n}=1} pour tout n > 0 {\displaystyle n>0} .

Si U < + {\displaystyle U<+\infty } , alors

u n = 1 1 + U k = n μ 1 μ k λ 1 λ k . {\displaystyle u_{n}={\frac {1}{1+U}}\sum _{k=n}^{\infty }{\frac {\mu _{1}\ldots \mu _{k}}{\lambda _{1}\ldots \lambda _{k}}}.}

Par exemple, pour le processus linéaire de naissance et de mort, on voit que U = n = 1 ( μ λ ) n {\displaystyle U=\sum _{n=1}^{\infty }\left({\frac {\mu }{\lambda }}\right)^{n}} . L'extinction est certaine lorsque μ λ {\displaystyle \mu \geq \lambda } .

Supposons U < + {\displaystyle U<+\infty } . Notons T n {\displaystyle T_{n}} l'espérance du temps d'extinction lorsque le système part de l'état n {\displaystyle n} . Alors

T 1 = 1 μ 1 + λ 1 μ 1 μ 2 + + λ 1 λ k 1 μ 1 μ k + {\displaystyle T_{1}={\frac {1}{\mu _{1}}}+{\frac {\lambda _{1}}{\mu _{1}\mu _{2}}}+\cdots +{\frac {\lambda _{1}\ldots \lambda _{k-1}}{\mu _{1}\ldots \mu _{k}}}+\cdots }

et

T n = k = 1 n 1 i = k + 1 λ k + 1 λ i 1 μ k + 1 μ i {\displaystyle T_{n}=\sum _{k=1}^{n-1}\sum _{i=k+1}^{\infty }{\frac {\lambda _{k+1}\ldots \lambda _{i-1}}{\mu _{k+1}\ldots \mu _{i}}}}

pour n 2 {\displaystyle n\geq 2} .

Par exemple, pour le processus linéaire de naissance et de mort avec μ > λ {\displaystyle \mu >\lambda } , on trouve que

T n = 1 λ i 1 ( λ μ ) i k = 1 n 1 1 k + i . {\displaystyle T_{n}={\frac {1}{\lambda }}\sum _{i\geq 1}\left({\frac {\lambda }{\mu }}\right)^{i}\sum _{k=1}^{n-1}{\frac {1}{k+i}}.}

Lorsque n + {\displaystyle n\to +\infty } , on a T n ( log n ) / ( μ λ ) . {\displaystyle T_{n}\sim (\log n)/(\mu -\lambda ).}

Méthode des fonctions génératrices

Lorsque les taux de naissance et de mort sont des polynômes en n {\displaystyle n} , on peut faire le lien avec certaines équations aux dérivées partielles. Ainsi, pour le processus linéaire de naissance et de mort, posons

g ( t , x ) = n = 0 π n ( t ) x n . {\displaystyle g(t,x)=\sum _{n=0}^{\infty }\pi _{n}(t)x^{n}.}

On montre que

g t = ( λ x μ ) ( x 1 ) g x . {\displaystyle {\frac {\partial g}{\partial t}}=(\lambda x-\mu )(x-1){\frac {\partial g}{\partial x}}.}

En utilisant la méthode des caractéristiques, on en déduit que

g ( t , x ) = ( ( λ x μ ) μ ( x 1 ) e ( λ μ ) t ( λ x μ ) λ ( x 1 ) e ( λ μ ) t ) n 0 {\displaystyle g(t,x)=\left({\frac {(\lambda x-\mu )-\mu (x-1)e^{(\lambda -\mu )t}}{(\lambda x-\mu )-\lambda (x-1)e^{(\lambda -\mu )t}}}\right)^{n_{0}}}

si l'on part de l'état n 0 {\displaystyle n_{0}} à t = 0 {\displaystyle t=0} . On en déduit que l'espérance E ( t ) {\displaystyle E(t)} de la population au temps t {\displaystyle t} est

E ( t ) = g x ( t , 1 ) = n 0 e ( λ μ ) t . {\displaystyle E(t)={\frac {\partial g}{\partial x}}(t,1)=n_{0}e^{(\lambda -\mu )t}.}

On en déduit aussi la probabilité π 0 ( t ) {\displaystyle \pi _{0}(t)} d'extinction au temps t {\displaystyle t}  :

π 0 ( t ) = g ( t , 0 ) = ( μ e ( λ μ ) t μ λ e ( λ μ ) t μ ) n 0 {\displaystyle \pi _{0}(t)=g(t,0)=\left({\frac {\mu e^{(\lambda -\mu )t}-\mu }{\lambda e^{(\lambda -\mu )t}-\mu }}\right)^{n_{0}}}

si λ μ {\displaystyle \lambda \neq \mu } . En particulier, si λ > μ {\displaystyle \lambda >\mu } , on a π 0 ( t ) ( μ / λ ) n 0 {\displaystyle \pi _{0}(t)\to (\mu /\lambda )^{n_{0}}} quand t + {\displaystyle t\to +\infty } .

Quasi-processus de naissance et de mort

Les quasi-processus de naissance et de mort sont les processus de Markov en temps continu sur un espace d'états discret dont le générateur est tridiagonal par blocs :

A = ( Q 0 , 0 Q 0 , 1 0 Q 1 , 0 Q 1 , 1 Q 1 , 2 0 0 Q 2 , 1 Q 2 , 2 Q 2 , 3 0 ) . {\displaystyle A={\begin{pmatrix}Q_{0,0}&Q_{0,1}&0&\ldots &\\Q_{1,0}&Q_{1,1}&Q_{1,2}&0&\\0&Q_{2,1}&Q_{2,2}&Q_{2,3}&\\\vdots &0&\ddots &\ddots &\ddots \end{pmatrix}}.}

Références

  1. Karlin, Samuel et McGregor, James, « The classification of birth and death processes », Transactions of the American Mathematical Society, vol. 86, no 2,‎ , p. 366–400 (DOI 10.1090/S0002-9947-1957-0094854-8, lire en ligne)
  2. a et b Vyacheslav M. Abramov, « Extension of the Bertrand–De Morgan test and its application », The American Mathematical Monthly, vol. 127, no 5,‎ , p. 444–448 (DOI 10.1080/00029890.2020.1722551, arXiv 1901.05843, S2CID 199552015, lire en ligne)
  3. Vyacheslav M. Abramov, « Necessary and sufficient conditions for the convergence of positive series », Journal of Classical Analysis, vol. 19, no 2,‎ , p. 117–125 (DOI 10.7153/jca-2022-19-09, arXiv 2104.01702, S2CID 233025219, lire en ligne)

Articles connexes

Bibliographie

  • P. Désesquelles, Les processus de Markov en biologie, sociologie, géologie, chimie, physique et applications industrielles, Ellipses, 2016.
  • W. Feller, Die Grundlagen der Volterraschen Theorie des Kampfes ums Dasein in Wahrscheinlichkeitstheoretischer Behandlung, Acta Biotheoretica no 5, 1939, p. 11-40.
  • A. Hillion, Les théories mathématiques des populations, PUF, 1986.
  • S. Karlin, J.L. McGregor, The differential equations of birth-and-death processes, and the Stieltjes moment problem, Transactions of the American Mathematical Society, 1957.
  • S. Méléard, Modèles aléatoires en écologie et évolution, Springer, 2016.
  • Ph. Picard, Sur les modèles stochastiques logistiques en démographie, Ann. Inst. Henri Poincaré no 2, 1965, p. 151-172
  • W. Scoutens, Stochastic Processes and Orthogonal Polynomials, Springer, 2000.
  • B. Sericola, Chaînes de Markov - Théorie, algorithmes et applications, Lavoisier, 2013.
  • icône décorative Portail sur la mort
  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail de la démographie