Sur la loi multinomiale

Thèmes: Vecteurs aléatoires - Lois marginales - Espérance et variance - Covariance
 
 
 
 
On dit qu'un vecteur aléatoire $Z=(X_1,X_2,\dots,X_r)$ suit la loi multinomiale de paramètres $n\in\mathbb{N}^*$ et $(p_1,p_2,\dots,p_r)\in]0,1[^r$, avec $r\geq2$ et $p_1+p_2+\dots+p_r=1$, lorsque:
 
 $$  Z(\Omega) \subseteq [\![ 0;n ]\!]^r \qquad \hbox{et} \qquad \forall (k_1,k_2,\dots,k_r) \in [\![ 0;n ]\!]^r , \; \mathbb{P} \big( Z=(k_1,k_2,\dots,k_r) \big) = \Bigg\{ \begin{array}{cl} \frac{ n ! }{ {k_1} ! {k_2} ! \dots {k_r} ! } {p_1}^{k_1} {p_2}^{k_2} \dots {p_r}^{k_r} & \hbox{    si } {k_1}+{k_2}+\dots{k_r}=1 \\\\ 0 & \hbox{    sinon} \end{array} $$
  
On le note $Z\hookrightarrow\mathcal{M}(n;p_1,p_2,\dots,p_r)$.
 
 
 
  •  Remarque. On a donc $X_1+X_2+\dots+X_r=n$ presque sûrement. Les variables $X_1$, $X_2$, $\dots$, $X_r$ ne sont donc pas indépendantes.
 
 
  • Formule du multinôme. On peut en déduire la formule du multinôme dans un cas particulier. En effet, si $n\in\mathbb{N}^*$ et $(a_1,a_2,\dots,a_r)\in\big(\mathbb{R}^*_+\big)^r$,

on se donne $Z=(X_1,X_2,\dots,X_r)\hookrightarrow\mathcal{M}(n;p_1,p_2,\dots,p_r)$ où $p_i= \displaystyle \frac{a_i}{a_1+a_2+\dots+a_r}$, $1\leq i\leq r$, et dans ce cas la propriété $\displaystyle\sum_{ k_1+k_2+\dots +k_r=n} \mathbb{P}\big(Z=(k_1,k_2,\dots,k_r)\big) = 1$ s'écrit:

$$ \sum_{ k_1+k_2+\dots +k_r=n}\frac{ n ! }{ {k_1} ! {k_2} ! \dots {k_r} ! } {a_1}^{k_1} {a_2}^{k_2} \dots {a_r}^{k_r}=(a_1+a_2+\dots+a_r)^n$$

 
 
  • Modélisation. On se donne une système complet d'évènements $(A_1,A_2,\dots,A_r)$ associé à une expérience aléatoire. Pour $i\in[\![1;r]\!]$, on note $p_i=\mathbb{P}(A_i)$ et
 $X_i$ le nombre de fois où $A_i$ s'est réalisé au cours de $n$ répétitions indépendantes de l'expérience aléatoire.
 Alors $Z=(X_1,X_2,\dots,X_r)\hookrightarrow\mathcal{M}(n;p_1,p_2,\dots,p_r)$.
 
Preuve: Il est clair que $Z(\Omega)\subseteq[\![ 0;n]\!]^r$.
D'autre part, pour $k=(k_1,\dots,k_r)\in[\![ 0;n]\!]^r$ avec $k_1+k_2+\dots+k_r=n$, on raisonne comme dans le cas de la loi binomiale: si on représente la situation par un arbre $r$-naire (chaque parent a $r$ fils) l'évènement $[X=k]$ correspond à $\frac{ n ! }{ {k_1} ! {k_2} ! \dots {k_r} ! }$ branches toutes de même probabilité ${p_1}^{k_1} {p_2}^{k_2} \dots {p_r}^{k_r}$. On en déduit que:
$$\mathbb{P} \big( Z=(k_1,k_2,\dots,k_r) \big) =  \frac{ n ! }{ {k_1} ! {k_2} ! \dots {k_r} ! } {p_1}^{k_1} {p_2}^{k_2} \dots {p_r}^{k_r}$$
 
Par exemple: on dispose d'une urne de $n$ boules, chacune coloriée avec une couleur prise parmi $r$, et on effectue $n$ tirages avec remise d'une boule dans cette urne. Si on note $X_i$ = nombre de boules obtenues de la couleur $i$, pour $i\in[\![1;r]\!]$, alors $Z=(X_1,X_2,\dots,X_r)\hookrightarrow\mathcal{M}(n;p_1,p_2,\dots,p_r)$ où $p_i=\displaystyle \frac{n_i}{n}$ avec $n_i$ = nombre de boules de la couleur $i$ dans l'urne.
 
Autre exemple: dans la modélisation du processus de population de Galton-Watson, chaque individus a un nombre d'enfants entre $0$ et $r$, choisi aléatoirement selon une loi finie $(p_0,p_1,\dots,p_r)$. Si on note $Z_n$ le nombre d'individus de la $n$-ième génération, et, pour $i\in[\![0;r]\;]$, $A_{i}^{(n)}$ le nombre d'individus de la $n$-ième génération qui ont exactement $i$ enfants, alors, pour $k\in\mathbb{N}$, la loi du vecteur $(A_0^{(n)},A_1^{(n)},\dots,A_r^{(n)})$ sachant que $Z_n=k$ est la loi multinomiale $\mathcal{M}(k;p_0,p_1,\dots,p_r)$.
 
 
 
 
  • Lien avec la loi binomiale: cas du schéma de Bernoulli. Si on se place dans le cadre du schéma de Bernoulli ($n$ répétitions indépendantes d'une expérience
succès/échec) et si note $X$ le nombre de succès obtenus, $Y$ le nombre d'échecs obtenus, alors $Z=(X,Y)\hookrightarrow\mathcal{M}(n;p,1-p)$ où $p$ est la probabilité que l'expérience aléatoire donne un succès.

 D'autre part, on sait aussi que $X\hookrightarrow\mathcal{B}(n,p)$ et $Y\hookrightarrow\mathcal{B}(n;1-p)$.  Comme le montre, le résultat suivant c'est en fait une propriété plus générale.

 
 
 
  • Lois marginales. On suppose que $Z=(X_1,\dots,X_r)\hookrightarrow\mathcal{M}(n;p_1,\dots,p_r)$. Alors, si $i[\![1;r]\!]$, $X_i\hookrightarrow\mathcal{B}(n,p_i)$.
Preuve. Par modélisation (le calcul est lourd!).
On fixe $i\in[\![1;r]\!]$. Il est clair que $X_i(\Omega)\subseteq[\![ 0;n]\!]$.
D'autre part, si on se place dans le cadre de la modélisation ci-dessus, $X_i$ compte le nombre de fois où l'évènement $A_i$ s'est réalisé lors de $n$ répétitions indépendantes. On est donc le cadre d'un schéma de Bernoulli, où $A_i$ représente le "succès" et $\overline{A_i}$ représente l' "échec". Comme $p_i=\mathbb{P}(A_i)$, on peut donc dire que $X_i\hookrightarrow\mathcal{B}(n,p_i)$.
 
On peut généraliser: si $I\subseteq [\![1:r]\!]$, alors $\displaystyle\sum_{i\in I} X_i\hookrightarrow\mathcal{B}\left(n;\sum_{i\in I}p_i\right)$.
 
Preuve. De même $\displaystyle\sum_{i\in I} X_i$ compte le nombre de succès dans un schéma de Bernoulli où les "succès" sont donnés par l'évènement $\displaystyle \bigcup_{i\in I} A_i$, qui est de probabilité $\displaystyle \sum_{i\in I} p_i$.
 
 
 
 
  • Espérance, variance et covariance. Pour $(i,j)\in[\![1;r]\!]^2$ avec $i\neq j$: $\mathbb{E}(X_i)=p_i$, $V(X_i)=np_I(1-p_i)$ et $\hbox{Cov}(X_i,X_j)=-np_ip_j$.
Preuve. Les deux premiers résultats sont déduits de $X_i\hookrightarrow\mathcal{B}(n,p_i)$.
D'autre part on sait que $X_i+X_j\hookrightarrow\mathcal{B}(n,p_i+p_j)$ donc que $V(X_i+X_j)=n(p_i+p_j)(1-p_i-p_j)$. Mais on  aussi $V(X_i+X_j)=V(X_i)+V(X_j)+2\hbox{Cov}(X_i,X_j)$. On en déduit que: $\displaystyle \hbox{Cov}(X_i,X_j)=\frac{1}{2}\big( n(p_i+p_j)(1-p_i-p_j)-np_i(1-p_i)-np_j(1-p_j) \big)=-np_ip_j$.