Sur la loi multinomiale

Menu



On dit qu'un vecteur aléatoire $Z=(X_1,X_2,\dots,X_r)$ suit la loi multinomiale de paramètres $n\in\mathbb{N}^*$ et $(p_1,p_2,\dots,p_r)\in]0,1[^r$, avec $r\geq2$ et $p_1+p_2+\dots+p_r=1$, lorsque $ Z(\Omega) \subseteq \lc 0,n \rc^r$ et pour tout $(k_1,k_2,\dots,k_r) \in \lc 0,n \rc^r$ : $$\mathbb{P} \big( Z=(k_1,k_2,\dots,k_r) \big) = \Bigg\{ \begin{array}{cl} \displaystyle\frac{ n ! }{ {k_1} ! {k_2} ! \dots {k_r} ! } {p_1}^{k_1} {p_2}^{k_2} \dots {p_r}^{k_r} & \hbox{    si } {k_1}+{k_2}+\dots{k_r}=1 \\ 0 & \hbox{    sinon} \end{array} $$ On le note $Z\sim\mathcal{M}(n;p_1,p_2,\dots,p_r)$.

Remarque.
On a donc $X_1+X_2+\dots+X_r=n$ presque sûrement.
Les variables $X_1$, $X_2$, $\dots$, $X_r$ ne sont donc pas indépendantes.



1. Formule du multinôme.

On peut en déduire la formule du multinôme dans un cas particulier.
En effet, si $n\in\mathbb{N}^*$ et $(a_1,a_2,\dots,a_r)\in\big(\mathbb{R}^*_+\big)^r$, on se donne $Z=(X_1,X_2,\dots,X_r)\sim\mathcal{M}(n;p_1,p_2,\dots,p_r)$ où $p_i= \displaystyle \frac{a_i}{a_1+a_2+\dots+a_r}$, $1\leq i\leq r$.
Dans ce cas la propriété $\displaystyle\sum_{ k_1+k_2+\dots +k_r=n} \mathbb{P}\big(Z=(k_1,k_2,\dots,k_r)\big) = 1$ s'écrit : $$ \sum_{ k_1+k_2+\dots +k_r=n}\frac{ n ! }{ {k_1} ! {k_2} ! \dots {k_r} ! } {a_1}^{k_1} {a_2}^{k_2} \dots {a_r}^{k_r} =(a_1+a_2+\dots+a_r)^n$$




2. Modélisation.

On se donne une système complet d'évènements $(A_1,A_2,\dots,A_r)$ associé à une expérience aléatoire.
Pour $i\in\lc1,r\rc$, on note $p_i=\mathbb{P}(A_i)$ et $X_i$ le nombre de fois où $A_i$ s'est réalisé au cours de $n$ répétitions indépendantes de l'expérience aléatoire.
Alors $Z=(X_1,X_2,\dots,X_r)\sim\mathcal{M}(n;p_1,p_2,\dots,p_r)$.

PREUVE [ afficher/masquer ]

Par exemple: on dispose d'une urne de $n$ boules, chacune coloriée avec une couleur prise parmi $r$, et on effectue $n$ tirages avec remise d'une boule dans cette urne.
Si on note $X_i$ = nombre de boules obtenues de la couleur $i$, pour $i\in\lc1,r\rc$, alors $Z=(X_1,X_2,\dots,X_r)$ $\sim\mathcal{M}(n;p_1,p_2,\dots,p_r)$ où $p_i=\displaystyle \frac{n_i}{n}$ avec $n_i$ = nombre de boules de la couleur $i$ dans l'urne.

Autre exemple: dans la modélisation du processus de population de Galton-Watson, chaque individus a un nombre d'enfants entre $0$ et $r$, choisi aléatoirement selon une loi finie $(p_0,p_1,\dots,p_r)$.
Si on note $Z_n$ le nombre d'individus de la $n$-ième génération, et pour $i\in\lc0,r\rc$, $A_{i}^{(n)}$ le nombre d'individus de la
$n$-ième génération qui ont exactement $i$ enfants, alors, pour $k\in\mathbb{N}$, la loi du vecteur $(A_0^{(n)},A_1^{(n)},\dots,A_r^{(n)})$ sachant que $Z_n=k$ est la loi multinomiale $\mathcal{M}(k;p_0,p_1,\dots,p_r)$.



3. Lien avec la loi binomiale: cas du schéma de Bernoulli.

Si on se place dans le cadre du schéma de Bernoulli ($n$ répétitions indépendantes d'une expérience succès/échec) et si note $X$ le nombre de succès obtenus, $Y$ le nombre d'échecs obtenus, alors $Z=(X,Y)\sim\mathcal{M}(n;p,1-p)$ où $p$ est la probabilité que l'expérience aléatoire donne un succès.
D'autre part, on sait aussi que $X\sim\mathcal{B}(n,p)$ et $Y\sim\mathcal{B}(n;1-p)$.
Comme le montre, le résultat suivant c'est en fait une propriété plus générale.



4. Lois marginales.

On suppose que $Z=(X_1,\dots,X_r)\sim\mathcal{M}(n;p_1,\dots,p_r)$.
Alors si $i\lc1,r\rc$ on a $X_i\sim\mathcal{B}(n,p_i)$.

PREUVE [ afficher/masquer ]

On peut généraliser: si $I\subseteq \lc1,r\rc$ alors $\displaystyle\sum_{i\in I} X_i \sim\mathcal{B}\left(n;\sum_{i\in I}p_i\right)$.

PREUVE [ afficher/masquer ]



5. Espérance, variance et covariance.

Pour $(i,j)\in\lc1,r\rc^2$ avec $i\neq j$: $\mathbb{E}(X_i)=p_i$, $V(X_i)=np_I(1-p_i)$ et $\hbox{Cov}(X_i,X_j)=-np_ip_j$.

PREUVE [ afficher/masquer ]



Author: Arnaud Bégyn

Created: 2024-08-14 mer. 23:49

Validate