Sur la loi binomiale

Thèmes: Variables aléatoires - Loi - Moments - Indépendance
 
 
 
 
On dit qu'une variable aléatoire $X$ suit la loi binomiale de paramètres $n\in\mathbb{N}^*$ et $p\in]0,1[$, lorsque:
 
$$X(\Omega)=[\![ 0;n]\!]\qquad\hbox{et}\qquad \forall k\in[\![0;n]\!],\;\mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k}=\binom{n}{k}p^kq^{n-k}$$
 
On le note $X\hookrightarrow\mathcal{B}(n,p)$.
 
On remarque que $\mathcal{B}(1,p)=\mathcal{B}(p)$. La loi binomiale est donc une généralisation de la loi de Bernoulli.
 
 
 
 
  • Remarque. Avec la convention $\binom{n}{k}=0$, si $k\notin[\![0;n]\!]$ ($k\in\mathbb{Z}$), on a en fait:
$$\mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k}=\binom{n}{k}p^kq^{n-k},\quad \hbox{pour tout } k\in\mathbb{Z}$$
 
 
 
  • Formule du binôme de Newton. On peut en déduire la formule du binôme dans le cas particuliers $a>0$ et $b>0$.
En effet si $X\hookrightarrow\mathcal{B}\left(n,\displaystyle\frac{a}{a+b}\right)$, la propriété $\displaystyle \sum_{k=0}^n\mathbb{P}(X=k)=1$ donne $(a+b)^n=\displaystyle \sum_{k=0}^n\binom{n}{k}a^kb^{n-k}$.
 

 

 

  • Modélisation. On considère $n$ expériences aléatoires qui n' ont que deux issues possibles, "succès" ou "echec", et qu'elles donnent toutes "succès" avec la même
probabilité $p\in]0,1[$ (la plupart du temps les $n$ expériences sont les mêmes). On réalise ces $n$ expériences une par une, de manières indépendantes (la plupart du temps, on répète $n$ fois la même expérience de manières indépendantes, c'est le schéma de Bernoulli).
On pose $X$ = nombre de succès observés. Alors $X\hookrightarrow\mathcal{B}(n,p)$.
 
Preuve: Il est clair que $X(\Omega)=[\![ 0;n]\!]$.
 
D'autre part, pour $k\in[\![ 0;n]\!]$ fixé, l'évènement $[X=k]$ correspond à l'évènement "les $n$ essais donnent $k$ succès et $n-k$ échecs". Si on représente la situation par un arbre binaire à $n$ générations, on doit donc compter les branches qui vérifient cette condition: elles sont au nombre de $\binom{n}{k}$. Ensuite, on remarque que chacune de ces branches est un évènement de probabilité $p^k(1-p)^{n-k}$. On a donc:
$$\mathbb{P}(X=k)=\underset{\displaystyle\binom{n}{k}\hbox{ termes}}{\underbrace{p^k(1-p)^{n-k}+p^k(1-p)^{n-k}+\dots+p^k(1-p)^{n-k}}}=\binom{n}{k}p^k(1-p)^{n-k}$$
 

 

  • Espérance et variance. On a $\mathbb{E}(X)=np$ et $V(X)=np(1-p)$.
Preuve: Par définition $\mathbb{E}(X)=\displaystyle\sum_{k=0}^nk\binom{n}{k}p^k(1-p)^{n-k}$. Comme $k\binom{n}{k}=n\binom{n-1}{k-1}$, pour $k\neq0$, on a:
$$\mathbb{E}(X)=0+\displaystyle n\sum_{k=1}^n\binom{n-1}{k-1}p^k(1-p)^{n-k}=\displaystyle n\sum_{k=0}^{n-1}\binom{n-1}{k}p^{k+1}(1-p)^{(n-1)-k}=np(p+1-p)^n=np$$
grâce au changement d'indice $k'=k-1$ et à la formule du binôme de Newton.
 
Par le théorème de transfert $\mathbb{E}\big(X(X-1)\big)=\displaystyle\sum_{k=0}^nk(k-1)\binom{n}{k}p^k(1-p)^{n-k}$. Or $k(k-1)\binom{n}{k}=n(n-1)\binom{n-2}{k-2}$, pour $k\neq0$ et $k\neq 1$, donc en procédant de même que ci-dessus, on obtient $\mathbb{E}\big(X(X-1)\big)=n(n-1)p^2$.
D'autre part, par linéarité de l'espérance: $\mathbb{E}\big(X(X-1)\big)=\mathbb{E}\big(X^2\big)-\mathbb{E}(X)$. On a donc montré que $\mathbb{E}\big(X^2\big)=n(n-1)p^2+np$.
La formule de Koenig-Huyghens donne alors que: $V(X)=\mathbb{E}\big(X^2\big)-\big(\mathbb{E}X\big)^2=n(n-1)p^2+np-(np)^2=np(1-p)$.
 
 
  • Fonction génératrice.  $\forall t\in\mathbb{R}$, $G_X(t)=(pt+1-p)^n$.

Preuve: Pour $t\in\mathbb{R}$ le théorème de transfert et la formule du binôme donnent:

$$G_X(t)=\mathbb{E}\big(t^X\big)=\displaystyle\sum_{k=0}^nt^k\binom{n}{k}p^k(1-p)^{n-k}=(pt+1-p)^n$$

 

 

  • Somme de variables aléatoires de Bernoulli indépendantes. Soient $X_1$, $X_2$, $\dots$, $x_n$ sont i.i.d. de loi $\mathcal{B}(p)$.
On pose $S=\displaystyle\sum_{i=1}^n X_i$. Alors $S\hookrightarrow\mathcal{B}(n,p)$.
 
Remarquer que le point crucial est que le paramètre $p$ est le même pour toutes les variables.

 

Preuve1: En utilisant la modélisation.
On considère que chaque variable $X_i$, $i\in[\![1;n]\!]$, correspond à une expérience aléatoire, qui est un succès lorsque $X_i=1$, ce qui se produit avec probabilité $p$. On réalise ces $n$ expérience de manières indépendantes.
D'autre part $S$ est une somme de $0$ et de $1$, elle est donc égale au nombre de termes égaux à $1$, c'est-à-dire au nombre de succès obtenus.
On sait donc que $S\hookrightarrow\mathcal{B}(n,p)$.
 
Preuve2: Par un calcul de fonctions génératrices.
On a vu dans l'exercice sur les fonctions génératrices que, pour tout $t\in\mathbb{R}$:
$$G_S(t)=\prod_{i=1}^n G_{X_i}(t)=\prod_{i=1}^n (pt+1-p)=(pt+1-p)^n$$
ce qui prouve que $S\hookrightarrow\mathcal{B}(n,p)$.

 

 

  • Stabilité de la loi binomiale. Si $X\hookrightarrow\mathcal{B}(n_1,p)$, $Y\hookrightarrow\mathcal{B}(n_2,p)$. et $X$ est indépendante de $Y$, alors $X+Y\hookrightarrow\mathcal{B}(n_1+n_2,p)$.

Remarquer que le point crucial est que le paramètre $p$ est le même pour les deux variables.

Preuve1: En utilisant le résultat précédent.
On se donne des variables $X_1$, $X_2$, $\dots$, $X_{n_1+n_2}$ i.i.d. de loi $\mathcal{B}(p)$.
D'après le résultat précédent:
$$X\overset{(\mathcal{L})}{=}\sum_{i=1}^{n_1}X_i\quad\hbox{et}\quad Y\overset{(\mathcal{L})}{=}\sum_{i=n_1+1}^{n_1+n_2}X_i$$
D'autre part la loi de $X+Y$ est entièrement déterminée par la loi de $X$ et la loi de $Y$, ceci car les variables $X$ et $Y$ sont indépendantes (c'est l'argument essentiel! en général la loi de $X+Y$ est déterminée par la loi conjointe et non par les lois marginales).
Donc:
$$X+Y\overset{(\mathcal{L})}{=}\sum_{i=1}^{n_1+n_2}X_i\hookrightarrow\mathcal{B}(n_1+n_2,p)$$
 
Preuve2: Par un calcul de fonctions génératrices.
On a vu dans l'exercice sur les fonctions génératrices que, pour tout $t\in\mathbb{R}$:
$$\quad G_{X+Y}(t)=G_{X}(t)\times G_Y(t)=(pt+1-p)^{n_1}(pt+1-p)^{n_2}=(pt+1-p)^{n_1+n_2} $$
ce qui prouve que $X+Y\hookrightarrow\mathcal{B}(n_1+n_2,p)$.
 
Preuve3: Par un calcul de loi.
$X(\Omega)=[\![0;n_1]\!]$ et $Y(\Omega)=[\![0;n_2]\!]$ donnent $(X+Y)(\Omega)=[\![0;n_1+n_2]\!]$.
D'autre part si $k\in[\![0;n_1+n_2]\!]$, on a:
$$ [X+Y=k]=\bigcup_{i=0}^{n_1}\big([X=i]\cap[X+Y=k]\big)=\bigcup_{i=0}^{n_1}\big([X=i]\cap[Y=k-i]\big) $$
Or les évènements $[X=i]\cap[Y=k-i]$, $i\in[\![0;n_1]\!]$, sont deux à deux incompatibles, donc par additivité d'une probabilité:
 $ \displaystyle \mathbb{P}(X+Y=k)=\sum_{i=0}^{n_1}\mathbb{P}(X=i,Y=k-i) $.
On utilise ensuite l'indépendance de $X$ et $Y$:
 
\begin{eqnarray*} \mathbb{P}(X+Y=k) & = & \sum_{i=0}^{n_1}\mathbb{P}(X=i)\mathbb{P}(Y=k-i) \\ & = & \sum_{i=0}^{n_1}\binom{n_1}{i}p^i(1-p)^{n_1-i}\binom{n_2}{k-i}p^{k-i}(1-p)^{n_2-k+i} \\ & = & p^k(1-p)^{n_1+n_2-k}\sum_{i=0}^{n_1}\binom{n_1}{i}\binom{n_2}{k-i} \\ & = & \binom{n_1+n_2}{k}p^k(1-p)^{n_1+n_2-k} \end{eqnarray*}
 d'après la formule de Van der Monde et la convention $\binom{j}{i}=0$ si $i\notin[\![0;j]\!]$.