Sur la loi binomiale
On dit qu'une variable aléatoire $X$ suit la loi binomiale de paramètres $n\in\mathbb{N}^*$ et $p\in]0,1[$, lorsque :
$$X(\Omega)=\lc 0,n\rc\qquad\hbox{et}\qquad \forall k\in\lc0,n\rc,\quad
\mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k}=\binom{n}{k}p^kq^{n-k}$$
On le note $X\sim\mathcal{B}(n,p)$.
On remarque que $\mathcal{B}(1,p)=\mathcal{B}(p)$.
La loi binomiale est donc une généralisation de la loi de Bernoulli.
Remarque. Avec la convention $\displaystyle\binom{n}{k}=0$, si $k\notin\lc0,n\rc$ ($k\in\mathbb{Z}$), on a en fait :
$$\mathbb{P}(X=k)=\binom{n}{k}p^k(1-p)^{n-k}=\binom{n}{k}p^kq^{n-k}\qquad \hbox{pour tout } k\in\mathbb{Z}$$
1. Formule du binôme de Newton.
On peut en déduire la formule du binôme dans le cas particuliers $a>0$ et $b>0$.
En effet si $X\sim\mathcal{B}\left(n,\displaystyle\frac{a}{a+b}\right)$, la propriété
$\displaystyle \sum_{k=0}^n\mathbb{P}(X=k)=1$ donne $(a+b)^n=\displaystyle \sum_{k=0}^n\binom{n}{k}a^kb^{n-k}$.
2. Modélisation.
On considère $n$ expériences aléatoires qui n' ont que deux issues possibles, "succès" ou "echec",
et qu'elles donnent toutes "succès" avec la même probabilité $p\in]0,1[$ (la plupart du temps les $n$
expériences sont les mêmes).
On réalise ces $n$ expériences une par une, de manières indépendantes (la plupart du temps, on répète $n$ fois
la même expérience de manières indépendantes, c'est le schéma de Bernoulli).
On pose $X$ = nombre de succès observés.
Alors $X\sim\mathcal{B}(n,p)$.
PREUVE [ afficher/masquer ]
Il est clair que $X(\Omega)=\lc 0,n\rc$.
D'autre part, pour $k\in\lc 0,n\rc$ fixé, l'évènement $[X=k]$ correspond à l'évènement "les $n$ essais
donnent $k$ succès et $n-k$ échecs".
Si on représente la situation par un arbre binaire à $n$ générations, on doit donc compter les branches qui
vérifient cette condition: elles sont au nombre de $\displaystyle\binom{n}{k}$.
Ensuite, on remarque que chacune de ces branches est un évènement de probabilité $p^k(1-p)^{n-k}$.
On a donc :$$\mathbb{P}(X=k)=\underset{\displaystyle\binom{n}{k}\hbox{ termes}}{\underbrace{p^k(1-p)^{n-k}+p^k(1-p)^{n-k}+\dots+p^k(1-p)^{n-k}}}=\binom{n}{k}p^k(1-p)^{n-k}$$
MASQUER
3. Espérance et variance.
On a $\mathbb{E}(X)=np$ et $V(X)=np(1-p)$.
PREUVE [ afficher/masquer ]
Par définition $\mathbb{E}(X)=\displaystyle\sum_{k=0}^nk\binom{n}{k}p^k(1-p)^{n-k}$.
Comme $\displaystyle k\binom{n}{k}=n\binom{n-1}{k-1}$, pour $k\neq0$, on a :
$$\begin{array}{rcl}\mathbb{E}(X)&=&0+\displaystyle n\sum_{k=1}^n\binom{n-1}{k-1}p^k(1-p)^{n-k}\\
&=&\displaystyle n\sum_{k=0}^{n-1}\binom{n-1}{k}p^{k+1}(1-p)^{(n-1)-k}\\
&=&np(p+1-p)^{n-1}=np\end{array}$$
grâce au changement d'indice $k'=k-1$ et à la formule du binôme de Newton.
Par le théorème de transfert $\mathbb{E}\big(X(X-1)\big)=\displaystyle\sum_{k=0}^nk(k-1)\binom{n}{k}p^k(1-p)^{n-k}$.
Or $\displaystyle k(k-1)\binom{n}{k}=n(n-1)\binom{n-2}{k-2}$, pour $k\neq0$ et $k\neq 1$, donc en procédant de même
que ci-dessus, on obtient $\mathbb{E}\big(X(X-1)\big)=n(n-1)p^2$.
D'autre part, par linéarité de l'espérance: $\mathbb{E}\big(X(X-1)\big)=\mathbb{E}\big(X^2\big)-\mathbb{E}(X)$.
On a donc montré que $\mathbb{E}\big(X^2\big)=n(n-1)p^2+np$.
La formule de Koenig-Huyghens donne alors que: $V(X)=\mathbb{E}\big(X^2\big)-\big(\mathbb{E}X\big)^2=n(n-1)p^2+np-(np)^2=np(1-p)$.
MASQUER
4. Fonction génératrice.
$\forall t\in\mathbb{R}$, $G_X(t)=(pt+1-p)^n$.
PREUVE [ afficher/masquer ]
Pour $t\in\mathbb{R}$ le théorème de transfert et la formule du binôme donnent:
$$G_X(t)=\mathbb{E}\big(t^X\big)=\displaystyle\sum_{k=0}^nt^k\binom{n}{k}p^k(1-p)^{n-k}=(pt+1-p)^n$$
MASQUER
5. Somme de variables aléatoires de Bernoulli indépendantes.
Soient $X_1$, $X_2$, $\dots$, $x_n$ sont i.i.d. de loi $\mathcal{B}(p)$.
On pose $S=\displaystyle\sum_{i=1}^n X_i$.
Alors $S\sim\mathcal{B}(n,p)$.
Remarquer qu'il est crucial que le paramètre $p$ soit le même pour toutes les variables et que celles-ci soient indépendantes.
PREUVE [ afficher/masquer ]
Preuve1 : En utilisant la modélisation.
On considère que chaque variable $X_i$, $i\in[\![1;n]\!]$, correspond à une expérience aléatoire, qui est un
succès lorsque $X_i=1$, ce qui se produit avec probabilité $p$.
On réalise ces $n$ expérience de manières indépendantes.
D'autre part $S$ est une somme de $0$ et de $1$, elle est donc égale au nombre de termes égaux à $1$,
c'est-à-dire au nombre de succès obtenus.
On sait donc que $S\sim\mathcal{B}(n,p)$.
Preuve2 : Par un calcul de fonctions génératrices.
On a vu dans l'exercice sur les fonctions génératrices que, pour tout $t\in\mathbb{R}$:
$$G_S(t)=\prod_{i=1}^n G_{X_i}(t)=\prod_{i=1}^n (pt+1-p)=(pt+1-p)^n$$
ce qui prouve que $S\sim\mathcal{B}(n,p)$.
MASQUER
6. Stabilité de la loi binomiale.
Si $X\sim\mathcal{B}(n_1,p)$, $Y\hookrightarrow\mathcal{B}(n_2,p)$ et $X$ est indépendante de $Y$
alors $X+Y\sim\mathcal{B}(n_1+n_2,p)$.
Remarquer qu'il est crucial que le paramètre $p$ soit le même pour toutes les variables et que celles-ci soient indépendantes.
PREUVE [ afficher/masquer ]
Preuve1 : En utilisant le résultat précédent.
On se donne des variables $X_1$, $X_2$, $\dots$, $X_{n_1+n_2}$ i.i.d. de loi $\mathcal{B}(p)$.
D'après le résultat précédent:
$$X\overset{(\mathcal{L})}{=}\sum_{i=1}^{n_1}X_i\quad\hbox{et}\quad Y\overset{(\mathcal{L})}{=}
\sum_{i=n_1+1}^{n_1+n_2}X_i$$
D'autre part la loi de $X+Y$ est entièrement déterminée par la loi de $X$ et la loi de $Y$, ceci car les variables
$X$ et $Y$ sont indépendantes (c'est l'argument essentiel! en général la loi de $X+Y$ est déterminée par la loi
conjointe et non par les lois marginales).
Donc :
$$X+Y\overset{(\mathcal{L})}{=}\sum_{i=1}^{n_1+n_2}X_i\sim\mathcal{B}(n_1+n_2,p)$$
Preuve2 : Par un calcul de fonctions génératrices.
On a vu dans l'exercice sur les fonctions génératrices que, pour tout $t\in\mathbb{R}$:
$$\quad G_{X+Y}(t)=G_{X}(t)\times G_Y(t)=(pt+1-p)^{n_1}(pt+1-p)^{n_2}=(pt+1-p)^{n_1+n_2} $$
ce qui prouve que $X+Y\sim\mathcal{B}(n_1+n_2,p)$.
Preuve3 : Par un calcul de loi.
$X(\Omega)=\lc0,n_1\rc$ et $Y(\Omega)=\lc0,n_2\rc$ donnent $(X+Y)(\Omega)=\lc0,n_1+n_2\rc$.
D'autre part si $k\in\lc0,n_1+n_2\rc$, on a :
$$ [X+Y=k]=\bigcup_{i=0}^{n_1}\big([X=i]\cap[X+Y=k]\big)=\bigcup_{i=0}^{n_1}\big([X=i]\cap[Y=k-i]\big) $$
Or les évènements $[X=i]\cap[Y=k-i]$, $i\in\lc0,n_1\rc$, sont deux à deux incompatibles, donc par additivité
d'une probabilité :
$ \displaystyle \mathbb{P}(X+Y=k)=\sum_{i=0}^{n_1}\mathbb{P}(X=i,Y=k-i) $.
On utilise ensuite l'indépendance de $X$ et $Y$ :
$$ \begin{eqnarray*} \mathbb{P}(X+Y=k) & = & \sum_{i=0}^{n_1}\mathbb{P}(X=i)\mathbb{P}(Y=k-i) \\
& = & \sum_{i=0}^{n_1}\binom{n_1}{i}p^i(1-p)^{n_1-i}\binom{n_2}{k-i}p^{k-i}(1-p)^{n_2-k+i} \\
& = & p^k(1-p)^{n_1+n_2-k}\sum_{i=0}^{n_1}\binom{n_1}{i}\binom{n_2}{k-i} \\
& = & \binom{n_1+n_2}{k}p^k(1-p)^{n_1+n_2-k} \end{eqnarray*}$$
d'après la formule de Van der Monde et la convention $\displaystyle\binom{j}{i}=0$ si $i\notin\lc0,j\rc$.
MASQUER
Author: Arnaud Bégyn
Created: 2024-08-14 mer. 23:49
Validate