Sur la loi de Bernoulli
On dit qu'une variable aléatoire $X$ suit la loi de Bernoulli de paramètre $p\in]0,1[$, lorsque :
$$X(\Omega)=\{0;1\}\qquad\hbox{avec}\qquad \mathbb{P}(X=1)=p\quad\hbox{et}\quad\mathbb{P}(X=0)=1-p$$
On le note $X\sim\mathcal{B}(p)$.
1. Modélisation.
On considère une expérience aléatoire qui n' a que deux issues possibles: "succès" ou "echec".
On pose $X$ = $1$ si on obtient un succès et $0$ si on obtient un échec.
Alors $X\sim\mathcal{B}(p)$ où $p=\mathbb{P}("succès")$.
2. Espérance et variance.
Par définition $\mathbb{E}(X)=1\times p+0\times(1-p)=p=\mathbb{P}(X=1)$.
Par le théorème de transfert $\mathbb{E}\big(X^2\big)=1^2\times p+0^2\times(1-p)=p$, donc d'après la formule de
Koenig-Huyghens: $V(X)=p-p^2=p(1-p)$.
3. Fonction génératrice.
D'après le théorème de transfert: $\forall t\in\mathbb{R}$, $G_X(t)=t^1\times p+t^0\times(1-p)=pt+1-p$.
4. Indépendance et covariance.
Si $X\sim\mathcal{B}(p_1)$ et $Y\sim\mathcal{B}(p_2)$ :
$$X\hbox{ indépendante de }Y\Longleftrightarrow\hbox{Cov}(X,Y)=0$$
PREUVE [ afficher/masquer ]
-
est une propriété générale des variables discrètes finies (et même plus!).
-
On suppose que $\hbox{Cov}(X,Y)=0$.
On a donc $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)=p_1p_2=\mathbb{P}(X=1)\mathbb{P}(Y=1)$.
De plus, $X$ et $Y$ sont à valeurs dans $\{0,1\}$, donc il en est de même pour leur produit $XY$.
$XY$ suit donc une loi de Bernoulli de paramètre $p_3=\mathbb{P}(XY=1)$.
Mais $[XY=1]=[X=1]\cap[Y=1]$, donc $\mathbb{E}(XY)=p_3=\mathbb{P}(X=1,Y=1)$.
On a donc établi que $\mathbb{P}(X=1,Y=1)=\mathbb{P}(X=1)\mathbb{P}(Y=1)\quad(1)$.
Il reste à montrer que $\mathbb{P}(X=0,Y=1)=\mathbb{P}(X=0)\mathbb{P}(Y=1)\quad(2)$,
$\mathbb{P}(X=1,Y=0)=\mathbb{P}(X=1)\mathbb{P}(Y=0)\quad(3)$ et
$\mathbb{P}(X=0,Y=0)=\mathbb{P}(X=0)\mathbb{P}(Y=0)\quad(4)$.
Ces égalités se déduisent de $(1)$.
En effet pour $(2)$ on remarque que: $[Y=1]=\big([X=0]\cap[Y=1]\big)\cup\big([X=1]\cap[Y=1]\big)$.
Les deux parties de l'union étant incompatibles, on a par additivité d'une probabilité:
$\mathbb{P}(Y=1)=\mathbb{P}(X=0,Y=1)+\mathbb{P}(X=1,Y=1)$.
On en déduit avec $(1)$ que :
$$\begin{array}{rcl}
\mathbb{P}(X=0,Y=1)&=&\mathbb{P}(Y=1)-\mathbb{P}(X=1,Y=1)\\
& =&\mathbb{P}(Y=1)-\mathbb{P}(X=1)\mathbb{P}(Y=1)\\
&=&\mathbb{P}(Y=1)\big[1-\mathbb{P}(X=1)\big]\\
&=&\mathbb{P}(Y=1)\mathbb{P}(X=0)\end{array}$$
puisque le contraire de l'évènement $[X=1]$ est l'évènement $[X=0]$. On a donc établi $(2)$.
$(3)$ se déduit de $(1)$ de la même manière, et $(4)$ se déduit de $(2)$ (par exemple).
On aurait pu aussi raisonner ainsi: d'après $(1)$ les évènements $[X=1]$ et $[Y=1]$ sont indépendants.
Or $A$ et $B$ indépendants $\Longrightarrow$ $\overline{A}$ et $B$ indépendants.
Comme $\overline{[X=1]}=[X=0]$, on en déduit que $[X=0]$ et $[Y=1]$ sont indépendants, c'est-à-dire que $(2)$ est vérifiée.
Par le même argument, on montre ainsi sans calcul que $(3)$ et $(4)$ sont vérifiées.
MASQUER
Author: Arnaud Bégyn
Created: 2024-08-14 mer. 23:49
Validate