Thèmes: Variables aléatoires - Loi - Moments - Indépendance - Covariance
 
 
On dit qu'une variable aléatoire $X$ suit la loi de Bernoulli de paramètre $p\in]0,1[$, lorsque:
 
$$X(\Omega)=\{0;1\}\qquad\hbox{avec}\qquad \mathbb{P}(X=1)=p\quad\hbox{et}\quad\mathbb{P}(X=0)=1-p$$
 
On le note $X\hookrightarrow\mathcal{B}(p)$.
 
  • Modélisation. On considère une expérience aléatoire qui n' a que deux issues possibles: "succès" ou "echec".
On pose $X$ = $1$ si on obtient un succès et $0$ si on obtient un échec. Alors $X\hookrightarrow\mathcal{B}(p)$  où $p=\mathbb{P}("succès")$.
 
  • Espérance et variance. Par définition $\mathbb{E}(X)=1\times p+0\times(1-p)=p=\mathbb{P}(X=1)$.
Par le théorème de transfert $\mathbb{E}\big(X^2\big)=1^2\times p+0^2\times(1-p)=p$, donc d'après la formule de Koenig-Huyghens: $V(X)=p-p^2=p(1-p)$.
 
  • Fonction génératrice.  D'après le théorème de transfert: $\forall t\in\mathbb{R}$, $G_X(t)=t^1\times p+t^0\times(1-p)=pt+1-p$.

 

  • Indépendance et covariance. Si $X\hookrightarrow\mathcal{B}(p_1)$ et $Y\hookrightarrow\mathcal{B}(p_2)$:

$$X\hbox{ indépendante de }Y\Longleftrightarrow\hbox{Cov}(X,Y)=0$$

Preuve: $\Rightarrow$ est une propriété générale des variables discrètes finies (et même plus!).

$\Leftarrow$ On suppose que $\hbox{Cov}(X,Y)=0$. On a donc $\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)=p_1p_2=\mathbb{P}(X=1)\mathbb{P}(Y=1)$.
 
De plus, $X$ et $Y$ sont à valeurs dans $\{0,1\}$, donc il en est de même pour leur produit $XY$. $XY$ suit donc une loi de Bernoulli de paramètre $p_3=\mathbb{P}(XY=1)$.
Mais $[XY=1]=[X=1]\cap[Y=1]$, donc $\mathbb{E}(XY)=p_3=\mathbb{P}(X=1,Y=1)$.
On a donc établi que $\mathbb{P}(X=1,Y=1)=\mathbb{P}(X=1)\mathbb{P}(Y=1)\quad(1)$.
 
Il reste à montrer que $\mathbb{P}(X=0,Y=1)=\mathbb{P}(X=0)\mathbb{P}(Y=1)\quad(2)$, $\mathbb{P}(X=1,Y=0)=\mathbb{P}(X=1)\mathbb{P}(Y=0)\quad(3)$ et $\mathbb{P}(X=0,Y=0)=\mathbb{P}(X=0)\mathbb{P}(Y=0)\quad(4)$.
 
Ces égalités se déduisent de $(1)$. En effet pour $(2)$ on remarque que: $[Y=1]=\big([X=0]\cap[Y=1]\big)\cup\big([X=1]\cap[Y=1]\big)$. Les deux parties de l'union étant incompatibles, on a par additivité d'une probabilité: $\mathbb{P}(Y=1)=\mathbb{P}(X=0,Y=1)+\mathbb{P}(X=1,Y=1)$.
 
On en déduit avec $(1)$ que:
$$\mathbb{P}(X=0,Y=1)=\mathbb{P}(Y=1)-\mathbb{P}(X=1,Y=1)=\mathbb{P}(Y=1)-\mathbb{P}(X=1)\mathbb{P}(Y=1)=\mathbb{P}(Y=1)\big[1-\mathbb{P}(X=1)\big]=\mathbb{P}(Y=1)\mathbb{P}(X=0)$$
puisque le contraire de l'évènement $[X=1]$ est l'évènement $[X=0]$. On a donc établi $(2)$.
 
$(3)$ se déduit de $(1)$ de la même manière, et $(4)$ se déduit de $(2)$ (par exemple).
 
On aurait pu aussi raisonner ainsi: d'après $(1)$ les évènements $[X=1]$ et $[Y=1]$ sont indépendants. Or $A$ et $B$ indépendants $\Longrightarrow$  $\overline{A}$ et $B$ indépendants. Comme $\overline{[X=1]}=[X=0]$, on en déduit que $[X=0]$ et $[Y=1]$ sont indépendants, c'est-à-dire que $(2)$ est vérifiée. Par le même argument, on montre ainsi sans calcul que $(3)$ et $(4)$ sont vérifiées.
 

Qui est en ligne?

Il y a 390 invités et aucun membre en ligne