Sur la loi uniforme

Thèmes: Variables aléatoires - Loi - Moments
 
 
On dit qu'une variable aléatoire $X$ suit la loi uniforme sur une partie $A$ de $\mathbb{R}$ finie et non vide, lorsque:
 
$$X(\Omega)=A\qquad\hbox{et}\qquad \forall a\in A,\;\mathbb{P}(X=a)=\frac{1}{|A|}$$
où $|A|$ désigne le cardinal de $A$.
 
On le note $X\hookrightarrow\mathcal{U}(A)$.
 
 
 
  • Modélisation1. On tire au hasard un élément de $A$ et on le note $X$, Alors $X\hookrightarrow\mathcal{U}(A)$.
La preuve est évidente!
 
 
 

 

  • Modélisation2. On distingue un élément de $A$ des autres, qu'on note $a_0$.
On tire ensuite un par un et sans remise les éléments de $A$, jusqu'à avoir obtenu l'élément $a_0$. On note $X$ le nombre de tirages effectués.
Alors $X\hookrightarrow\mathcal{U}\big([\![1;n]\!]\big)$, où $n=|A|$.
 
Preuve: Il est clair que $X(\Omega)=[\![ 1;n]\!]$.
Pour $k\in[\![ 1;n]\!]$: $[X=k]=\overline{E_1}\cap\overline{E_2}\overline\dots\overline{E_{k-1}}\cap E_k$ où $E_i$ est l'événement " le $i$-ième tirage a donné $a_0$". Les événements $E_i$, $i\in[\![1;k]\!]$, ne sont pas indépendants (car ils sont incompatibles), mais on peut faire le calcul grâce à la formule des probabilités composées:
 
\begin{equation*} \mathbb{P}(X=k) = \mathbb{P} \big( \overline{E_1} \big) \times \mathbb{P} \big( \overline{E_2} \big| \overline{E_1} \big) \times \dots \times \mathbb{P} \left( \overline{E_{k-1}} \Bigg| \bigcap_{i=1}^{k-2} \overline{E_i} \right) \times \mathbb{P} \left(E_{k} \Bigg| \bigcap_{i=1}^{k-1} \overline{E_i} \right) \end{equation*}
 
mais $ \mathbb{P}(E_i)=\frac{1}{n-i+1} $ et $ \mathbb{P}\big(\overline{E_i}\big)=\frac{n-i}{n-i+1} $ car lorsque le $i$-ième tirage commence il ne reste que $n-i+1$ éléments dans $A$.
On a donc:
 
$$\mathbb{P}(X=k)=\frac{n-1}{n}\times\frac{n-2}{n-1}\times\dots\times\frac{n-k}{n-k+1}\times\frac{1}{n-k}=\frac{1}{n}$$
 
 Par exemple, on tire une a une et sans remise les cartes d'un jeu de 32 cartes et on note $X$ le numéro obtenu. Alors $X\hookrightarrow\mathcal{U}\big([\![1;32]\!]\big)$.
 
 
 
  • Espérance et variance. Lorsque $X\hookrightarrow\mathcal{U}\big([\![1;n]\!]\big)$, on a $\mathbb{E}(X)=\displaystyle \frac{n+1}{2}$ et $V(X)= \displaystyle \frac{n^2-1}{12}$.
Preuve: Par définition $\mathbb{E}(X)=\displaystyle\sum_{k=1}^n k\frac{1}{n} = \frac{n+1}{2}$.
Par le théorème de transfert: $\mathbb{E}\big(X^2\big)=\displaystyle \sum_{k=1}^n\frac{k}{n^2}=\frac{(n+1)(2n+1)}{6}$
La formule de Koenig-Huyghens donne alors que: $ V(X) = \displaystyle \frac{n^2-1}{12}$.
 
 
 
 
  • Fonction génératrice.  $\forall t\in\mathbb{R}$, $G_X(t) = \displaystyle \frac{1}{n} \sum_{k=1}^n t^k$.

Preuve: c'est une simple application du théorème de transfert.