Esperance et antirépartition
Nous allons donner une nouvelle formule permettant de calculer l'espérance d'une variable discrète finie.
1. Espérance et fonction d'antirépartition.
Soient $N\in\N^*$ et $X$ une VARD finie à valeurs dans $\lc0;N\rc$. On a alors :
$$\E(X)=\sum_{k=0}^{N-1}\p(X>k)$$
PREUVE [ afficher/masquer ]
Pour $k\in\lc0;N-1\rc$, on a $[X>k]=\displaystyle\bigcup_{j=k+1}^{N}[X=j]$.
Comme les évènements composant cette union sont deux à deux incompatibles, on a par additivité de $\p$ :
$$ \p(X>k)= \sum_{j=k+1}^N \p(X=j) $$
On en déduit :
$$\sum_{k=0}^{N-1} \p(X>k)=\sum_{k=0}^{N-1}\left(\sum_{j=k+1}^N\p(X=j)\right)$$
donc d'après le théorème de Fubini pour les sommes finies :
$$ \sum_{k=0}^{N-1}\p(X>k) = \sum_{j=1}^N\left(\sum_{k=0}^{j-1} \p(X=j)\right) = \sum_{j=1}^N j\p(X=j) =\sum_{j=0}^N j\p(X=j)=\E(X) $$
MASQUER
2. Une application.
On effectue des tirages d'une boule avec remise dans une urne de $N$ boules numérotées de $1$ à $N$.
On arrête les tirages lorsque le numéro de la boule tirée est supérieur ou égal au numéro de la boule obtenue au
précédent tirage.
On note $X_N$ la variable aléatoire égale au nombre de tirages effectués.
Déterminer $X_N(\Omega)$ puis $\E(X_N)$. Calculer $\displaystyle\lim_{N\to+\infty}\E(X_N)$.
PREUVE [ afficher/masquer ]
Au minimum on effectue deux tirages.
Au maximum, on obtient des numéros dans l'ordre strictement décroissant puis n'importe quel autre numéro,
ce qui fait au pire $N+1$ tirages.
On a donc $X_N(\Omega)=\lc2;N+1\rc$.
Donc $X_N$ est une VARD finie à valeurs dans $\lc0;N+1\rc$.
Si $k\in\lc2;N+1\rc$, $[X_N>k]$ est l'évènement "les $k$ premiers tirages ont donné des numéros dans l'ordre
strictement décroissant".
Il y a $N^k$ façons d'effectuer les $k$ premiers tirages et parmi ceux-ci il y en a $\displaystyle\binom{N}{k}$ dont les
numéros sont dans l'ordre strictement décroissant (on choisit simultanément ces $k$ numéros distincts et il y a
ensuite une seule façon de les ordonner dans l'ordre voulu), donc :
$$\p(X_N>k)=\dfrac{\displaystyle\binom{N}{k}}{N^k}$$
On a aussi $\p(X>0)=\p(X>1)=1$, donc la formule précédente est valable pour $k=0$ et $k=1$.
Ainsi :
$$\E(X_N)=\sum_{k=0}^{(N+1)-1}\p(X>k) = \sum_{k=0}^{N} \dfrac{\displaystyle\binom{N}{k}}{N^k} = \sum_{k=0}^{N} \displaystyle\binom{N}{k}\left(\frac{1}{N}\right)^k = \left(\frac{1}{N}+1\right)^N $$
On a donc : $\displaystyle\lim_{N\to+\infty} \E(X_N)={\rm e}$.
MASQUER
Author: Arnaud Bégyn
Created: 2024-08-14 mer. 23:49
Validate