Théorème de Weierstrass via la loi binomiale et l'inégalité de Bienaymé-Tchebychev
- Écrit par : Begyn Arnaud
- Définition. Si $n\in\mathbb{N}$ et $f:[0,1]\longrightarrow\mathbb{R}$ est continue, on appelle polynôme de Bernstein d'ordre $n$ associé à $f$, le polynôme:
- Convergence simple vers $f$ sur $[0,1]$. Pour tout $x\in[0,1]$, on a $\displaystyle \lim_{n\to+\infty} B_n(x)=f(x)$.
Preuve.Le résultat est évident si $x=0$ ou $1$ puisque $B_n(0)=f(0)$ et $B_n(1)=f(1)$.
On suppose $x\in]0,1[$ et on fixe $\varepsilon>0$. On se donne $S_n\hookrightarrow\mathcal{B}(n,x)$ et on remarque que d'après le théorème de transfert on a:
$$\mathbb{E}\left[f\left(\frac{S_n}{n}\right)\right]=\sum_{k=0}^n f\left(\frac{k}{n}\right)\mathbb{P}(S_n=k)=\sum_{k=0}^n f\left(\frac{k}{n}\right)\binom{n}{k}x^k(1-x)^{n-k}=B_n(x)$$
En remarquant que $\displaystyle\sum_{k=0}^n\binom{n}{k}x^k(1-x)^{n-k}=(x+1-x)^n=1$ on a donc:
$$|B_n(x)-f(x)|=\left|\sum_{k=0}^n\left[f\left(\frac{k}{n}\right)-f(x)\right]\binom{n}{k}x^k(1-x)^{n-k}\right|\leq \sum_{k=0}^n\left|f\left(\frac{k}{n}\right)-f(x)\right|\binom{n}{k}x^k(1-x)^{n-k}$$
- Théorème de Weierstrass: convergence uniforme vers $f$. On a en fait $\displaystyle \lim_{n\to+\infty} \max_{x\in[0,1]}\big|B_n(x)-f(x)\big|=0$.
Il n'est pas nécessaire d'ajouter des hypothèses sur $f$ !
Preuve. On reprend les calculs et les notations de la démonstration précédente. Pour $\varepsilon>0$ fixé:
$$|B_n(x)-f(x)|\leq \varepsilon +2\|f\|_{\infty}\frac{1}{4n\delta^2}$$
pour $x\in]0,1[$. Le membre de gauche étant nul pour $x=0$ et $x=1$, l'inégalité est valable pour tout $x\in[0,1]$.
Dans le membre de droite seul $\delta$ peut dépendre de $x$ (en effet l'inégalité de Bienaymé-Tchebychev nous a fourni une majoration indépendante de $x$). Mais d'après le théorème de Heine, $f$ est uniformément continue sur $[0,1]$, ce qui assure qu'on peut supposer que $\delta$ ne dépend pas de $x$. On en déduit que:
$$\max_{x\in[0,1]}|B_n(x)-f(x)|\leq \varepsilon +2\|f\|_{\infty}\frac{1}{4n\delta^2}$$
et on conclut comme dans la démonstration précédente.
- Vitesse de convergence. Supposons $f$ lipschitzienne sur $[0,1]$. Alors $\displaystyle \max_{x\in [0,1] } | B_n(x)-f(x) | \underset{ n\to+\infty }{ = } \mathcal{O} \left( \frac{1}{n^{\frac{1}{3}}}\right)$.
Preuve. $f$ est lipschitzienne donc il existe $k>0$ telle que:
$$\forall (x,y)\in[0,1]^2,\quad [f(x)-f(y)|\leq k|x-y|$$
Dans la preuve précédente, on peut donc choisir $\displaystyle \delta=\frac{\varepsilon}{k}$:
$$\max_{x\in[0,1]}|B_n(x)-f(x)|\leq \varepsilon +2\|f\|_{\infty}\frac{k^2}{4n\varepsilon^2}$$
pour tout $\varepsilon>0$.
On choisit alors $\varepsilon$ de la forme $\displaystyle \frac{1}{n^{\alpha}}$ et de telle sorte que $\varepsilon$ et $\displaystyle\frac{1}{n\varepsilon ^2}$ soit du même ordre de grandeur, c'est-à-dire que $\alpha=1-2\alpha$, donc $\displaystyle \varepsilon=\frac{1}{n^{\frac{1}{3}}}$. On obtient:
$$\max_{x\in[0,1]}|B_n(x)-f(x)|\leq \left(1 +2\|f\|_{\infty}\frac{k^2}{4}\right)\frac{1}{n^{\frac{1}{3}}}$$
- Vitesse de convergence. Supposons $f$ hölderienne d'exposant $\gamma\in]0,1]$ sur $[0,1]$. Alors $\displaystyle \max_{x\in [0,1] } | B_n(x)-f(x) | \underset{ n\to+\infty }{ = } \mathcal{O} \left( \frac{1}{n^{\frac{\gamma}{2+\gamma}}}\right)$.
Preuve. $f$ est hölderienne d'exposant $\gamma$ donc il existe $k>0$ telle que:
$$\forall (x,y)\in[0,1]^2,\quad [f(x)-f(y)|\leq k|x-y|^{\gamma}$$
Dans la preuve précédente de la convergence uniforme, on choisit $\displaystyle \delta=\left(\frac{\varepsilon}{k}\right)^{\frac{1}{\gamma}}$:
$$\max_{x\in[0,1]}|B_n(x)-f(x)|\leq \varepsilon +2\|f\|_{\infty}\frac{k^{\frac{2}{\gamma}}}{4n\varepsilon^{\frac{2}{\gamma}}}$$
pour tout $\varepsilon>0$.
On choisit alors $\varepsilon$ de la forme $\displaystyle \frac{1}{n^{\alpha}}$ et de telle sorte que $\varepsilon$ et $\displaystyle\frac{1}{n\varepsilon^{\frac{2}{\gamma}}}$ soit du même ordre de grandeur, c'est-à-dire que $\displaystyle \alpha=1-\frac{2\alpha}{\gamma}$, donc $\displaystyle \varepsilon=\frac{1}{n^{\frac{\gamma}{2+\gamma}}}$. On obtient:
$$\max_{x\in[0,1]}|B_n(x)-f(x)|\leq \left(1 +2\|f\|_{\infty}\frac{k^2}{4}\right)\frac{1}{n^{\frac{\gamma}{2+\gamma}}}$$
Théorème de Moivre-Laplace
- Écrit par : Begyn Arnaud
- Théorème de Moivre-Laplace. Si $X_n\hookrightarrow\mathcal{B}(n,p)$, pour $n\in\mathbb{N}^*$ et $p\in]0,1[$, alors:
- Preuve dans le cas $\displaystyle p=\frac{1}{2}$.
On pose $Z_n=\displaystyle \frac{X_n-np}{\sqrt{\frac{n}{4}}}=\frac{2}{\sqrt{n}}\left(X_n-\frac{n}{2}\right)$.
Puisque $X_n(\Omega)=[\![0;n]\!]$, on a $Z_n(\Omega)=\displaystyle \bigg\{t_k=\frac{2}{\sqrt{n}}\left(k-\frac{n}{2}\right)\, \bigg/ \, k\in[\![0;n]\!] \bigg\}$.
Les réels $-\sqrt{n}=t_0<t_1<\dots<t_n=\sqrt{n}$ forment une subdivision régulière de l'intervalle $[-\sqrt{n},\sqrt{n}]$, de pas $\displaystyle\frac{2}{\sqrt{n}}$.
Lemme 1. On pose $k_a=\displaystyle \min\big\{ k\in[\![0;n ]\!] \, \big/ \, t_k\in[a,b]\big\}$, $k_b=\displaystyle \max\big\{ k\in[\![0;n ]\!] \, \big/ \, t_k\in[a,b]\big\}$, $a_n=\displaystyle t_{k_a} -\frac{1}{\sqrt{n}}$ et $b_n=\displaystyle t_{k_b} +\frac{1}{\sqrt{n}}$. Alors:
$$\mathbb{P}\big(Z_n\in[a,b]\big)=\int_{a_n}^{b_n} f_n(t)\,{\rm d}t$$
Preuve du lemme 1. Il est clair que $\displaystyle \int_{t_k-\frac{1}{\sqrt{n}}}^{t_k+\frac{1}{\sqrt{n}}} f_n(t)\,{\rm d}t=\mathbb{P}(X_n=k)=\mathbb{P}(Z_n=t_k)$, puisque $[X_n=k]=[Z_n=t_k$.
D'autre part $\big[Z_n\in[a,b]\big]=\displaystyle\bigcup_{k=k_a}^{k_b}[Z_n=k]$, donc par additivité d'une probabilité:
$$\mathbb{P}\big(Z_n\in[a,b]\big)=\sum_{k=k_a}^{k_b} \mathbb{P}(Z_n=t_k)=\sum_{k=k_a}^{k_b}\int_{t_k-\frac{1}{\sqrt{n}}}^{t_k+\frac{1}{\sqrt{n}}} f_n(t)\,{\rm d}t=\int_{a_n}^{b_n} f_n(t)\,{\rm d}t$$
|
Lemme2. Estimations de $a_n$ et $b_n$. On pose $c=\max(|a|,|b|)$. Alors si $n>c^2$, on a $\displaystyle |a_n-a|\leq \frac{1}{\sqrt{n}}$ et $\displaystyle|b_n-b|\leq\frac{1}{\sqrt{n}}$.
Preuve du lemme 2. Si $n>c^2$, on a $t_0<a$ et $t_n>b$, donc $1\leq k_a\leq k_b\leq n-1$.
Or par définition de $k_a$, on a: $\displaystyle t_{k_a-1}=t_{k_a}-\frac{2}{\sqrt{n}} <a \leq t_{k_a}$.
Comme $a_n$ est le milieu de $[t_{k_a-1},t_{k_a}]$, intervalle de longueur $\displaystyle \frac{2}{\sqrt{n}}$, on a $\displaystyle|a_n-a|\leq \frac{1}{\sqrt{n}}$.
On obtient de même $\displaystyle|b_n-a|\leq \frac{1}{\sqrt{n}}$.
|
Lemme 3. Estimation de $f_n(t)$. Il existe $D>0$ telle que, si $n>4c^2$:
$$\forall t\in [a_n,b_n],\quad \big| f_n(t) - \varphi(t) \big|\leq \frac{D}{\sqrt{n}} $$
Preuve du lemme 3. Supposons que $n>4c^2$ et $t\in[a_n,b_n]=\displaystyle\bigcup_{k=k_a}^{k_b}\left[t_k-\frac{1}{\sqrt{n}},t_k+\frac{1}{\sqrt{n}}\right]$.
Il existe $k\in[\![k_a;k_b]\!]$ tel que $t\in\displaystyle \left[t_k-\frac{1}{\sqrt{n}},t_k+\frac{1}{\sqrt{n}}\right]$.
On a donc $f_n(t)=f_n(t_k)$.
De plus, $1\leq k\leq n-1$, donc $|t_k|\leq A$.
D'après l'inégalité triangulaire et la stricte positivité de $f_n$:
$$ \big| f_n(t)-\varphi(t) \big| = \big| f_n(t_k )-\varphi(t) \big| \leq \big| \varphi(t_k)-\varphi(t) \big| + \frac{ f_n(t_k) }{ f_n(0) } \bigg| f_n(0) - \frac{ 1 }{ \sqrt{2\pi} } \bigg| + \bigg| \frac{1}{\sqrt{2\pi}} \frac{ f_n(t_k) }{ f_n(0) } - \varphi(t_k) \big| \qquad (2)$$ Nous allons majorer un par un chacun des trois termes du membre de droite. $\star$ Premier terme. $t\in\displaystyle \left[t_k-\frac{1}{\sqrt{n}},t_k+\frac{1}{\sqrt{n}}\right] $ donne $\displaystyle|t-t_k|\leq\frac{1}{\sqrt{n}}$.
On vérifie ensuite facilement avec l'inégalité des accroissements finis que: $\forall (x,y)\in\mathbb{R}^2$, $\big|\varphi(x)-\varphi(y)\big|\leq |x-y|$.
On a donc:
$$ \big|\varphi(t_k)-\varphi(t)\big| \leq \frac{1}{\sqrt{n}}\qquad (3) $$ $\star$ Deuxième terme. La valeur de $f_n(0)$ dépend de la parité de $n$. On suppose donc dans la suite que $n$ est pair: $n=2m$ où $m\in\mathbb{N}^*$.
Puisque $n=2m$, on a $t_{m}= 0$ et donc $\displaystyle f_{2m}(0)=f_{2m}(t_m)=\frac{\sqrt{2m}}{2}\binom{2m}{m}=\frac{\sqrt{2m}}{2}\frac{(2m)!}{2^{2m}(m!)^2}$.
Utilisons un peu de calcul intégral. On pose $\displaystyle I_m = \int_0^1 (1-t^2)^{\frac{m}{2}}\,{\rm d}t$. On montre facilement que la suite $(I_m)_{m\geq1}$ est décroissante et strictement positive, de premiers termes $I_0=1$ et $\displaystyle I_1=\frac{\pi}{4}$ (via le changement de variables $t=\cos(\theta)$), et qu'elle vérifie la relation de récurrence $\displaystyle I_m=\frac{m}{m+1} I_{m-2}$.
On en déduit les formules:
$$I_{2m}=\frac{2^{2m}(m!)^2}{(2m+1)!}=\frac{\sqrt{2m}}{2}\frac{1}{2m+1}\frac{1}{f_{2m}(0)}\quad\hbox{et}\quad I_{2m-1}=\frac{(2m)!}{2^{2m+1}(m!)^2}\pi=\frac{2}{\sqrt{2m}}\frac{\pi}{2}f_{2m}(0)$$ Donc $\;\displaystyle f_{2m}(0) ^2= \frac{m}{\pi(2m+1)} \frac{I_{2m-1}}{I_{2m}} $.
D'où par décroissance de $(I_m)_{m\geq1}$, on obtient: $\displaystyle \left(1-\frac{1}{2m}\right)^2\leq \frac{1}{1+\frac{1}{2m}}\leq 2\pi f_{2m}(0)^2\leq 1$
et donc:
$$ \left(1-\frac{1}{2m}\right)\leq \sqrt{2\pi}\, f_{2m}(0)\leq 1\qquad (4.1)$$
De plus:
$$ \frac{f_{2m}(t_k)}{f_{2m}(0) }=\frac{\binom{2m}{k} }{ \binom{2m}{m} }=\frac{ (2m-k+1)(2m-k+2)\dots m}{(m+1)(m+2)\dots k }$$
Comme $\displaystyle\binom{ 2m }{k} =\binom{2m }{2m- k}$, on peut se ramener au cas $k\geq m$, et l'égalité précedente donne alors que:
$$ 0\leq \frac{f_{2m}(t_k)}{f_{2m}(0) } \leq1\qquad (4.2)$$
Les inégalités $(4.1)$ et $(4.2)$ donnent que:
$$\frac{ f_n(t_k) }{ f_n(0) } \bigg| f_n(0) - \frac{ 1 }{ \sqrt{2\pi} } \bigg|\leq \frac{1}{2m\,\sqrt{2\pi} } \qquad (4) $$
$\star$ Troisième terme. On vient de voir que $\displaystyle \frac{ f_{2m}(t_k) }{ f_{2m}(0) } = \frac{m}{k} v_{k-m} $ où on peut supposer $k\geq m$ et $\displaystyle v_{\ell}=\frac{\displaystyle\prod_{i=1}^{\ell-1}\left(1-\frac{i}{m}\right) }{\displaystyle\prod_{i=1}^{\ell-1}\left(1+\frac{i}{m}\right) }$ pour $\ell\in\mathbb{N}^*$ et $v_0=1$.
De plus, d'après l'inégalité triangulaire:
$$ \left| \frac{ f_{2m}(t_k) }{ f_{2m}(0) } - \varphi(t_k) \right|\leq \left| \frac{ f_{2m}(t_k) }{ f_{2m}(0) } - v_{k-m} \right| + \left| v_{k-m} - {\rm e}^{-\frac{t_k^2}{2}}\right|=N_1+N_2 $$
On en déduit que $v_\ell=\displaystyle \exp\left(-\frac{\ell^2}{m}+\frac{\ell}{m}+\sum_{i=1}^{\ell-1} \varepsilon\left(\frac{i}{m}\right)\right)$ et pour $\displaystyle 1\leq\ell\leq\frac{m}{2}$, on a $ \displaystyle\left|\varepsilon\left(\frac{i}{m}\right)\right|\leq\frac{i^3}{m^3}$ donc $\displaystyle \left|\sum_{i=1}^{\ell-1}\varepsilon\left(\frac{i}{m}\right)\right|\leq\frac{1}{m^3}\sum_{i=1}^{\ell-1} i^3\leq\frac{\ell^4}{4m^3} $.
Ainsi si $k>m$, on a: $\displaystyle v_{k-m}={\rm e}^{-\frac{t_k^2}{2}}{\rm e}^{\frac{t_k}{\sqrt{2m}}+\varepsilon_k}$ où $\displaystyle|\varepsilon_k|\leq\frac{(k-m)^4}{4m^3}=\frac{t_k^4}{16m}\leq \frac{t_k^2}{8\sqrt{2m}}$. Ceci reste vrai si $k=m$.
On a donc:
$$ N_2={\rm e}^{-\frac{ t_k^2 }{ 2 } } \left| {\rm e}^{ \frac{ t_k }{ \sqrt{2m} }+\varepsilon_k }-1\right|\leq {\rm e}^{ \frac{ t_k+\frac{ t_k^4 }{ 8 } }{ \sqrt{2m} }+\varepsilon_k }-1 \leq {\rm e}^{\frac{K_1}{\sqrt{2m}}}-1$$
où $\displaystyle K_1=c+\frac{c^4}{8}>0$. L'inégalité ${\rm e}^x-1\leq x{\rm e^x}$ pour $x>0$ donne alors:
$$N_2\leq \frac{K_2}{\sqrt{2m}}\qquad(5.1)$$
où $K_2=K_1{\rm e}^{K_1}>0$.
D'autre part:
$$N_1= \left| \frac{ f_{2m}(t_k) }{ f_{2m}(0) } - v_{k-m} \right| = \frac{k-m}{k}v_{k-m}\leq \frac{k-m}{m} =\frac{t_k}{\sqrt{2m}}\leq \frac{c}{\sqrt{2m}}\qquad (5.2)$$
Les inégalités $(5.1)$ et $(5.2)$ donnent alors:
$$\left| \frac{ f_{2m}(t_k) }{ f_{2m}(0) } - \varphi(t_k) \right|\leq \frac{K_2}{\sqrt{2m}}+\frac{c}{\sqrt{2m}}=\frac{K_3}{\sqrt{2m}}\qquad$$
où $K_3=K_2+c>0$.
$\star$ Les inégalités $(2)$, $(3)$, $(4)$ et $(5)$ donnent finalement:
$$ \big| f_n(t)-\varphi(t) \big| \leq \frac{1}{\sqrt{2m}} + \frac{1}{2m\,\sqrt{2\pi} } + \frac{K_3}{\sqrt{2m}} \leq \frac{D_1}{\sqrt{2m}}=\frac{D_1}{\sqrt{n}}\qquad(6) $$ $\star$ Il reste à prouver la même inégalité lorsque $n$ est impair. Puisque $n-1$ est pair, on va pouvoir utiliser les résultats précédents au rang $n-1$.
On note $(\tau_0,\tau_1,\dots,\tau_{n-1})$ la subdivision associée au rang $n-1$: $\displaystyle\tau_k=\frac{2}{\sqrt{n-1}}(k-n+1)$.
On remarque que pour $1\leq k\leq n-1$, $\tau_{k-1}\leq t_k\leq\tau_k$, et donc $\displaystyle |\tau_k-t_k|\leq \frac{2}{\sqrt{n-1}} $.
Puisqu'on a pris $k$ tel que $t\in\displaystyle \left[t_k-\frac{1}{\sqrt{n}},t_k+\frac{1}{\sqrt{n}}\right]$, on a $f_n(t)=f_n(t_k)$ et $\displaystyle |t-t_k|\leq \frac{1}{\sqrt{n}} $.
Ainsi $\displaystyle |t-\tau_k|\leq |t-t_k|+|t_k-\tau_k|\leq\frac{1}{\sqrt{n}}+\frac{2}{\sqrt{n-1}}\leq \frac{K_4 }{\sqrt{n}} $. De plus, la formule de Pascal donne que:
$$f_n(t)=f_n(t_k)=\frac{\sqrt{n}}{2^{n+1}}\binom{n}{k}=\frac{\sqrt{n}}{2^{n+1}}\left[\binom{n-1}{k-1}+\binom{n-1}{k}\right]=\frac{1}{2\sqrt{1-\frac{1}{n}}}\big[f_{n-1}(\tau_{k-1})+f_{n-1}(\tau_k)\big]$$
On a $\displaystyle\frac{1}{\sqrt{1-\frac{1}{n}}}-1\leq \frac{1}{n}$ et d'après $(4.1)$, $\sqrt{2\pi}f_{n-1}(\tau_k)\leq 1$ et $\sqrt{2\pi}f_{n-1}(\tau_{k-1})\leq 1$, donc en déduit que $\displaystyle 0\leq\sqrt{2\pi}\big(2f_n(t)-f_{n-1}(\tau_k)-f_{n-1}(\tau_{k-1})\big)\leq \frac{2}{n}$.
D'après l'inégalité triangulaire:
$$2\big|f_n(t)-\varphi(t)|\leq \frac{2}{n\,\sqrt{2\pi}} +\big| f_{n-1}(\tau_k)-\varphi(\tau_k)\big|+\big| f_{n-1}(\tau_{k-1})-\varphi(\tau_{k-1})\big|+\big| \varphi(\tau_k)-\varphi(t)\big|+\big| \varphi(\tau_{k-1})-\varphi(t)\big|$$
L'inégalité $(6)$ donne $\displaystyle\big| f_{n-1}(\tau_k)-\varphi(\tau_k)\big|\leq\frac{D_1}{\sqrt{n}}$ et $\displaystyle\big| f_{n-1}(\tau_{k})-\varphi(\tau_k)\big|\leq\frac{D_1}{\sqrt{n}}$.
On a aussi $\displaystyle\big| \varphi(\tau_k)-\varphi(t)\big|\leq|\tau_k-t|\leq \frac{K_4 }{\sqrt{n}} $ et $\displaystyle\big| \varphi(\tau_{k-1})-\varphi(t)\big|\leq|\tau_{k-1}-t|\leq \frac{K_4 }{\sqrt{n}} $.
Il existe donc une constante $D_2>0$ telle que:
$$\big| f_n(t)-\varphi(t) \big|\leq \frac{D_1}{\sqrt{n}}\qquad(7) $$
$\star$ $(6)$ et $(7)$ donnent que pour tout $n>4c^2$:
$$\forall t\in [a_n,b_n],\quad \big| f_n(t) - \varphi(t) \big|\leq \frac{D}{\sqrt{n}} $$
où $D=\max(D_1,D_2)$. |
et, en utilisant que, $\forall t\in\mathbb{R}$, $\displaystyle |\varphi(t)|\leq\frac{1}{2}$:
Sur les permutations aléatoires
- Écrit par : Begyn Arnaud
- Nombre de points fixes. On tire au hasard une permutation aléatoire $\omega$, et on s'intéresse à ses points fixes (c'est-à-dire aux
éléments $i \in [\![ 1;n ]\!]$ vérifiant $\omega(i)=i$ ). On note $X$ la variables aléatoire égale au nombre de ses points fixes.
$$ \mathbb{P} \big( [Y_{i_1} =1 ] \cap [ Y_{i_2} = 1 ] \cap \dots \cap [ Y_{i_k} = 1 ] \big) = \frac{ ( n - k ) ! }{ n ! } $$
- Records vers le haut. Soit $\omega:\lc1;n\rc\ra\lc1;n\rc$ une permutation.
- Nombre de cyles (=orbites) d'une permutation aléatoire. On note $X_n$ le nombre de cycles d'une permutation aléatoire de
$\lc1;n\rc$ dans sa décomposition canonique (en comptant les cycles de longueur $1$).
Sur la loi uniforme
- Écrit par : Begyn Arnaud
- Modélisation1. On tire au hasard un élément de $A$ et on le note $X$, Alors $X\hookrightarrow\mathcal{U}(A)$.
- Modélisation2. On distingue un élément de $A$ des autres, qu'on note $a_0$.
- Espérance et variance. Lorsque $X\hookrightarrow\mathcal{U}\big([\![1;n]\!]\big)$, on a $\mathbb{E}(X)=\displaystyle \frac{n+1}{2}$ et $V(X)= \displaystyle \frac{n^2-1}{12}$.
- Fonction génératrice. $\forall t\in\mathbb{R}$, $G_X(t) = \displaystyle \frac{1}{n} \sum_{k=1}^n t^k$.
Preuve: c'est une simple application du théorème de transfert.
Sur la loi multinomiale
- Écrit par : Begyn Arnaud
- Remarque. On a donc $X_1+X_2+\dots+X_r=n$ presque sûrement. Les variables $X_1$, $X_2$, $\dots$, $X_r$ ne sont donc pas indépendantes.
- Formule du multinôme. On peut en déduire la formule du multinôme dans un cas particulier. En effet, si $n\in\mathbb{N}^*$ et $(a_1,a_2,\dots,a_r)\in\big(\mathbb{R}^*_+\big)^r$,
on se donne $Z=(X_1,X_2,\dots,X_r)\hookrightarrow\mathcal{M}(n;p_1,p_2,\dots,p_r)$ où $p_i= \displaystyle \frac{a_i}{a_1+a_2+\dots+a_r}$, $1\leq i\leq r$, et dans ce cas la propriété $\displaystyle\sum_{ k_1+k_2+\dots +k_r=n} \mathbb{P}\big(Z=(k_1,k_2,\dots,k_r)\big) = 1$ s'écrit:
$$ \sum_{ k_1+k_2+\dots +k_r=n}\frac{ n ! }{ {k_1} ! {k_2} ! \dots {k_r} ! } {a_1}^{k_1} {a_2}^{k_2} \dots {a_r}^{k_r}=(a_1+a_2+\dots+a_r)^n$$
- Modélisation. On se donne une système complet d'évènements $(A_1,A_2,\dots,A_r)$ associé à une expérience aléatoire. Pour $i\in[\![1;r]\!]$, on note $p_i=\mathbb{P}(A_i)$ et
Alors $Z=(X_1,X_2,\dots,X_r)\hookrightarrow\mathcal{M}(n;p_1,p_2,\dots,p_r)$.
- Lien avec la loi binomiale: cas du schéma de Bernoulli. Si on se place dans le cadre du schéma de Bernoulli ($n$ répétitions indépendantes d'une expérience
D'autre part, on sait aussi que $X\hookrightarrow\mathcal{B}(n,p)$ et $Y\hookrightarrow\mathcal{B}(n;1-p)$. Comme le montre, le résultat suivant c'est en fait une propriété plus générale.
- Lois marginales. On suppose que $Z=(X_1,\dots,X_r)\hookrightarrow\mathcal{M}(n;p_1,\dots,p_r)$. Alors, si $i[\![1;r]\!]$, $X_i\hookrightarrow\mathcal{B}(n,p_i)$.
- Espérance, variance et covariance. Pour $(i,j)\in[\![1;r]\!]^2$ avec $i\neq j$: $\mathbb{E}(X_i)=p_i$, $V(X_i)=np_I(1-p_i)$ et $\hbox{Cov}(X_i,X_j)=-np_ip_j$.