\input{../.headers/cours.tex}
\renewcommand{\pet}{\mathcal{p}}
\renewcommand{\cul}{\mathcal{q}}
\renewcommand{\indic}[1]{\text{1\!I}_{#1}}

\baselineskip15pt

\begin{center}
\shadowbox{\LARGE \bf \textsc{\supline Variables al\'eatoires finies\subline}}\\[0.25cm]
\end{center}%\ \\[-1.1cm]

{\bf L'id\'ee~:} plut\^ot que de mod\'eliser une exp\'erience al\'eatoire par un espace probabilis\'e %$(E,\pc(E),P_E)$
 trop grossier, on {\it postule} qu'un espace probabilis\'e $(\Omega,\pc(\Omega),P)$ le mod\'elise finement et on consid\`ere une application $X : \Omega \too E$ o\`u $E$ correspond aux \'ev\'ements observables ou qui nous int\'eressent.\\

\exx \label{UnDe} On lance un d\'e de $6$ non pip\'e. Mod\'eliser cette exp\'erience al\'eatoire en posant $\Omega=\{1,2,\ldots,6\}$ oblige \`a identifier des situations tr\`es diff\'erentes, et est abusif car un r\'esultat de l'exp\'erience n'est pas un nombre. On peut aussi postuler l'existence d'un espace probabilis\'e $(\Omega,\pc(\Omega),P)$ mod\'elisant finement cette exp\'erience et consid\'erer l'application $$X : \defapp{\Omega}{\{1,2,\ldots,6\}}{\omega}{\text{le nombre lu sur la face sup\'erieure du d\'e lorsque $\omega$ est r\'ealis\'ee.}}$$
\xxe

\medskip

\exx \label{SommeDeDeuxDes} On lance deux d\'es de $6$ non pip\'es. Quelle que soit la mod\'elisation choisie pour cette exp\'erience al\'eatoire, on peut souhaiter ne s'int\'eresser qu'\`a la somme des deux valeurs obtenues (par exemple parce qu'on joue \`a un jeu dont le gagnant est celui qui r\'ealise la plus grande somme). On s'int\'eresse alors naturellement \`a l'application\break\ \\[-0.75cm] $$X : \defapp{\Omega}{\{2,3,\ldots,12\}}{\omega}{\text{la somme des r\'esultats des d\'es lorsque $\omega$ est r\'ealis\'ee.}}$$
\xxe

\bigskip

Les valeurs prises par $X$ {\bf correspondent aux \'ev\'ements qui nous int\'eressent}.\\
En particulier les \'ev\'enements $\{\omega\in\Omega, X(\omega)=i\}$, o\`u $i$ parcourt les valeurs prises par $X$~:
\begin{enumerate}[$\bullet$]
\item auraient pu former l'ensemble $\Omega$ si on avait voulu mod\'eliser tr\`es %-- trop~! --
 grossi\`erement (mais beurk~!)~;
\item forment un syst\`eme complet d'\'ev\'enements (est-ce qu'on sait encore ce que c'est~?).
\end{enumerate}

\bigskip

\ovalbox{Dans tout le chapitre, $(\Omega,\pc(\Omega),P)$ d\'esigne un espace probabilis\'e, et $E$ d\'esigne un ensemble.}

\bigskip

\renewcommand{\pet}{\mathcal{p}}
\renewcommand{\cul}{\mathcal{q}}
\renewcommand{\indic}[1]{\text{1\!I}_{#1}}
\section{Variables al\'eatoires}
\subsection{D\'efinition et autres exemples}
\dfn[Variable al\'eatoire]
\ \\[-0.75cm]
\begin{enumerate}
\item On appelle \newdef{variable al\'eatoire} (si grosse paresse~: \newdef{v.a.}) une application $X : \Omega \too E$.\subline
\item Si $E\subset \R$, on dit que $X$ est une \newdef{variable al\'eatoire r\'eelle}, dans toute la suite \newdef{v.a.r.}\subline
\item Si $E\subset\R^n$ pour un entier $n$, on dit que $X$ est un \newdef{vecteur al\'eatoire}, dans la suite \newdef{$\overrightarrow{\text{v.a.}}$}.
\end{enumerate}
\nfd
\subsection{Terminologie et notations}
\nota Si $X : \Omega \too E$ est une variable al\'eatoire, on notera~:
\begin{enumerate}[$\bullet$]
\item $(X=x)$ l'\'ev\'enement $X^{-1}\big(\{x\}\big)$, pour $x\in E$~;
\item $(X\in A)$ l'\'ev\'enement $X^{-1}\big(A\big)$, pour $A\subset E$.
\end{enumerate}
Si de plus $X$ est une v.a.r. (\ie si on a $E\subset \R$), on notera~:
\begin{enumerate}[$\bullet$]
\item $(X\leq x)$ l'\'ev\'enement $X^{-1}\big(]-\infty,x]\big)$~;
\item $(X<x)$ l'\'ev\'enement $X^{-1}\big(]-\infty,x[\big)$~;
\item $(X\geq x)$ l'\'ev\'enement $X^{-1}\big([x,\infty[\big)$~;
\item $(X>x)$ l'\'ev\'enement $X^{-1}\big(]x,+\infty[\big)$.
\end{enumerate}
\aton
\rmq
La famille des $(X=x)_{x\in X(\Omega)}$ forme un syst\`eme complet d'\'ev\'enements.
\qmr
\nota
Si $F$ est un ensemble et $f : E\too F$ est une application, on pourra noter $f(X)$ la variable al\'eatoire $f\circ X$. En effet, ces gens (les probabilistes) sont des barbares.
\aton
\subsection{Loi d'une variable al\'eatoire r\'eelle}
\dfn[Loi]
Soit $X : \Omega \too E$ une variable al\'eatoire. 
On appelle \newdef{loi de $X$} l'application $P_X : \defapp{\pc\big(X(\Omega)\big)}{[0,1]}{A}{P(X\in A)}$
\nfd
\rmq On identifiera fr\'equemment $P_X$ avec son prolongement naturel \`a $\pc(E)$, parfois plus pratique \`a d\'ecrire~:
$$P_X : \defapp{\pc(E)}{[0,1]}{A}{P(X\in A)}.$$
\qmr
\thm
Soit $X : \Omega \too E$ une variable al\'eatoire.\\[0.2cm]
Alors $P_X : \pc(X(\Omega)) \too [0,1]$ est une probabilit\'e.\\[0.2cm]
Bien s\^ur, de m\^eme, $P_X : \pc(E) \too [0,1]$ est une probabilit\'e. 
\mht
\section{Lois usuelles}
\subsection{Loi uniforme finie}
\dfn
On dit que $X$ suit la loi uniforme sur $E$ et on note $X\sim \uc(E)$ lorsqu'on a $P_X=P_u$ (sur $E$), \ie lorsqu'on a $\dsp{\forall x\in E,\ P(X=x)=\frac{1}{|E|}}$. Si $E=\{a,a+1,\ldots,b\}$ on note $X\sim\uc(a;b)$.
\nfd
\subsection{Loi de Bernoulli}
\renewcommand{\pet}{p}
\renewcommand{\cul}{q}
\dfn
Soit $\pet\in[0,1]$. On dit que $X$ suit la loi de Bernoulli de param\`etre $\pet$ et on note $X\sim \bc(\pet)$ lorsqu'on a $X(\Omega)\subset\{0,1\}$ et $P(X=1)=\pet$, donc $P(X=0)=1-\pet=\cul$.
\nfd
\thm
Une v.a.r. suit une loi de Bernoulli \ssi c'est une fonction %caract\'eristique
 indicatrice.\\
Autrement dit~: $\bigg(\exists \pet\in[0,1],\ X\sim \bc(\pet)\bigg) \Leftrightarrow \bigg(\exists A\in\pc(\Omega),\ X=\indic{A}\bigg)$.
\mht
\subsection{Loi binomiale}
\dfn
Soit $n\in\N$ et $\pet\in[0,1]$. On dit que $X$ suit la loi binomiale de param\`etres $n$ et $\pet$ et on note $X\sim\bc(n,\pet)$ lorsqu'on a $X(\Omega)\subset\{0,1,\ldots,n\}$ et $\forall k\in\{0,\ldots,n\},\ P(X=k)=\binom{n}{k}\pet^k\cul^{n-k}$ o\`u bien s\^ur $\cul=1-\pet$.
\nfd
\subsection{Exercice classique~: d\'ecrire la loi d'une v.a.r. donn\'ee}
\section{Esp\'erance. Variance.}
\subsection{Esp\'erance}
\dfn[Esp\'erance]
On appelle \newdef{esp\'erance de $X$} le nombre $\dsp{E(X)=\!\!\!\sum\limits_{x\in X(\Omega)}\!\! P(X=x)\,x}$.
\nfd
\renewcommand{\d}{\mathrm{d}}
\thm[Propri\'et\'es de l'esp\'erance]
\ \\[-0.7cm]
\begin{enumerate}
\item On a~: $\dsp{E(X)=\sum_{\omega\in\Omega} X(\omega) P\big(\{\omega\}\big)}$.
\item L'esp\'erance est~:
\begin{itemize}
\item lin\'eaire~: $\forall X, Y : \Omega \too \R,\ \forall \lambda,\mu \in \R^2,\ E(\lambda X+\mu Y) = \lambda E(X) +\mu E(Y)$~;
\item positive~: $\forall X : \Omega \too \R,\ X\geq 0 \Rightarrow E(X)\geq 0$~;
\item croissante~: $\forall X, Y : \Omega \too \R,\ X\leq Y \Rightarrow E(X)\leq E(Y)$.\bigsubline
\end{itemize}
\item Si $X$ est constante, \ie il existe $m$ tel que $X(\Omega)=\{m\}$, alors $E(X)=m$.
\end{enumerate}
\mht
\subsection{Variance}
\dfn[\!\!Variance]
On appelle \newdef{variance de $X$} le nombre $\dsp{V(X)=E\big((X-E(X))^2\big)}$.
\nfd
\rmq
On met un carré car:
\begin{itemize}
	\item ça permet d'augmenter les gros écarts et diminuer les petits écarts (erreurs de mesure, e.g.)
	\item ça devient presque un produit skyler
\end{itemize}
\qmr
\rmq Par positivit\'e de l'esp\'erance, on a toujours $V(X)\geq 0$. Ceci permet de d\'efinir \newdef{l'\'ecart-type de $X$} $\sigma(X)=\sqrt{V(X)}$. \qmr

\bigskip

\textbf{Terminologie~:} lorsqu'on a $V(X)=1$ (\ie $\sigma(X)=1$), on dit que \newdef{$X$ est r\'eduite}.

\medskip

\exx \label{VarianceUnDe} D\'eterminons la variance de la variable al\'eatoire de l'exemple \ref{UnDe}.
On reprend $X: \begin{cases}
	\Omega&\to \{1, \ldots, 6\} \\
	\omega &\mapsto \text{la valeur du dé}
\end{cases}$ 

\rmq
C'est un cas particulier de la loi uniforme
\qmr
\thm[Propri\'et\'es de la variance]
\ \\[-0.8cm]
\begin{enumerate}
\item Formule de K\oe nig~: $\dsp{V(X)=E(X^2) - E(X)^2}$.
\item Si $a, b\in \R$ alors $V(aX+b)=a^2V(X)$.
\item Si $X$ est constante, alors $V(X)=0$.
\end{enumerate}
\mht
\subsection{Th\'eor\`eme de transfert}
\thm[Formule de transfert]
Soit $Z : \Omega \too E$ une variable al\'eatoire (non n\'ecessairement r\'eelle) et $f: E \too \R$. Alors~: $$E(f(Z))=\sum\limits_{z \in Z(\Omega)} f(z) P(Z=z)$$
\mht
\subsection{Deux in\'egalit\'es fondamentales}
\thm[In\'egalit\'e de Markov]
Supposons $X$ {\bf positive}. Soit $\alpha>0$. Alors $\dsp{P(X\geq \alpha) \leq \frac{E(X)}{\alpha}}$.
\mht
\thm[In\'egalit\'e de Bienaym\'e-Tchebychev]
Soit $\eps>0$. Alors $\dsp{P\big(|X-E(X)|\geq \eps\big)\leq \frac{V(X)}{\eps^2}}$.
\mht
\subsection{Esp\'erance et variance des lois usuelles}
\rmq Si $X\sim\uc(a;b)$, l'esp\'erance et la variance de $X$ ne sont pas explicitement au programme~; mais on les verra en TD.

\begin{align*}
	X(\Omega) \subset \{0, 1\} \quad \begin{cases}
		P(X=0) &= 1-\pet = \cul \\
		P(X=1) &= \pet \\
	\end{cases}
\end{align*}
\begin{itemize}[$\bullet$]
	\item $E(X)=\sum_{x\in X(\Omega)}P(X=x)x = 0\cul + 1\pet = \pet$
	\item $V(X)=E(X^2)-E(X)^2$  or $X^2=X$
		donc $V(X) = E(X)-E(X)^2 = \pet - \pet^2 = \pet(1-\pet)=\pet\cul$
\end{itemize}
\qmr
\thm[Cas d'une loi de Bernoulli]
On suppose $X\sim \bc(\pet)$ pour un certain $\pet\in[0,1]$ (on note $\cul=1-\pet$). Alors~:
\begin{align*}
	X(\Omega) &\subset \{0, \ldots, n\} \\
	P(X=k)&= \begin{pmatrix} n\\k \end{pmatrix} \pet^k \cul^{n-k} \\
\end{align*}
\begin{itemize}[$\bullet$]
	\item $E(X)=n\pet$
	\item $V(X)=n\pet\cul$
\end{itemize}
\mht
\thm[Cas d'une loi Binomiale]
On suppose $X\sim \bc(n,\pet)$ pour un certain $(n,\pet)\in\N\times[0,1]$ (on note $\cul=1-\pet$). Alors~:
\begin{itemize}[$\bullet$]
\item $E(X)=np$
\item $V(X)=npq$ 
\end{itemize}
\mht
\section{Ind\'ependance}
\subsection{Ind\'ependance de deux variables al\'eatoires}
\thm
Soient $X : \Omega \too E$ et $Y : \Omega \too F$ deux variables al\'eatoires ind\'ependantes, et $f : E \too E'$ et $g : F \too F'$ deux applications. Alors $f(X)$ et $g(Y)$ sont ind\'ependantes.
\mht
\subsection{Ind\'ependance, esp\'erance et variance}
\thm
Soient $X$ et $Y$ deux v.a.r. Si $X$ et $Y$ sont ind\'ependantes, alors $E(XY)=E(X)E(Y)$.
\mht
\col
Soient $X$ et $Y$ deux v.a.r. Si $X$ et $Y$ sont ind\'ependantes, alors $V(X+Y)=V(X)+V(Y)$.

\loc
\thm
Soient $X_1,\ldots,X_n$ des v.a.r. ind\'ependantes deux \`a deux, alors $V(X_1+\cdots+X_n)=V(X_1)+\cdots+V(X_n)$.
\mht
\subsection{Ind\'ependance mutuelle}
\thm\label{SommeDeBernoulliIndependantes}
Soient $\pet \in [0,1]$ et $X_1$, $X_2$, $\ldots$, $X_n$ des variables al\'eatoires {\bf mutuellement ind\'ependantes} telles que $\forall i,\ X_i\sim \bc(\pet)$. Alors $X_1+X_2+\cdots+X_n \sim \bc(n,\pet)$.
\mht
\section{Vecteurs al\'eatoires}
\subsection{Exemples}
\rmq "Th\'eor\`eme de Nil Venet"~: quitte \`a consid\'erer que $\Omega$ mod\'elise la r\'ealisation de toutes les exp\'eriences al\'eatoires possibles et imaginables, on peut toujours consid\'erer que deux variables al\'eatoires quelconques sont d\'efinies sur\,le\,m\^eme\,univers\,$\Omega$.
\qmr
\subsection{Lois associ\'ees \`a un vecteur al\'eatoire}
\dfn
Soit $Z=\msvect{X\\Y}$ un couple al\'eatoire.
\begin{enumerate}[$\bullet$]
\item On appelle \newdef{loi conjointe de $X$ et $Y$} la loi de $Z$.
\item On appelle \newdef{lois marginales de $Z$} les lois de $X$ et $Y$.
\end{enumerate}
\nfd
\rmq\ \\[-1cm]
\begin{enumerate}
\item Le tableau %de la loi conjointe
 donne seulement les $P(Z=(x,y))$ mais %le th\'eor\`eme de caract\'erisation 
 d'apr\`es ${}_{...............................................................................}$ cela suffit.\\[-0.25cm]
\item Le tableau de la loi conjointe illustre qu'en g\'en\'eral on a seulement $(X,Y)(\Omega) ~{}_{.....}~ X(\Omega)\times Y(\Omega)$.\\[-0.25cm]
\item Une fois obtenu le tableau de la loi conjointe, on en d\'eduit les lois marginales en ${}_{............................................................}$.\\[-0.25cm]
\item Cet exemple en particulier illustre que ${}_{........................................................................................................................................}$.\\[-0.25cm]
\item {\bf Cependant}, ${}_{.....................................................................................................................................................................................}$.\\\\\\\\\\\\\\\\\\
\end{enumerate}
\qmr
\dfn Soit $Z=\msvect{X\\Y}$ et $A\in X(\Omega)$. On appelle \newdef{loi de Y conditionnellement \`a $X\in A$} (ou loi de $Y$ sachant $X\in A$) l'application $\defapp{\pc(Y(\Omega))}{[0,1]}{B}{P_{X\in A}(Y\in B)}$.
\nfd
\subsection{Covariance}
\newcommand{\Cov}{\mathrm{Cov}}
\dfn
Soit $\msvect{X\\Y}$ un couple al\'eatoire. On appelle \newdef{covariance de $X$ et $Y$} le r\'eel $\Cov(X,Y)=E((X-E(X))(Y-E(Y)))$.
\nfd
\thm[K\oe nig-Huygens]
Soit $\msvect{X\\Y}$ un couple al\'eatoire. Alors $\Cov(X,Y)=E(XY)-E(X)E(Y)$.
\mht
\thm\label{IndependanceImpliqueDecorrelation}
Soit $\msvect{X\\Y}$ un couple al\'eatoire. Si $X$ et $Y$ sont ind\'ependantes alors ${}{........................}$.
\mht
\rmq\label{DecorrelationNImpliquePasIndependance} La r\'eciproque est fausse {\bf et on l'a d\'ej\`a vu}~!\newpage
En effet~:\\\\\\\\\\\\
\qmr
\thm
La covariance est une forme bilin\'eaire, sym\'etrique, et positive (seulement).
\mht
\col[Cauchy-Schwarz]
Soit $\msvect{X\\Y}$ un couple al\'eatoire. Alors $|\Cov(X,Y)|\leq\sigma(X)\sigma(Y)$.
\loc
\thm Soient $X_1$, $\ldots$, $X_n$ des var sur $\Omega$. $V(X_1+\cdots+X_n) = {}_{.............................................................................................}$.
\mht
\subsection{Ind\'ependance vs d\'ecorr\'elation}
\dfn Soit $\msvect{X\\Y}$ un couple al\'eatoire. On appelle coefficient de corr\'elation de $X$ et $Y$ le r\'eel $\dsp{\rho_{X,Y}=\frac{\Cov(X,Y)}{\sigma(X)\sigma(Y)}}$.
\nfd
\dfn Soit $\msvect{X\\Y}$ un couple al\'eatoire. On dit que $X$ et $Y$ sont \newdef{d\'ecorr\'el\'ees} lorsqu'on a $\rho_{X,Y}=0$, \ie $\Cov(X,Y)=0$.
\nfd
\lem
Soit $X$ une v.a.r. finie. On a $V(X)=0 \Leftrightarrow X$ constante.
\mel
\col \label{CasDEgaliteCS}
Soit $\msvect{X\\Y}$ un couple al\'eatoire avec $X$ non constante. On a $\big|\rho_{X,Y}\big|=1 \Leftrightarrow \exists (a,b)\in\R^2,\ Y=aX+b$.
\loc
\end{document}
