\input{../.headers/cours.tex}
\renewcommand{\pet}{\mathcal{p}}
\renewcommand{\cul}{\mathcal{q}}
\renewcommand{\indic}[1]{\text{1\!I}_{#1}}

\baselineskip15pt

\begin{center}
\shadowbox{\LARGE \bf \textsc{\supline Variables al\'eatoires finies\subline}}\\[0.25cm]
\end{center}%\ \\[-1.1cm]

{\bf L'id\'ee~:} plut\^ot que de mod\'eliser une exp\'erience al\'eatoire par un espace probabilis\'e %$(E,\pc(E),P_E)$
 trop grossier, on {\it postule} qu'un espace probabilis\'e $(\Omega,\pc(\Omega),P)$ le mod\'elise finement et on consid\`ere une application $X : \Omega \too E$ o\`u $E$ correspond aux \'ev\'ements observables ou qui nous int\'eressent.\\

\exx \label{UnDe} On lance un d\'e de $6$ non pip\'e. Mod\'eliser cette exp\'erience al\'eatoire en posant $\Omega=\{1,2,\ldots,6\}$ oblige \`a identifier des situations tr\`es diff\'erentes, et est abusif car un r\'esultat de l'exp\'erience n'est pas un nombre. On peut aussi postuler l'existence d'un espace probabilis\'e $(\Omega,\pc(\Omega),P)$ mod\'elisant finement cette exp\'erience et consid\'erer l'application $$X : \defapp{\Omega}{\{1,2,\ldots,6\}}{\omega}{\text{le nombre lu sur la face sup\'erieure du d\'e lorsque $\omega$ est r\'ealis\'ee.}}$$
\xxe

\medskip

\exx \label{SommeDeDeuxDes} On lance deux d\'es de $6$ non pip\'es. Quelle que soit la mod\'elisation choisie pour cette exp\'erience al\'eatoire, on peut souhaiter ne s'int\'eresser qu'\`a la somme des deux valeurs obtenues (par exemple parce qu'on joue \`a un jeu dont le gagnant est celui qui r\'ealise la plus grande somme). On s'int\'eresse alors naturellement \`a l'application\break\ \\[-0.75cm] $$X : \defapp{\Omega}{\{2,3,\ldots,12\}}{\omega}{\text{la somme des r\'esultats des d\'es lorsque $\omega$ est r\'ealis\'ee.}}$$
\xxe

\bigskip

Les valeurs prises par $X$ {\bf correspondent aux \'ev\'ements qui nous int\'eressent}.\\
En particulier les \'ev\'enements $\{\omega\in\Omega, X(\omega)=i\}$, o\`u $i$ parcourt les valeurs prises par $X$~:
\begin{enumerate}[$\bullet$]
\item auraient pu former l'ensemble $\Omega$ si on avait voulu mod\'eliser tr\`es %-- trop~! --
 grossi\`erement (mais beurk~!)~;
\item forment un syst\`eme complet d'\'ev\'enements (est-ce qu'on sait encore ce que c'est~?).
\end{enumerate}

\bigskip

\ovalbox{Dans tout le chapitre, $(\Omega,\pc(\Omega),P)$ d\'esigne un espace probabilis\'e, et $E$ d\'esigne un ensemble.}

\bigskip

\section{Variables al\'eatoires}

\medskip

\subsection{D\'efinition et autres exemples}

\medskip

\dfn[Variable al\'eatoire]
\ \\[-0.75cm]
\begin{enumerate}
\item On appelle \newdef{variable al\'eatoire} (si grosse paresse~: \newdef{v.a.}) une application $X : \Omega \too E$.\subline
\item Si $E\subset \R$, on dit que $X$ est une \newdef{variable al\'eatoire r\'eelle}, dans toute la suite \newdef{v.a.r.}\subline
\item Si $E\subset\R^n$ pour un entier $n$, on dit que $X$ est un \newdef{vecteur al\'eatoire}, dans la suite \newdef{$\overrightarrow{\text{v.a.}}$}.
\end{enumerate}
\nfd

On a d\'ej\`a vu deux exemples dans l'introduction. Deux autres~:

\exs \label{Divers}
\begin{enumerate}
\item \label{LoiBernoulli} On lance une pi\`ece \'equillibr\'ee.\\
On note $X$ la variable al\'eatoire qui prend la valeur $0$ si la pi\`ece donne face et $1$ si la pi\`ece donne pile.
$$\text{Autrement dit }X : \defapp{\Omega}{\{0,1\}}{\omega}{\lect{1 \text{ si $\omega$ r\'ealise "face"}\\0 \text{ si $\omega$ r\'ealise "pile".}}} \text{\phantom{C'est une v.a.r.}}$$
\item \label{JeuTransfert} On consid\`ere le jeu suivant. On lance un d\'e non pip\'e. Si la r\'esultat est $5$ ou $6$, on gagne $10\EUR$. Sinon, on perd $6\EUR$. On note $Y$ la variable al\'eatoire qui donne le gain \`a ce jeu. $$\text{Ainsi } Y : \defapp{\Omega}{\{-6,10\}}{\omega}{\lect{10 \text{ si $\omega$ r\'ealise $5$ ou $6$}\\-6 \text{ sinon.}}} \text{\phantom{v.a.r.}}$$
\end{enumerate}
\sxe


\subsection{Terminologie et notations}

Reprenons l'exemple \ref{SommeDeDeuxDes}. L'espace probabilis\'e $(\Omega,\pc(\Omega),P)$ mod\'elise le lanc\'e de deux d\'es et
$$X : \defapp{\Omega}{\{2,3,\ldots,12\}}{\omega}{\text{la somme des r\'esultats des d\'es lorsque $\omega$ est r\'ealis\'ee.}}$$
\`A quoi correspond l'\'ev\'enement \og j'obtiens une somme \'egale \`a $4$\fg~?
\begin{align*}
	A &=  \{\omega\in \Omega, X(\omega) = 4\}  \\
	  &= X^{-1}(\{4\} ) \\
	  &=: (X = 4) \\
\end{align*}

\nota Si $X : \Omega \too E$ est une variable al\'eatoire, on notera~:
\begin{enumerate}[$\bullet$]
\item $(X=x)$ l'\'ev\'enement $X^{-1}\big(\{x\}\big)$, pour $x\in E$~;
\item $(X\in A)$ l'\'ev\'enement $X^{-1}\big(A\big)$, pour $A\subset E$.
\end{enumerate}
Si de plus $X$ est une v.a.r. (\ie si on a $E\subset \R$), on notera~:
\begin{enumerate}[$\bullet$]
\item $(X\leq x)$ l'\'ev\'enement $X^{-1}\big(]-\infty,x]\big)$~;
\item $(X<x)$ l'\'ev\'enement $X^{-1}\big(]-\infty,x[\big)$~;
\item $(X\geq x)$ l'\'ev\'enement $X^{-1}\big([x,\infty[\big)$~;
\item $(X>x)$ l'\'ev\'enement $X^{-1}\big(]x,+\infty[\big)$.
\end{enumerate}
\aton

\medskip

On a maintenant le vocabulaire pour \'ecrire noir sur blanc la remarque faite dans l'introduction~:


\rmq
La famille des $(X=x)_{x\in X(\Omega)}$ forme un syst\`eme complet d'\'ev\'enements.
\qmr

%\demo
\paragraph{Rappel} ``Tout ce pase bien par image réciproque''

\ie l'image réciproque par $X$ préserve $\begin{cases}
	\cup \\
	\cap
\end{cases}$

\begin{align*}
	\coprod_{x\in X(\Omega)} \{x\} &= X(\Omega) \\
	\text{donc }X^{-1} \left( \coprod_{x\in X(\Omega)} \{x\}  \right) &= X^{-1} \circ X (\Omega) \quad&\text{en appliquant $X^{\from}$} \\
	\text{ie } \coprod_{x\in X(\Omega)} X^{\from}(\{x\} ) &= \{\omega\in \Omega, X(\omega) = X(\Omega) \}  \\
	\text{ie } \coprod_{x\in X(\Omega)} (X = x) &= \Omega \\
\end{align*}
%\cqfd

\nota
Si $F$ est un ensemble et $f : E\too F$ est une application, on pourra noter $f(X)$ la variable al\'eatoire $f\circ X$. En effet, ces gens (les probabilistes) sont des barbares.
\aton

\exx
Reprenons la variable al\'eatoire de l'exemple \ref{Divers}-\ref{JeuTransfert}. On a~:\\\\\\\\\\\\\\\\\\\\
\xxe


\subsection{Loi d'une variable al\'eatoire r\'eelle}

\dfn[Loi]
Soit $X : \Omega \too E$ une variable al\'eatoire. 
On appelle \newdef{loi de $X$} l'application $P_X : \defapp{\pc\big(X(\Omega)\big)}{[0,1]}{A}{P(X\in A)}$
\nfd

\rmq On identifiera fr\'equemment $P_X$ avec son prolongement naturel \`a $\pc(E)$, parfois plus pratique \`a d\'ecrire~:
$$P_X : \defapp{\pc(E)}{[0,1]}{A}{P(X\in A)}.$$
\qmr

\exx Reprenons l'exemple \ref{UnDe}. La loi de $X$ est $\defapp{\pc\big(\{1,\ldots,6\}\big)}{[0,1]}{A^{{}^{{}^{{}^{}}}}}{{}_{........}}$
\xxe\ \\
Dans cet exemple on remarque que $P_X$ est \unemicroligne

\medskip

En g\'en\'eral~:
\thm
Soit $X : \Omega \too E$ une variable al\'eatoire.\\[0.2cm]
Alors $P_X : \pc(X(\Omega)) \too [0,1]$ est une probabilit\'e.\\[0.2cm]
Bien s\^ur, de m\^eme, $P_X : \pc(E) \too [0,1]$ est une probabilit\'e. 
\mht

\demo
\begin{enumerate}
	\item \begin{align*}
			P(X(\Omega) | X) &= P(X \in X(\Omega)) \\
					 &= P(X^{\from}(X(\Omega))) \\
					 &= P(\Omega) \quad&\text{Il est certain que $X\in X(\Omega)$} \\
					 &= 1 \\
	\end{align*}
	 \item  Soient $A \amalg B \in \pc(X(\Omega))$ \begin{align*}	
			 P(A\amalg B|X) &= P(X \in A \amalg B) \\
					&= P(X^{\from}(A\amalg B)) \\
					&= P\left( X^{\from}(A) \amalg X^{\from}(B) \right)  \\
					&= P(X^{\from}(A)) + P(X^{\from}(B)) \\
					&= P(A|X) + P(B|X) \\
	\end{align*}
\end{enumerate}
\cqfd

\attention{En raison du th\'eor\`eme pr\'ec\'edent, on d\'ecrira syst\'ematiquement une loi \`a l'aide du th\'eor\`eme de\break \phantom{de} caract\'erisation, \cad en explicitant uniquement les $P_X\big(\{x\}\big)$ pour $x\in X(\Omega)$.}\ \\

\exx On d\'ecrit les lois des deux variables al\'eatoires de l'exemple \ref{Divers} comme suit~:
\begin{align*}
	\begin{cases}
		P(X(\{1\})) = P(X=1) = \frac{1}{2} \\
		P(X(\{0\} )) = P(X=0) = \frac{1}{2} \\
	\end{cases}
\end{align*}

\begin{align*}
	\begin{cases}
		P(Y(\{-6\} )) = P(X=-6) = \frac{8}{10} = 0.8 \\
		P(Y(\{10\} )) = P(X=10) = \frac{2}{10} = 0.2
	\end{cases}
\end{align*}
\xxe


\section{Lois usuelles}

Dans toute cette section, on consid\`ere une var $X$ (rappel~: une variable al\'eatoire r\'eelle est une variable al\'eatoire qui ne prend que des valeurs r\'eelles).

\medskip

\underline{Rappel}~: les \'ev\'enements de la forme $(X=x)$ sont les \'ev\'enements qui nous int\'eressent lors de l'\'etude de $X$. Je les appelle plus bas les \'ev\'enements "s\'electionn\'es par $X$". 

\medskip

\subsection{Loi uniforme finie}

Elle correspond au cas o\`u les \'ev\'enements s\'electionn\'es par $X$ sont \'equiprobables.

\medskip

\dfn
On dit que $X$ suit la loi uniforme sur $E$ et on note $X\sim \uc(E)$ lorsqu'on a $P_X=P_u$ (sur $E$), \ie lorsqu'on a $\dsp{\forall x\in E,\ P(X=x)=\frac{1}{|E|}}$. Si $E=\{a,a+1,\ldots,b\}$ on note $X\sim\uc(a;b)$.
\nfd

\exs
\begin{enumerate}
	\item $\texttt{random.randint(1, $n$)} \sim \uc(1; n)$
	\item $X : \begin{cases}
			\Omega &\to  \{1, 0\} \\
			\omega &\mapsto \begin{cases}
				1 & \text{ si la pièce réalise face} \\
				2 & \text{ si la pièce réalise pile}
			\end{cases}
	\end{cases}$ 

	Si la pièce est équilibrée alors $X \sim \uc(0; 1)$ 

	\item $X : \begin{cases}
			\Omega &\to  \{1, \ldots, 6\} \\
			\omega &\mapsto \text{la valeur du dé lancé}
	\end{cases}$ 

	Si le dé n'est pas pipé alors $X \sim \uc(1; 6)$ 
\end{enumerate}
\sxe



\subsection{Loi de Bernoulli}

Elle correspond au cas o\`u il n'y a que deux \'ev\'enements s\'electionn\'es par $X$~: on parle de "succ\`es" pour $(X=1)$ et d'"\'echec" pour $(X=0)$.

\medskip

\renewcommand{\pet}{p}
\renewcommand{\cul}{q}

\dfn
Soit $\pet\in[0,1]$. On dit que $X$ suit la loi de Bernoulli de param\`etre $\pet$ et on note $X\sim \bc(\pet)$ lorsqu'on a $X(\Omega)\subset\{0,1\}$ et $P(X=1)=\pet$, donc $P(X=0)=1-\pet=\cul$.
\nfd

\exs

\begin{enumerate}
	\item $\bc(\frac{1}{2}) \sim \uc(0, 1)$
	\item Une pièce truquée tombe sur face 3 fois sur 4. $X : \Omega \to \{0, 1\} = \omega \mapsto \begin{cases}
			1 &\text{ si la pièce donne face} \\
			0 &\text{ si la pièce donne pile}
		\end{cases} \sim \bc(\frac{3}{4})$.
	\item $Y:\begin{cases}
			\Omega&\to \{-6, 10\} \\
			\omega &\mapsto  \begin{cases}
				10 &\text{ si le dé donne 5 ou 6} \\
				-6 &\text{ sinon}
			\end{cases}
	\end{cases}$ ne \emph{suit pas} une $\bc$:  $\{-6, 10\} \neq \{0, 1\} $.

	Mais $Y = f(X)$ avec $X \sim \bc(\frac{1}{3})$
	où $X: \begin{cases}
		\Omega&\to \{0, 1\} \\
		\omega &\mapsto  \begin{cases}
			1 &\text{ si le dé donne 5 ou 6} \\
			0 &\text{ sinon}
		\end{cases}
	\end{cases}$ et $f : \begin{cases}
		\{-6, 10\} &\to \{0, 1\} \\
		-6 &\mapsto 0 \\
		10 &\mapsto 1
	\end{cases}$. 
\end{enumerate}

\sxe

\thm
Une v.a.r. suit une loi de Bernoulli \ssi c'est une fonction %caract\'eristique
 indicatrice.\\
Autrement dit~: $\bigg(\exists \pet\in[0,1],\ X\sim \bc(\pet)\bigg) \Leftrightarrow \bigg(\exists A\in\pc(\Omega),\ X=\indic{A}\bigg)$.
\mht

\demo
\begin{align*}
	\exists \pet\in [0, 1], X \sim \bc(\pet) \\
	\iff \exists \pet \begin{cases}
		X(\Omega) &= \{0, 1\}  \\
		P(X=1) &= \pet \\
		P(X=0) &= 1-\pet \\
	\end{cases} \\
	\iff \exists \pet \begin{cases}
		X(\Omega) &= \{0, 1\}  \\
		P(X=1) &= \pet \\
	\end{cases}
\end{align*}

Procédons par double implication	

\paragraph{\fbox{$\implies$}}

On suppose qu'il existe $\pet \in [0, 1]$ tel que 

 $\begin{cases}
	 X(\Omega) &= \{0, 1\}  \\
	 P(X=1) &= \pet \\
 \end{cases}$ 

 Posons $A = (X=1) = X^{\from}(\{1\} )$

 \begin{align*}
	 \indic{A} &= \begin{cases}
		 \Omega &\to  \{0, 1\} \\
		 \omega &\mapsto \begin{cases}
			 0 &\text{ si $\omega \in A$ } \\
			 1 &\text{ sinon}
		 \end{cases}
	 \end{cases} \\
	 &= \begin{cases}
		 \Omega &\to  \{0, 1\}  \\
		 \omega &\mapsto \begin{cases}
			 1 &\text{ si $X(\omega) = 1$} \\
			 0 &\text{ si $X(\omega) = 0$}
		 \end{cases}
	 \end{cases} = X \\
 \end{align*}

 \paragraph{\fbox{$\impliedby$}}

 Posons $\pet = P(A)$

 %TODO il me manque un truc là

  \begin{align*}
	  P(X=1) &= P(\indic{A}=1) \\
		 &= P(A) \\
		 &= \pet \\
 \end{align*}


\cqfd


\subsection{Loi binomiale}

Elle correspond au cas o\`u les \'ev\'enements s\'electionn\'es par $X$ correspondent \`a l'obtention de $0$, $1$, $\ldots$, ou $n$ succ\`es lors de la r\'ealisation de $n$ exp\'eriences de Bernoulli ind\'ependantes. (Le th\'eor\`eme \ref{SommeDeBernoulliIndependantes} que l'on verra plus bas permet de donner une traduction math\'ematique \`a cette phrase.)

\medskip

\dfn
Soit $n\in\N$ et $\pet\in[0,1]$. On dit que $X$ suit la loi binomiale de param\`etres $n$ et $\pet$ et on note $X\sim\bc(n,\pet)$ lorsqu'on a $X(\Omega)\subset\{0,1,\ldots,n\}$ et $\forall k\in\{0,\ldots,n\},\ P(X=k)=\binom{n}{k}\pet^k\cul^{n-k}$ o\`u bien s\^ur $\cul=1-\pet$.
\nfd

\exs 

\begin{enumerate}
	\item On lance $n$ fois une pièce \emph{équilibrée}  et on compte le nombre de fois qu'on a obtenu face. $X \sim \bc(n, \frac{1}{2}) $
	\item On lance un dé $n$ fois et on compte le nombre de 6. On a $X\sim\bc(n, \frac{1}{6})$
\end{enumerate}

\sxe


\subsection{Exercice classique~: d\'ecrire la loi d'une v.a.r. donn\'ee}

\textbf{\underline{Point m\'ethode~:}}\begin{enumerate}
\item D\'eterminer $X(\Omega)$ (les valeurs prises par $X$)~;
\item D\'eterminer les $P(X=x)$ pour $x\in X(\Omega)$~;
\item Conclure \`a l'aide du th\'eor\`eme de caract\'erisation.
\end{enumerate}
On peut se rassurer en v\'erifiant que $\sum\limits_{x\in X(\Omega)}P(X=x) ~=~1$.


\exx \label{GeometriqueTronquee} On lance au plus $n$ fois un d\'e en s'arr\^etant d\`es qu'on obtient un $6$. On note $X$ la variable al\'eatoire \'egale \`a $k$ si on a obtenu $6$ au bout de $k$ lanc\'es, et \`a $0$ si on n'a pas obtenu $6$. D\'ecrivons la loi de $X$.

\begin{enumerate}
	\item $X(\Omega) = \{ \underbrace{0}_{\text{on a pas obtenu 6}}, 1, 2, \ldots, n\} $
	\item \begin{align*}
			P(X=0) &= \left( \frac{5}{6} \right) ^{n} \\
			P(X=1) &= \frac{1}{6} \\
			       &\vdots \\
			P(X=k) &= \left( \frac{5}{6} \right) ^{k-1}  \cdot \frac{1}{6} \quad&\text{pour $k\neq 0$} \\
			       &\vdots \\
			P(X=n) &= \left( \frac{5}{6} \right) ^{n-1}  \cdot \frac{1}{6} \\
	\end{align*}

	D'après le théorème de caractérisation, ceci détermine la loi de $X$ $P(X)$.

	\rmq
	\begin{align*}
		\sum_{k=0}^n P(X=k) &= 1 \\
		\iff P(X=0) + \sum_{k=1}^{n} P(X=k) &= 1 \quad&\text{d'après Chasles} \\
			\iff \left( \frac{5}{6} \right) ^{n} + \frac{1}{6} \frac{1-\left( \frac{5}{6} \right) ^{n}}{1 - \frac{5}{6}} &= 1 \\
				\iff 1&= 1 \\
	\end{align*}
	\qmr
	Donc ok.
\end{enumerate}

\xxe



\section{Esp\'erance. Variance.}

\medskip

Dans toute cette section, $X$ est une v.a.r., et donc $X(\Omega)\subset\R$.

\medskip

\subsection{Esp\'erance}

C'est la moyenne des valeurs prises par $X$, pond\'er\'ees par les probabilit\'es qu'elles soient prises.

\dfn[Esp\'erance]
On appelle \newdef{esp\'erance de $X$} le nombre $\dsp{E(X)=\!\!\!\sum\limits_{x\in X(\Omega)}\!\! P(X=x)\,x}$.
\nfd

\medskip

\textbf{Terminologie~:} lorsqu'on a $E(X)=0$, on dit que \newdef{$X$ est centr\'ee}.

\medskip

\exs
\begin{enumerate}
\item $X$ compte le nombre de "pile" apr\`es $2n$ lanc\'es d'une pi\`ece \'equillibr\'ee.\\\\
	On a $E(X)=\sum_{k=0}^{2n} P(X=k)k$ car $X(\Omega) = \{0, \ldots, 2n\} $\\

	Mieux: $X \sim \bc(2n, \frac{1}{2})$ donc $P(X=k) = \begin{pmatrix} 2n \\k \end{pmatrix}  \times \left( \frac{1}{2} \right) ^{2n} $

	On a \begin{align*}
		E(X) &= \frac{1}{2^{2^n}} \sum_{k=0}^{2n} k \begin{pmatrix} 2n \\ k \end{pmatrix} \\
		&= \frac{1}{2^{2^n}} \sum_{k=1}^{2n} 2n \begin{pmatrix} 2n-1\\k-1 \end{pmatrix}  \\
		&= \frac{2n}{2^{2^n}} \sum_{k=0}^{2n-1} \begin{pmatrix} 2n-1 \\ k \end{pmatrix}  \\
		&= \frac{2n}{2^{2^n}} 2^{2n-1} \\
		&= n \\
	\end{align*}

\item $X$ compte le nombre de "pile" apr\`es $2n+1$ lanc\'es d'une pi\`ece \'equillibr\'ee.\\\\
On a $E(X)= n + \frac{1}{2}$\\
\end{enumerate}
\sxe

\attention{L'esp\'erance peut tr\`es bien ne pas être une valeur prise par $\Omega$}

\renewcommand{\d}{\mathrm{d}}

\exx Reprenons l'exemple \ref{GeometriqueTronquee}.
\begin{align*}
	E(X) &= \sum_{k=0}^{n} P(X=k)k \\
	     &= \sum_{k=1}^{n} P(X=k)k \quad&\text{car pour $k=0$, $P(X=k)k=0$} \\
	     &= \frac{1}{6} \sum_{k=1}^{n} k \left( \frac{5}{6} \right) ^{k-1} \\
	     &= \frac{1}{6} \sum_{k=0}^{n} k \left( \frac{5}{6} \right) ^{k-1} \quad&\text{d'après Chasles} \\
	     &= \frac{1}{6} \sum_{k=0}^{n} k X^{k-1} \quad&\text{en posant $X = \frac{5}{6}$} \\
	     &= \frac{1}{6} \sum_{k=0}^{n} \frac{\d}{\d x} X^k \\
	     &= \frac{1}{6} \frac{\d}{\d x} \sum_{k=0}^{n} X^k \\
	     &= \frac{1}{6} \frac{\d}{\d x} \left( \frac{1-X^{n+1}}{1-X} \right)  \\
	     &= \frac{1}{6} \left( -\frac{1}{(1-x)^2} - \frac{(n+1)x^n(1-x) + x^{n+1}}{(1-x)^2} \right) \\
	     &= \frac{1/6}{(1-x)^2} \left( 1-(n+1)x^n + -(n+1)x^{n+1} -  x^{n+1} \right)  \\
	     &=  \frac{1/6}{(1-x)^2} \left( 1-(n+1)x^n + n x^{n+1} \right)  \\
	     &= 6 \left( 1 - \underbrace{(n+1)\left( \frac{5}{6} \right) ^{n} + n \left( \frac{5}{6} \right) ^{n+1} }_{\sim 0} \right)  \quad&\text{car $x = \frac{5}{6}$} \\
\end{align*}

\xxe

\thm[Propri\'et\'es de l'esp\'erance]
\ \\[-0.7cm]
\begin{enumerate}
\item On a~: $\dsp{E(X)=\sum_{\omega\in\Omega} X(\omega) P\big(\{\omega\}\big)}$.
\item L'esp\'erance est~:
\begin{itemize}
\item lin\'eaire~: $\forall X, Y : \Omega \too \R,\ \forall \lambda,\mu \in \R^2,\ E(\lambda X+\mu Y) = \lambda E(X) +\mu E(Y)$~;
\item positive~: $\forall X : \Omega \too \R,\ X\geq 0 \Rightarrow E(X)\geq 0$~;
\item croissante~: $\forall X, Y : \Omega \too \R,\ X\leq Y \Rightarrow E(X)\leq E(Y)$.\bigsubline
\end{itemize}
\item Si $X$ est constante, \ie il existe $m$ tel que $X(\Omega)=\{m\}$, alors $E(X)=m$.
\end{enumerate}
\mht

\demo 

\begin{enumerate}
	\item

\begin{figure}[h]
	\centering
	\includegraphics[width=0.8\textwidth]{fig_patates.png}
	\\
	{\it Note: $P(\omega) := P(\{\omega\} )$ par abus} 
\end{figure}

Pour rappel $(X=x)_{x\in X(\Omega)}$ forme un sce \ie $\coprod_{x\in X(\Omega)} (X=x) = \Omega$

Donc \begin{align*}
	\sum_{\omega\in \Omega} X(\omega) P(\{\omega\} ) &= \sum_{x\in X(\Omega)} \sum_{\omega \in (X = x)} X(\omega) P(\{\omega\} )   \\ 
							 &= \sum_{x\in X(\Omega)} \sum_{\omega \in (X=x)} x P(\{\omega\})   \\
							 &= \sum_{x\in X(\Omega)} x \sum_{\omega \in (X=x)} P(\{\omega\})   \\
							 &= \sum_{x\in X(\Omega)} x P \left( \coprod_{\omega\in (X=x)} \omega \right)     \\
							 &= \sum_{x\in X(\Omega)} x P(X=x) \\
\end{align*}


\item \begin{align*}
		E(\lambda X + \mu Y) &= \sum_{\omega\in \Omega} (\lambda X + \mu Y)(\omega) P(\{\omega\} )  \\
				     &= \sum_{\omega\in \Omega} (\mu X(\omega) + \mu X(\omega)) P(\{\omega\} ) \\
				     &= \sum_{\omega\in \Omega} \lambda X(\omega) P(\{\omega\} ) + \mu Y(\omega) P(\{\omega\} ) \\
				     &= \lambda \sum_{\omega\in \Omega} X(\omega) P(\{\omega\} ) + \mu \sum_{\omega\in \Omega} Y(\omega) P(\{\omega\} ) \\
\end{align*}

\item \begin{align*}
		E(X) &= \sum_{x\in X(r)} \underbrace{x}_{\ge 0} \underbrace{P(X=x)}_{\in [0, 1]} \ge 0 \quad&\text{comme somme de positifs}  \\
\end{align*}

\item \begin{align*}
		Z &:= Y-X &\ge 0 \\
		\text{ donc } E(Y-X) &\ge 0 \quad&\text{par positivité} \\
		\text{ ie } E(Y)-E(X) &\ge 0 \quad&\text{par linéarité} \\
		\text{ ie } E(X) &\le  E(Y)
\end{align*}

\item \begin{align*}
		X(\Omega) &= \{\mu\}  \\
		\text{donc } E(X) &= \sum_{x\in X(r)} x P(X=x)  \\
				  &= \mu P(X=\mu) \\
				  &= \mu \cdot 1 \\
				  &= \mu \\
\end{align*}
	\end{enumerate}

\cqfd

\begin{appl}
Si $E(X)=\mu$ alors $X-E(X)$ est une variable al\'eatoire  .

$X-E(X)$ est \emph{centrée} (\ie d'espérance nulle)
\end{appl}

\medskip

\subsection{Variance}

La variance permet de mesurer \`a quel point $X$ est (ou pas) concentr\'ee autour de son esp\'erance.\\
On dit que $V(X)$ est un indicateur de dispersion, alors que $E(X)$ est un indicateur de position.


\dfn[\!\!Variance]
On appelle \newdef{variance de $X$} le nombre $\dsp{V(X)=E\big((X-E(X))^2\big)}$.
\nfd

\rmq
On met un carré car:
\begin{itemize}
	\item ça permet d'augmenter les gros écarts et diminuer les petits écarts (erreurs de mesure, e.g.)
	\item ça devient presque un produit skyler
\end{itemize}
\qmr

\rmq Par positivit\'e de l'esp\'erance, on a toujours $V(X)\geq 0$. Ceci permet de d\'efinir \newdef{l'\'ecart-type de $X$} $\sigma(X)=\sqrt{V(X)}$. \qmr

\bigskip

\textbf{Terminologie~:} lorsqu'on a $V(X)=1$ (\ie $\sigma(X)=1$), on dit que \newdef{$X$ est r\'eduite}.

\medskip

\exx \label{VarianceUnDe} D\'eterminons la variance de la variable al\'eatoire de l'exemple \ref{UnDe}.
On reprend $X: \begin{cases}
	\Omega&\to \{1, \ldots, 6\} \\
	\omega &\mapsto \text{la valeur du dé}
\end{cases}$ 

\rmq
C'est un cas particulier de la loi uniforme
\qmr

\begin{align*}
	E(X) &= \sum_{k=1}^{6} k \underbrace{P(X=k)}_{X} \\
	&= \frac{1}{6} \sum_{k=1}^{6} k\\
	&= \frac{1}{6} \frac{6 \cdot 7}{2} \\
	&= 3.5 \\
\end{align*}

Notons $Y = (X-E(X))^2$

\begin{align*}
	V(X) &= E(Y) \\
	     &= \sum_{y\in Y(\Omega)} y P(Y=y) \\
	     &= \frac{1}{3} \left( \frac{1}{2} \right) ^2 + \frac{1}{3} \left( \frac{3}{2} \right) ^2 + \frac{1}{3} \left( \frac{5}{2} \right) ^2 \\
	     &= \frac{1+9+25}{12} = \frac{35}{12} \\
\end{align*}

\begin{align*}
	Y(\Omega) &= \{ \underbrace{\left( \frac{1}{2} \right) ^{2}}_{X \in \{3, 4\} }, \underbrace{\left( \frac{3}{2} \right) ^2}_{X\in \{2, 5\} }, \underbrace{\left( \frac{5}{2} \right) ^2}_{X\in \{1, 6\} } \}  \\
	Y(Y = \left( \frac{1}{2} \right) ^2 ) &= \frac{1}{3} \\
	Y(Y = \left( \frac{3}{2} \right) ^2 ) &= \frac{1}{3} \\
	Y(Y = \left( \frac{5}{2} \right) ^2 ) &= \frac{1}{3} \\
\end{align*}
\xxe

\thm[Propri\'et\'es de la variance]
\ \\[-0.8cm]
\begin{enumerate}
\item Formule de K\oe nig~: $\dsp{V(X)=E(X^2) - E(X)^2}$.
\item Si $a, b\in \R$ alors $V(aX+b)=a^2V(X)$.
\item Si $X$ est constante, alors $V(X)=0$.
\end{enumerate}
\mht

\demo 

\begin{enumerate}
	\item 
\begin{align*}
	V(X) &= E((X-E(X))^2) \\
	     &= E(X^2- 2E(X)X + E(X)^2) \quad&\text{en développant} \\
	     &= E(X^2) - 2E(X)E(X) + E(E(X)^2) \quad&\text{linéarité de $E$} \\
	     &= E(X^2) - 2E(X)^2 + E(X)^2 \\
	     &= E(X^2) - E(X)^2 \\
\end{align*}
\item \begin{align*}
		V(aX+b) &= E((aX+b - E(aX+b))^2) \\
			&= E((aX+b-(aE(X)+b)^2) \\
			&= E((a(X-E(X)))^2) \\
			&= E(a^2(X-E(X))^2) \\
			&= a^2 V(X) \\
\end{align*}
\item 
Soit $\mu$ une constante.
\begin{align*}
	V(\mu) &= E((\mu-E(\mu))^2) \\
	       &= E((\mu-\mu)^2) \\
	       &= E(0^2) \\
	       &= 0 \\
\end{align*}
\end{enumerate}

\cqfd

On peut retrouver la variance de l'exemple \ref{VarianceUnDe} avec K\oe nig~: $V(X) = E(X^2) - E(X)^2$

\begin{align*}
	V(X) &= E(X^2)-E(X)^2 \\
	X^2(\Omega) &= \{1^2, 2^2, \ldots, 6^2\}  \\
	P(X=x) &= \frac{1}{6} \quad&\text{pour $x\in \{1^2, \ldots, 6^2\} $} \\
\end{align*}

\begin{align*}
	X(\Omega) &= \text{les valeurs prises par $X$} \\
	X^2(\Omega) &= \text{les valeurs prises par $X^2$} \\
\end{align*}

\begin{align*}
	E(X^2) &= \frac{1}{6} \sum_{k=1}^{6} k^2 = \frac{1}{6} \frac{6 \cdot 7 \cdot 13}{6} = \frac{7 \cdot 13}{6} \\
	E(X)^2 &= \left( \frac{7}{2} \right) ^2 = \frac{7 \cdot 7}{4} \\
\end{align*}

\begin{align*}
	V(X) &= \frac{7 \cdot 13}{6} - \frac{7 \cdot 7}{4} \\
	&= \frac{7 \cdot 26-7 \cdot 21}{12} \\
	&= \frac{35}{12} \\
\end{align*}

\begin{appl}
La v.a.r. $\dfrac{X-E(X)}{\sigma(X)}$ est toujours une variable al\'eatoire centrée réduite.
\end{appl}

\medskip

\subsection{Th\'eor\`eme de transfert}

\medskip

On remarque en calculant $V(X)$ avec K\oe nig qu'on a toujours $\dsp{E(X^2)=\sum_{x\in X(\Omega)} x^2 P(X=x)}$. \\La formule de transfert g\'en\'eralise ceci.

\thm[Formule de transfert]
Soit $Z : \Omega \too E$ une variable al\'eatoire (non n\'ecessairement r\'eelle) et $f: E \too \R$. Alors~: $$E(f(Z))=\sum\limits_{z \in Z(\Omega)} f(z) P(Z=z)$$
\mht

J'ai not\'e $Z$ la variable al\'eatoire de l'\'enonc\'e car dans cette section $X$ est suppos\'ee \^etre une v.a.r., mais on a en particulier pour $f : \R\too\R$~: $E(f(X))=\!\!\!\!\sum\limits_{x \in X(\Omega)}\!\! f(x) P(X=x)$.

\demo 

$X = f\circ Z$

\begin{figure}[h]
	\centering
	\includegraphics[width=0.8\textwidth]{fig_patates_2.png}
\end{figure}

$(Z=z)_{z\in Z(\Omega)}$ forme un sce

\begin{align*}
	\coprod_{z\in Z(\Omega)} (Z=z) &= \Omega \\
	\text{donc } E(f(Z)) &= \sum_{\omega\in \Omega} f(Z(\omega)) P(\{\omega\} )  \\
			     &= \sum_{z\in Z} \sum_{\omega\in (Z=z)} f(Z(\omega)) P(\{\omega\} ) \quad&\text{Chasles itéré}  \\
			     &= \sum_{z\in Z(\Omega)} \sum_{\omega\in (Z=z)} f(z) P(\{\omega\} ) \quad&\text{par définition} \\
			     &= \sum_{z\in Z(\Omega)}f(z) \sum_{\omega\in (Z=z)} P(\{\omega\} ) \\
			     &= \sum_{z\in Z(\Omega)} f(z) P(Z=z) \quad&\text{propriété des probabilités} \\
\end{align*}

\cqfd

\begin{appl}
On peut en particulier calculer ainsi tous les \newdef{moments} de $f$, \cad les $E(X^k)$ avec $k\in\N$~:
\begin{itemize}[$\bullet$]
	\item $E(X^2)$ est le moment d'ordre $2$ ~;
\item $E(X^3)$ est le moment d'ordre $3$ $= \sum_{x\in X(\Omega)} x^3 P(X=x)$~;
\item etc.
\end{itemize}
\end{appl}

\medskip

\subsection{Deux in\'egalit\'es fondamentales}

\medskip

Les deux in\'egalit\'es que l'on verra dans cette sous-section r\'epondent \`a deux interrogations qui m'aident \`a les retenir.

\medskip

\textbf{Premi\`ere interrogation~:} on tire au hasard, uniform\'ement, un individu dans une population d'actifs. \\Quelle est la probabilit\'e qu'il gagne au moins $7$ fois plus que le salaire moyen de cette population~?

$X: \begin{cases}
	\Omega &\to \R \\
	\omega&\mapsto \text{le salaire de $\omega$}
\end{cases}$ 

 \begin{align*}
	 P(X \ge 7 E(X)) \le  \frac{1}{7}
\end{align*}

\thm[In\'egalit\'e de Markov]
Supposons $X$ {\bf positive}. Soit $\alpha>0$. Alors $\dsp{P(X\geq \alpha) \leq \frac{E(X)}{\alpha}}$.
\mht

\demo
L'inégalité équivaut à 
\begin{align*}
	E(X) &\ge \alpha P(X\ge \alpha)
\end{align*}

Or  \begin{align*}
	E(X) &= \sum_{x\in X(\Omega)} x P(X=x) \\
	     &= \sum_{x\in X(\Omega) \land x < \alpha} xP(X=x) + \sum_{x\in X(\Omega) \land x \ge  \alpha} xP(X=x)\\
	     &\ge \sum_{x\in X(\Omega) \land x \ge \alpha} xP(X=x) \quad&\text{car la somme de gauche a seulement des termes positifs}\\
	     &\ge \alpha\sum_{x\ge \alpha} P(X=x)
	     &= \alpha P(X\ge \alpha) \\
\end{align*}
\cqfd


\textbf{Seconde interrogation~:} on a vu que $P(X=E(X))$ peut \^etre nulle, mais quelle est la probabilit\'e que $X$ soit {\bf proche} de son esp\'erance~? \Cad qu'on ait $E(X)-\eps<X<E(X)+\eps$~?% L'in\'egalit\'e de Bienaym\'e-Tchebychev y r\'epond (partiellement).


\thm[In\'egalit\'e de Bienaym\'e-Tchebychev]
Soit $\eps>0$. Alors $\dsp{P\big(|X-E(X)|\geq \eps\big)\leq \frac{V(X)}{\eps^2}}$.
\mht
En passant par l'\'ev\'enement contraire on a donc $\dsp{P\big(%|X-E(X)|<\eps
E(X)-\eps<X<E(X)+\eps\big)\geq 1-\frac{V(X)}{\eps^2}}$~: cette probabilit\'e est donc d'autant plus grande que $\eps$ est grand (ce qui n'est pas une surprise) et aussi d'autant plus grande que $V(X)$ est petite (ce qui n'est pas une surprise non plus).

\demo
Notons $Y = (X-E(X))^2 \ge 0$

 \begin{align*}
	 P( \underbrace{|X-E(X)|\ge \epsilon}_{} &= P((X-E(X))^2 \ge \epsilon^2) \\
						 &\le \frac{E(Y)}{\epsilon^2} \quad&\text{Markov avec $Y\ge 0$} \\
						 &= \frac{E((X-E(X))^2)}{\epsilon^2} \\
						 &= \frac{V(X)}{\epsilon^2} \\
\end{align*}
\cqfd

\medskip

\subsection{Esp\'erance et variance des lois usuelles}

\rmq Si $X\sim\uc(a;b)$, l'esp\'erance et la variance de $X$ ne sont pas explicitement au programme~; mais on les verra en TD.

\begin{align*}
	X(\Omega) \subset \{0, 1\} \quad \begin{cases}
		P(X=0) &= 1-\pet = \cul \\
		P(X=1) &= \pet \\
	\end{cases}
\end{align*}
\begin{itemize}[$\bullet$]
	\item $E(X)=\sum_{x\in X(\Omega)}P(X=x)x = 0\cul + 1\pet = \pet$
	\item $V(X)=E(X^2)-E(X)^2$  or $X^2=X$
		donc $V(X) = E(X)-E(X)^2 = \pet - \pet^2 = \pet(1-\pet)=\pet\cul$
\end{itemize}
\qmr

\medskip

\thm[Cas d'une loi de Bernoulli]
On suppose $X\sim \bc(\pet)$ pour un certain $\pet\in[0,1]$ (on note $\cul=1-\pet$). Alors~:
\begin{align*}
	X(\Omega) &\subset \{0, \ldots, n\} \\
	P(X=k)&= \begin{pmatrix} n\\k \end{pmatrix} \pet^k \cul^{n-k} \\
\end{align*}
\begin{itemize}[$\bullet$]
	\item $E(X)=n\pet$
	\item $V(X)=n\pet\cul$
\end{itemize}
\mht

\demo
\cqfd

\thm[Cas d'une loi Binomiale]
On suppose $X\sim \bc(n,\pet)$ pour un certain $(n,\pet)\in\N\times[0,1]$ (on note $\cul=1-\pet$). Alors~:
\begin{itemize}[$\bullet$]
\item $E(X)=np$
\item $V(X)=npq$ 
\end{itemize}
\mht

\demo

\begin{align*}
	E(X) &= \sum_{k=0}^{n} kP(X=k) \\
	&= \sum_{k=0}^{n} \begin{pmatrix} n\\k \end{pmatrix} p^k q^{n-k} \\
	&= \sum_{k=1}^{n} n \begin{pmatrix} n-1\\k-1 \end{pmatrix} p^k q^{n-k} \\
	&= n \sum_{k=1}^{n} \begin{pmatrix} n-1\\k-1 \end{pmatrix} p^k q^{(n-1) - (k-1)} \\
	&= np \sum_{i=0}^{n-1} \begin{pmatrix} n-1\\i \end{pmatrix} p^i q^{(n-1)-i} \\
	&= np \underbrace{(p+q)^{n-1} }_{1} \\
	&= np \\
\end{align*}

\begin{align*}
	V(X) &= E(X^2)-E(X)^2 \\
	     &= \sum_{k=0}^{n} k^2P(X=k) - \left(\sum_{k=0}^{n} k P(X=k)\right)^2 \quad&\text{transfert} \\
	     &= \sum_{k=0}^{n} k^2 \begin{pmatrix} n\\k \end{pmatrix} p^k q^{n-k} - n^2p^2 \\
	     &= \sum_{k=0}^{n} nk \begin{pmatrix} n-1\\k-1 \end{pmatrix} p^k q^{n-k} - n^2p^2 \\
	     &= n \sum_{k=0}^{n} (k-1)\begin{pmatrix} n-1\\k-1 \end{pmatrix} p^k q^{n-k} + n \sum_{k=0}^{n} \begin{pmatrix} n-1\\k-1 \end{pmatrix} p^k q^{n-k} - n^2p^2 \\
	     &= n \sum_{k=0}^{n} (n-1) \begin{pmatrix} n-2\\k-2 \end{pmatrix} p^k q^{n-k} + np - n^2p^2 \\
	     &= n (n-1) p^2 \underbrace{\sum_{k=2}^{n} \begin{pmatrix} n-2\\k-2 \end{pmatrix} p^{k-2} q^{(n-2)-(k-2)}}_{(p+q)^{n-2} = 1}  + np - n^2p^2 \\
	     &= \cancel{n^2p^2} - np^2+np\cancel{-n^2p^2} \\
	     &= npq \\
\end{align*}

\cqfd

\section{Ind\'ependance}

\medskip

\subsection{Ind\'ependance de deux variables al\'eatoires}

\medskip

{\bf Id\'ee~:} Deux variables al\'eatoires sont ind\'ependantes lorsque les \'ev\'enements qu'elles s\'electionnent sont tous ind\'ependants entre eux.

\medskip

\Propdef
Soient $X : \Omega \too E$ et $Y : \Omega \too F$ deux variables al\'eatoires.\subline \\Les propositions suivantes sont \'equivalentes~; lorsqu'elles sont r\'ealis\'ees on dit que \newdef{$X$ et $Y$ sont ind\'ependantes}~:
\begin{enumerate}
\item $\forall x \in E,\ \forall y\in F,\ P(X=x \text{ et } Y=y) = P(X=x)P(Y=y)$~;
\item $\forall A \subset E,\ \forall B\subset F,\ P(X\in A \text{ et } Y\in B) = P(X\in A)P(Y\in B)$.
\end{enumerate}
\FinPropdef
La premi\`ere proposition est plus facile \`a obtenir~; on la privil\'egiera pour {\bf montrer} que deux variables al\'eatoires sont ind\'ependantes. 
La seconde proposition exprime un peu plus (en apparence)~; on la privil\'egiera si on veut {\bf utiliser} que deux variables al\'eatoires sont ind\'ependantes. 

\demo

{\fbox{$2 \implies 1 $}}
On prend le cas particulier \begin{align*}
	\begin{cases}
	A&= \{x\}  \\
	B&= \{y\}  \\
	\end{cases}
\end{align*}

\fbox{$1 \implies 2 $}


Soit $(A, B) \in \mathcal{P}(E) \times \pc(F)$

\begin{align*}
	A &= \coprod_{a\in A} \{a\}  \\
	B &= \coprod_{b\in B} \{b\}  \\
	(X\in A) \cap (Y\in B) &= X^{-1}(A) \cap Y^{-1}(B) \\
			       &= X^{-1}\left( \coprod_{a\in A} \{a\}  \right) \cap Y^{-1}\left( \coprod_{b\in B} \{b\}  \right)   \\
			       &= \left( \coprod_{a\in A} X^{-1}(\{a\} ) \right) \cap \left( \coprod_{b\in B} Y^{-1}(\{b\} ) \right) \quad&\text{$X^{-1}(\amalg) = \amalg X^{-1}$} \\
			       &= \coprod_{(a, b)\in A \times B} X^{-1}(\{a\} )\cap Y^{-1}(\{b\} ) \quad&\text{par distributivité de $\cap $ sur $\amalg$} \\
			       &= \coprod_{(a, b)\in A \times B} \left( (X=a) \cap (Y=a) \right)  \\
\end{align*}

D'où \begin{align*}
	P((X\in A) \cap (Y\in B)) &= \sum_{(a, b)\in A \times B} P((X=a)\cap (Y=b)) \quad&\text{prop 2 des probas} \\
				  &= \sum_{(a, b)\in A \times B} P(X=a)P(Y=b) \quad&\text{d'après 1.} \\
				  &= \left( \sum_{a\in A}P(X=a) \right) \left( \sum_{b\in B} P(Y=b) \right) \quad&\text{fubini séparé} \\
				  &= P(X\in A) P(Y\in B) \\
\end{align*}

\cqfd

\exx {\it Un exemple d\'ej\`a vu~:} on lance deux d\'es, on note $X$ le num\'ero donn\'e par le premier et $Y$ le num\'ero donn\'e par le second. {\bf On suppose seulement qu'on a $\pmb{(X,Y)\sim\uc(\{1,\ldots,6\}^2)}$.} Montrer qu'on a~:
\begin{itemize}[$\bullet$]
\item $X$ et $Y$ sont ind\'ependantes ~;
\item $X\sim \uc(\{1,\ldots,6\})$~;
\item $Y\sim \uc(\{1,\ldots,6\})$.
\end{itemize}
Et donc finalement l'\'equiprobabilit\'e des tirages de couples implique non seulement l'\'equiprobabilit\'e des tirages de chaque coordonn\'ee {\bf mais aussi} l'ind\'ependance des coordonn\'ees entre elles.

Soient $i, j\in \llbracket 1, 6 \rrbracket$

On veut montrer que $P(X, Y = i, j) = P(X=i)P(Y=j); P(X=i) = P(X=j) = \frac{1}{6}$ 

par hypothèse

\begin{align*}
	P(X, Y = i, j) &= \frac{1}{36} \\
\end{align*}

\begin{align*}
	P(X=i) &= P(X, Y \in \{i\}  \times \llbracket 1, 6 \rrbracket) \\
	       &= P\left( \coprod_{k=1}^6 (X,Y = i, k) \right)  \\
	       &= \sum_{k=1}^{6} \underbrace{P(X, Y = i, k)}_{\frac{1}{36}} \\
	       &= \frac{6}{36} = \frac{1}{6} \\
\end{align*}

De même, 
\begin{align*}
	P(Y=j) &= P\left( \coprod_{k=1}^6 X, Y = k, j \right)  \\
	       &= \sum_{k=1}^{6} \underbrace{P(X, Y = k, j)}_{\frac{1}{36}} \\
	       &= \frac{6}{36} = \frac{1}{6} \\
\end{align*}


\xxe

\begin{contrexemple}
On dispose de $r$ boules rouges et $b$ boules bleues, chacune rang\'ee dans sa boite individuelle (il y a donc $r+b$ boites diff\'erentes, chacune contenant une boule). Dimitri Matias-Pujante sort les $r+b$ boules de leurs boites et joue avec, puis remet chaque boule dans une boite al\'eatoirement, sans se pr\'eoccuper de les remettre dans la bonne boite. On note alors $R$ le nombre de boules rouges rang\'ees \`a leur place et $B$ le nombre de boules bleues  rang\'ees \`a leur place. Alors $R$ et $B$ ne sont pas ind\'ependantes. En effet~:\\\\\\\\

\begin{align*}
	\begin{cases}
		R(\Omega) &= \llbracket 0, r\rrbracket \\
		B(\Omega) &= \llbracket 0, b\rrbracket \\
	\end{cases}
\end{align*}

\begin{align*}
	\underbrace{P(R=r \cap B=b-1) }_{=0} &\neq \underbrace{\underbrace{P(R=r)}_{\neq 0} \underbrace{P(B=b-1)}_{\neq 0}}_{\neq 0} \\
\end{align*}
\end{contrexemple}

\begin{appl}
Soient $n_1, n_2\in\N$ et $\pet \in [0,1]$. Soient $X_1$ et $X_2$ deux variables al\'eatoires telles que $X_1\sim \bc(n_1,\pet)$, $X_2\sim \bc(n_2,\pet)$, {\bf et $\pmb{X_1}$ et $\pmb{X_2}$ sont ind\'ependantes}. D\'eterminons la loi de $X_1+X_2$.\newpage

Montrons  $X_1+X_2\sim\bc(n_1+n_2, \pet)$

\begin{align*}
	(X_1+X_2)(\Omega) &\subset X_1(\Omega) + X_2(\Omega) \\
			  &\subset \llbracket 0, n_1+n_2 \rrbracket
\end{align*}

Soit $k\in \llbracket 0, n_1+n_2\rrbracket$

\begin{align*}
	P(X_1+X_2=k) &= P\left( \coprod_{i=0}^{k} \left( (X_1=i)\cap (X_2=k-i) \right)  \right)  \\
		     &= \sum_{i=0}^{k} P((X_1=i) \cap (X_2=k-i)) \\
		     &= \sum_{i=0}^{k} P(X_1=i)P(X_2=k-i) \quad&\text{par indépendance} \\
		     &= \sum_{i=0}^{k} \begin{pmatrix} n_1\\i \end{pmatrix} p^i q^{n_1-i} \begin{pmatrix} n_2\\k-i \end{pmatrix} p^{k-i}q^{n_2-k+i} \\
		     &= p^k q^{n_1+n_2-k} \sum_{i=0}^{k} \begin{pmatrix} n_1\\i \end{pmatrix} \begin{pmatrix} n_2\\k-i \end{pmatrix}  \\
		     &= p^k q^{n_1+n_2-k} \begin{pmatrix} n_1+n_2\\k \end{pmatrix} \quad&\text{d'après Vandermonde} \\
\end{align*}
\end{appl}

\thm
Soient $X : \Omega \too E$ et $Y : \Omega \too F$ deux variables al\'eatoires ind\'ependantes, et $f : E \too E'$ et $g : F \too F'$ deux applications. Alors $f(X)$ et $g(Y)$ sont ind\'ependantes.
\mht
On verra une g\'en\'eralisation en TD, et un \'enonc\'e encore plus fort en seconde ann\'ee.

\medskip

\subsection{Ind\'ependance, esp\'erance et variance}

\medskip

\thm
Soient $X$ et $Y$ deux v.a.r. Si $X$ et $Y$ sont ind\'ependantes, alors $E(XY)=E(X)E(Y)$.
\mht


\attention{Ce n'est pas vrai si $X$ et $Y$ ne sont pas ind\'ependantes. Contre-exemple~:
	e.g. $Y=X\sim\bc(\Omega)$ , $p\not\in \{0, 1\} $

	 \begin{align*}
	 	XY &= X^2 \\
		&= X \\
		\implies E(XY) &= E(X) = p \\
		E(X)E(Y) &= E(X)^2 = r^2 \\
	 \end{align*}
}

\medskip


\demo
Notons $Z=XY=f(X, Y)$ où  $f:\R^2\to \R = (x, y) \mapsto x \cdot y$

\begin{align*}
	E(Z)&= E\circ f(X, Y) \\
	    &= \sum_{(x, y) \in (X, Y)(\Omega)} f(x)y P(X, Y = x, y) \quad&\text{transfert}  \\
	    &= \sum_{(x, y)\in (X, Y)(\Omega)} xyP(X=x \cap Y=y) \\
	(X, Y)(\Omega) &= \{(X, Y)(\omega), \omega\in \Omega\}  \\
		       &= \{X(\omega), Y(\omega), \omega\in \Omega\}  \\
		       &\subset \{X(\omega_1), Y(\omega_2), \begin{pmatrix} \omega_1\\\omega_2 \end{pmatrix} \in \Omega^2 \} 
		       &= X(\Omega)  \times Y(\Omega) \\
\end{align*}

Même si l'inclusion est stricte,

\begin{align*}
	\text{pour } (x, y)\in X(\Omega) \times Y(\Omega) \setminus (X, Y)(\Omega), P(X=x \cap Y=y) &= 0 \\
	\text{donc } E(Z) &= \sum_{x, y\in (X, Y)(\Omega)} xyP(X=x \cap Y=y) \quad&\text{quitte à rajouter des 0}  \\
			  &= \sum_{x, y\in (X, Y)(\Omega)} xyP(X=x)P(Y=y) \quad&\text{par indépendance} \\
			  &= \sum_{x\in X(\Omega)} xP(X=x) \sum_{y\in Y(\Omega)} yP(Y=y)  \\
			  &= E(X)E(Y) \\
\end{align*}


\cqfd

\attention{La r\'eciproque de ce th\'eor\`eme n'est pas vraie non plus, on le verra dans la derni\`ere section.}

\col
Soient $X$ et $Y$ deux v.a.r. Si $X$ et $Y$ sont ind\'ependantes, alors $V(X+Y)=V(X)+V(Y)$.

\loc

\demo
Si $X$ et $Y$ sont indépendantes: 

\begin{align*}
	V(X+Y) &= E((X+Y-E(X+Y))^2) \\
	       &= E((X-E(X)+Y-E(Y))^2) \\
	       &= E((X-E(X))^2+(Y-E(Y))^2+2(X-E(X))(Y-E(Y))) \\
	       &= E((X-E(X))^2) + E((Y-E(Y))^2) + 2E(XY-XE(Y)-YE(X)+E(X)E(Y)) \\
	       &= V(X) + V(Y) + 2E(XY-XE(Y)-YE(X)+E(X)E(Y)) \\
	       &= V(X) + V(Y) + 2\left( \underbrace{E(XY)-E(X)E(Y)}_{\text{0 par indépendance}}\right) \\
	       &= V(X) + V(Y) \\
\end{align*}
\cqfd

De m\^eme~:
\thm
Soient $X_1,\ldots,X_n$ des v.a.r. ind\'ependantes deux \`a deux, alors $V(X_1+\cdots+X_n)=V(X_1)+\cdots+V(X_n)$.
\mht

\demo Idem. Exercice. \cqfd

\medskip

\subsection{Ind\'ependance mutuelle}

\medskip

\Propdef
Soient $X_1 : \Omega \too E_1$, $\ldots$, et $X_n : \Omega \too E_n$ des variables al\'eatoires. Les propositions suivantes sont \'equivalentes~; lorsqu'elles sont r\'ealis\'ees on dit que \newdef{$X_1,\ldots,X_n$ sont mutuellement ind\'ependantes}~:
\begin{enumerate}
\item $\forall (x_1,\ldots,x_n) \in E_1\times\cdots\times E_n,\ P(X_1=x_1 \text{ et ... et } X_n=x_n) = P(X_1=x_1)\times\cdots\times P(X_n=x_n)$~;
\item $\forall (A_1,\ldots,A_n) \in \pc(E_1)\times\cdots\times \pc(E_n),\ P(X_1\in A_1 \text{ et ... et } X_n\in A_n) = P(X_1\in A_1)\times\cdots\times P(X_n\in A_n)$.
\end{enumerate}
\FinPropdef

\demo La m\^eme que pour l'ind\'ependance $2$ \`a $2$. Exercice.
\cqfd

L'ind\'ependance mutuelle implique l'ind\'ependance $2$ \`a $2$, mais la r\'eciproque est fausse.

\thm\label{SommeDeBernoulliIndependantes}
Soient $\pet \in [0,1]$ et $X_1$, $X_2$, $\ldots$, $X_n$ des variables al\'eatoires {\bf mutuellement ind\'ependantes} telles que $\forall i,\ X_i\sim \bc(\pet)$. Alors $X_1+X_2+\cdots+X_n \sim \bc(n,\pet)$.
\mht
Ce th\'eor\`eme est donc un \'enonc\'e math\'ematique pr\'ecis donnant un sens au blabla introductif sur la loi binomiale.

\demo
\begin{align*}
	\forall i, X_i(\Omega) \subset \{0, 1\} \text{ donc } (X_1, X_2, \ldots, X_n)(\Omega) \subset \{0, 1, \ldots, n\} 
\end{align*}

Soit $k\in \{0, \ldots, n\} $

\begin{align*}
	P(X_1+\cdots+X_n=k) &= P\left( \coprod_{(\epsilon_1, \ldots, \epsilon_n) \in \{1, \ldots, n\}^n \land \sum_{i=1}^{n} \epsilon_i = k } (X_1=\epsilon_1) \cap \cdots \cap (X_n=\epsilon_n) \right)  \\
			    &= \sum_{(\epsilon_1, \ldots, \epsilon_n) \in \{1, \ldots, n\}^n \land \sum_{i=1}^{n} \epsilon_i = k } P(X_1=\epsilon_1 \cap \cdots\cap X_n=\epsilon_n) \\
			    &= \sum_{\text{la même}} \underbrace{P(X_1=\epsilon_1) \cdots P(X_n=\epsilon_n)}_{p^k q^{n-k}} \quad&\text{par indépendance}\\
			    &= p^k q^{n-k} \sum_{(\epsilon_1, \ldots, \epsilon_n)\in \{0, 1\} ^{n} \land \epsilon_1 + \cdots + \epsilon_n = k} 1\\
			    &= p^k q^{n-k} \#\left\{ (\epsilon_1, \ldots, \epsilon_n) \in \{0, 1\} ^{n}, \epsilon_1+\cdots+\epsilon_n = k  \right\}  \\
			    &= \begin{pmatrix} n\\k \end{pmatrix} p^k q^{n-k} \\
\end{align*}
\cqfd


\section{Vecteurs al\'eatoires}

\medskip

\subsection{Exemples}

\medskip

On rappelle qu'un vecteur al\'eatoire est une application $f : \Omega \too E$ avec $E\subset \R^n$.

\medskip

\exx \label{Mines} On consid\`ere l'exp\'erience al\'eatoire suivante~: on tire un candidat au concours commun des Mines en 2019. On souhaite savoir si le candidat tir\'e au sort est admissible~; on se dit qu'il suffit de comparer la moyenne de ses r\'esultats aux \'epreuves \'ecrites pond\'er\'ee par les coefficients de ces \'epreuves, et de la comparer \`a la barre d'admissibilit\'e. {\bf Mais ce n'est pas si simple~!}\\
\begin{center}
\fbox{\begin{minipage}{16.5cm}
Sont  d\'eclar\'es  admissibles  les  candidats  qui  sont  titulaires  d'un premier  minimum  de points obtenu pour l'ensemble des \'epreuves d'admissibilit\'e et, en outre, d'un  second minimum de points obtenu pour l'ensemble des quatre compositions de math\'ematiques  et de physique. [...]
%Les candidats \'etant pour la premi\`ere fois en deuxi\`eme ann\'ee d'\'etudes sup\'erieures apr\`es le baccalaur\'eat b\'en\'eficient pour le calcul du premier minimum de points d'admissibilit\'e d'une majoration de $30$ points. [...]
 Tout candidat ayant obtenu une note inf\'erieure \`a $2$ \`a l'\'epreuve de français est d\'eclar\'e non admissible.
\end{minipage}}\ \\[0.2cm]
{\footnotesize Extrait de la notice du Concours Commun Mines Ponts.}
\end{center}
Bref, ce qu'on veut mesurer dans cette exp\'erience al\'eatoire c'est la donn\'ee de toutes les notes, et on ne peut pas vraiment faire mieux. On s'int\'eresse donc au vecteur al\'eatoire $$Z : \defapp{\Omega}{\phantom{place}\R^{9}}{\omega}{\mvect{M_1(\omega)\\M_2(\omega)\\P_1(\omega)\\\vdots\\F(\omega)}}$$
o\`u $M_1(\omega)$ est la note obtenue \`a l'\'epreuve \textsc{Maths 1} par le candidat lors de la r\'ealisation de $\omega$, etc.
\xxe

\medskip

{\bf Dans toute la suite on s'int\'eresse surtout aux \newdef{couples al\'eatoires}, \cad au cas $\pmb{n=2}$. La g\'en\'eralisation au cas g\'en\'eral ne pose pas de difficult\'e particuli\`ere.}

\medskip

Se donner un couple al\'eatoire, c'est donc se donner deux variables al\'eatoires, mais attention, elles doivent \^etre d\'efinies sur le m\^eme espace probabilis\'e. Est-ce si grave~?

\medskip

\rmq "Th\'eor\`eme de Nil Venet"~: quitte \`a consid\'erer que $\Omega$ mod\'elise la r\'ealisation de toutes les exp\'eriences al\'eatoires possibles et imaginables, on peut toujours consid\'erer que deux variables al\'eatoires quelconques sont d\'efinies sur\,le\,m\^eme\,univers\,$\Omega$.
\qmr

%Dans la suite on se limite au cas $n=2$, mais les g\'en\'eralisations ne posent pas de probl\`eme particulier.

\bigskip

Consid\'erons encore deux exemples tr\`es simplistes que l'on utilisera dans la suite pour illustrer les d\'efinitions \`a venir.

\exs\label{MemesLoisMarginales}\ \\
Soit $X$ %une v.a.r.
 telle que $X\sim\uc({-1,0,1})$, $Y_1=X^2$ et $Y_2=\min(X,0)+1$~: $Z_1=\msvect{X\\Y_1}$ et $Z_2=\msvect{X\\Y_2}$ sont deux couples al\'eatoires.

\sxe

\subsection{Lois associ\'ees \`a un vecteur al\'eatoire}

\dfn
Soit $Z=\msvect{X\\Y}$ un couple al\'eatoire.
\begin{enumerate}[$\bullet$]
\item On appelle \newdef{loi conjointe de $X$ et $Y$} la loi de $Z$.
\item On appelle \newdef{lois marginales de $Z$} les lois de $X$ et $Y$.
\end{enumerate}
\nfd

\exx Reprenons l'exemple \ref{MemesLoisMarginales}. On peut repr\'esenter toutes ces lois \`a l'aide de tableaux.\newpage

\begin{table}[h]
	\centering
	\caption{$Z_1=\begin{pmatrix} X\\Y_1 \end{pmatrix} $}
	\begin{tabular}{ccccc}
		$\frac{X}{Y_1}$ & -1 & 0 & 1 & $\Sigma$ \\\hline
		0 & 0 & $\frac{1}{3}$ & 0 & 1/3 \\
		1 & $\frac{1}{3}$ & 0 & $\frac{1}{3}$ & 2/3 \\
		$\Sigma$ & $\frac{1}{3}$ & $\frac{1}{3}$ & $\frac{1}{3}$
	\end{tabular}
\end{table}

\begin{table}[h]
	\centering
	\caption{$Z_2=\begin{pmatrix} X\\Y_2 \end{pmatrix} $}
	\begin{tabular}{ccccc}
		$\frac{X}{Y_2}$ & -1 & 0 & 1 & $\Sigma$ \\\hline
		0 & $\frac{1}{3}$ & $0$ & $0$ & 1/3 \\
		1 & $0$           & $\frac{1}{3}$       & $\frac{1}{3}$ & 2/3 \\
		$\Sigma$ & $\frac{1}{3}$ & $\frac{1}{3}$ & $\frac{1}{3}$
	\end{tabular}
\end{table}
\xxe


\begin{enumerate}
\item Le tableau %de la loi conjointe
 donne seulement les $P(Z=(x,y))$ mais %le th\'eor\`eme de caract\'erisation 
 d'apr\`es le théorème de caractérisation, cela suffit.\\[-0.25cm]
\item Le tableau de la loi conjointe illustre qu'en g\'en\'eral on a seulement $(X,Y)(\Omega) ~{}_{.....}~ X(\Omega)\times Y(\Omega)$.\\[-0.25cm]
\item Une fois obtenu le tableau de la loi conjointe, on en d\'eduit les lois marginales en en sommant par ligne/colonne.\\[-0.25cm]
\item Cet exemple en particulier illustre que les lois marginales ne suffisent pas à reconstituer la loi conjointe.\\[-0.25cm]
\item {\bf Cependant}, \emph{Si $X$ et $Y$ sont indépendantes} alors on reconstitue la loi conjointe à partir des marginales en effectuant des \emph{produits} 
\end{enumerate}
\qmr

\exo
Donner la loi conjointe de $X$ et $Y_3$ telles que

$\begin{cases}
	X&\sim \uc(-1, 1) \\
	Y_3&\sim \bc(\frac{2}{3}) \\
	X&\text{ indép } Y_3
\end{cases}$

\begin{table}[h]
	\centering
	\begin{tabular}{ccccc}
		$\frac{X}{Y_3}$ & -1 & 0 & 1&\\\hline
		0 & 1/9 & 1/9 & 1/9 & 1/3 \\
		1 & 2/9 & 2/9 & 2/9 & 2/3 \\
		  & 1/3 & 1/3 & 1/3
	\end{tabular}
\end{table}

\dfn Soit $Z=\msvect{X\\Y}$ et $A\in X(\Omega)$. On appelle \newdef{loi de Y conditionnellement \`a $X\in A$} (ou loi de $Y$ sachant $X\in A$) l'application $\defapp{\pc(Y(\Omega))}{[0,1]}{B}{P_{X\in A}(Y\in B)}$.

\nfd

\exx On reprend l'exemple \ref{MemesLoisMarginales}. %\\
La loi de $Y_1$ est $Y_1 \sim \bc\left( \frac{2}{3} \right) $. %\\
Mais la loi de $Y_1$ sachant $X\neq -1$ est $\bc\left( \frac{1}{2} \right) = \uc\left( 0, 1 \right)  $.
\xxe

\bigskip

\subsection{Covariance}

\newcommand{\Cov}{\mathrm{Cov}}

\medskip

\dfn
Soit $\msvect{X\\Y}$ un couple al\'eatoire. On appelle \newdef{covariance de $X$ et $Y$} le r\'eel $\Cov(X,Y)=E((X-E(X))(Y-E(Y)))$.
\nfd

On a ainsi $V(X)=\Cov(X, X)$.

\bigskip

\thm[K\oe nig-Huygens]
Soit $\msvect{X\\Y}$ un couple al\'eatoire. Alors $\Cov(X,Y)=E(XY)-E(X)E(Y)$.
\mht

\demo
\begin{align*}
	\Cov(X, Y) &= E\left( (X-E(X))(Y-E(Y)) \right)  \\
		   &= E(XY - YE(X) - XE(Y) + E(X)E(Y)) \\
		   &= E(XY) - E(X)E(Y) - E(Y)E(X) + E(E(X)E(Y)) \quad&\text{par linéarité}\\
		   &= E(XY) - E(X)E(Y) \cancel{- E(X)E(Y) + E(X)E(Y)} \\
\end{align*}
\cqfd

Corollaire~:
\thm\label{IndependanceImpliqueDecorrelation}
Soit $\msvect{X\\Y}$ un couple al\'eatoire. Si $X$ et $Y$ sont ind\'ependantes alors $\Cov(X, Y) = 0$.
\mht

\medskip

\rmq\label{DecorrelationNImpliquePasIndependance} La r\'eciproque est fausse {\bf et on l'a d\'ej\`a vu}~!
En effet~: $\begin{cases}
	X&\sim \uc(-1, 0, 1) \\
	Y_1 &= X^2 \\
\end{cases}$ 

ne sont pas indépendantes: $P( \underbrace{X=0 \cap Y_1=1}_{0} \neq \underbrace{P(X=0)P(Y_1=1)}_{=\frac{2}{9}\neq 0}$

Mais \begin{align*}
	\Cov(X, Y) &= \Cov(X, X^2) \\
		   &= E(X^3) - E(X)E(X^2) \\
		   &= 0 - 0E(X^2) \quad&\text{car $E(X) = 0$ et $X^3 = X$} \\
		   &= 0 \\
\end{align*}
\qmr

\thm
La covariance est une forme bilin\'eaire, sym\'etrique, et positive (seulement).
\mht

\begin{attention}
	C'est \emph{pas} un produit Skyler! Il manque le caractère défini.
\end{attention}

\demo On veut montrer~:

\begin{description}
	\item[symétrie]  \begin{align*}
			\Cov(Y, X) &= E(YX) - E(Y)E(X) \\
				   &= E(XY) - E(X)E(Y) \quad&\text{par commutativité de $ \times $ } \\
				   &= \Cov(Y, X) \\
	\end{align*}
	\item[bilinéarité] Soient $X, Y, Z$ des variables aléatoires et $\lambda, \mu\in \R$
		\begin{align*}
			\Cov(X, \lambda Y + \mu Z) &= E(X(\lambda Y + \mu Z)) - E(X)E(\lambda Y + \mu Z) \\ 
						   &= \lambda E(X, Y) + \mu E(X, Z) - \lambda E(X)E(Y) -\mu E(X)E(Z) \quad&\text{par distrib de $ \times $ sur $+$ et linéarité de $E$}  \\
						   &= \lambda(E(X, Y) - E(X)E(Y)) + \mu(E(XZ)-E(X)E(Z)) \\
						   &= \lambda \Cov(X, Y) + \mu \Cov(X, Z) \\
		\end{align*}
	\item[positivité] \begin{align*}
			\Cov(X, X) &= V(X) \\
				   &= E((X-E(X))^2) \\
				   &\ge 0 \quad&\text{par positivité de $E$}
	\end{align*}
\end{description}

\cqfd

\col[Cauchy-Schwarz]
Soit $\msvect{X\\Y}$ un couple al\'eatoire. Alors $|\Cov(X,Y)|\leq\sigma(X)\sigma(Y)$.
\loc

\demo On copie la preuve dans les pr\'ehilbertiens. Celle-ci ne n\'ecessite que la positivit\'e. Par contre, pour le cas d'\'egalit\'e de Cauchy-Schwarz dans les pr\'ehilbertiens, on a besoin de la d\'efinie-positivit\'e, du coup le cas d'\'egalit\'e n'est plus le m\^eme ici, on le verra dans le corollaire \ref{CasDEgaliteCS}.
\cqfd

On a maintenant une formule g\'en\'erale pour la variance d'une somme~:
\thm Soient $X_1$, $\ldots$, $X_n$ des var sur $\Omega$. $V(X_1+\cdots+X_n) = \sum_{1\le i, j \le n} \Cov(X_i, X_j) = \sum_{k=1}^{n} V(X_k) + 2\sum_{i<j} \Cov(X_i, X_j)$.
\mht

%\medskip

\subsection{Ind\'ependance vs d\'ecorr\'elation}

\dfn Soit $\msvect{X\\Y}$ un couple al\'eatoire. On appelle coefficient de corr\'elation de $X$ et $Y$ le r\'eel $\dsp{\rho_{X,Y}=\frac{\Cov(X,Y)}{\sigma(X)\sigma(Y)}}$.
\nfd

C'est le truc qu'on utilise en physique pour valider un mod\`ele (et que Regressi ou Excel calculent tout seul).\\
On va essayer de comprendre pourquoi.

\medskip

{\bf Cauchy-Schwarz se reformule~: $\pmb{-1\leq \rho_{X,Y} \leq 1}$.}

\medskip

\dfn Soit $\msvect{X\\Y}$ un couple al\'eatoire. On dit que $X$ et $Y$ sont \newdef{d\'ecorr\'el\'ees} lorsqu'on a $\rho_{X,Y}=0$, \ie $\Cov(X,Y)=0$.
\nfd

\medskip

{\bf Le corollaire \ref{IndependanceImpliqueDecorrelation} et la remarque \ref{DecorrelationNImpliquePasIndependance} se reformulent~:
\begin{enumerate}[$\bullet$]
\item l'ind\'ependance implique la d\'ecorr\'elation~;
\item %la r\'eciproque est fausse~: 
 mais deux variables d\'ecorr\'el\'ees peuvent ne pas \^etre ind\'ependantes.
\end{enumerate}}

\lem
Soit $X$ une v.a.r. finie. On a $V(X)=0 \Leftrightarrow X$ constante.
\mel
Attention, lorsqu'on sort du cadre fini, ce n'est plus vrai.

\demo
Notons $Y=(X-E(X))^2$

\begin{align*}
	V(X) = 0 &\iff E((X-E(X))^2) = 0 \\
		 &\iff E(Y) = 0 \\
		 &\iff \sum_{x\in X(\Omega)} \underbrace{(x-E(X))^2}_{\ge 0} \underbrace{P(X=x)}_{\in [0, 1]} = 0
		\text{la somme est nulle à termes positifs} &\iff \forall x\in X(r), x = E(X) \\
							    &\iff x \text{ constante}
\end{align*}

\cqfd

%Plus pr\'ecis\'ement~:
\col \label{CasDEgaliteCS}
Soit $\msvect{X\\Y}$ un couple al\'eatoire avec $X$ non constante. On a $\big|\rho_{X,Y}\big|=1 \Leftrightarrow \exists (a,b)\in\R^2,\ Y=aX+b$.
\loc
Ainsi un coefficient de corr\'elation maximal en valeur absolue correspond au fait qu'il existe une relation de d\'ependance lin\'eaire entre $X$ et $Y$. Mais le coefficient de corr\'elation peut \^etre nul m\^eme pour des couples $(X,Y)$ tels que $Y$ est de la forme $f(X)$ avec $f$ une fonction non lin\'eaire...

\demo
\begin{align*}
	P(\lambda)&= V(\lambda X + Y) \\
		  &= \Cov(\lambda X + Y, \lambda X + Y) \\
		  &= V(X) \lambda^2 + 2\lambda \Cov(X, Y) + V(Y) \quad&\text{par bilinéarité et symétrie} \\
\end{align*}
\emph{$X$ n'est pas constante} , donc $V(X)\neq 0$ donc $P$ est un polynôme de degré 2.

Son discriminant est
\begin{align*}
	\Delta &= 4\Cov(X, Y) - 4V(X)V(Y) &= 4(\Cov(X, Y) \\
\end{align*}

or \begin{align*}
	|\rho_{X, Y}| &= 1 \\
	\text{ie } |\Cov(X, Y)| &= \sigma(X)\sigma(Y) \\
	\text{ie } \Cov(X,Y)^2 &= V(X)V(Y) \\
	\text{ie } \Delta&= 0 \\
	\text{ie $V(\lambda X + Y)$ a une racine double} \\
	\text{ie $V(\Lambda X + Y)$ a une racine (car reste > 0)} \\
	\text{ie } \exists \lambda_0\in \R, V(\lambda_0X+Y) &= 0 \\
	\text{ie } \exists \lambda\in \R, \exists b\in \R, \lambda_0X + Y &= b \quad&\text{d'après Lemme 1} \\
	\text{ie } \exists a (= -\lambda_0) \in \R, \exists b\in \R, Y=aX+b
\end{align*}
\cqfd

\end{document}
