\input{../.headers/cours.tex}

\baselineskip15pt

\begin{center}
\shadowbox{\LARGE \begin{tabular}{c}
{\bf \textsc{Probabilit\'es}}%\\
%... sans d\'enombrement.
\end{tabular}}\ \\[-0.25cm]
\end{center}

Les trois th\'eor\`emes importants de ce chapitre sont~:
\begin{enumerate}[$\bullet$]
\item la formule des probabilit\'es compos\'ees~;
\item la formule des probabilit\'es totales~;
\item la formule de Bayes.
\end{enumerate}

%\smallskip

\section{Exp\'eriences al\'eatoires}

Dans cette section, on ne fera pas de math\'ematiques~! On explicite les probl\`emes non math\'ematiques que la th\'eorie qui suit souhaite mod\'eliser. On n'a pas souvent l'occasion de le faire en \textsc{cpge} donc il faut en profiter.%\\

\subsection{D\'efinition}

\begin{_dfin}[Exp\'erience al\'eatoire]
Une exp\'erience al\'eatoire est une exp\'erience %reproductible
 dont l'ensemble des issues possibles est connue mais dont l'issue n'est pas connue avant de r\'ealiser l'exp\'erience.
\end{_dfin}

\exs
\begin{enumerate}
\item Une exp\'erience al\'eatoire qu'on r\'ealise fr\'equemment est l'exp\'erience \og \texttt{Choisir(MPSI)} \fg.
\item Une exp\'erience al\'eatoire assez peu originale consiste \`a lancer deux d\'es verts (non pip\'es).%\\
\end{enumerate}
\sxe

\subsection{L'exp\'erience al\'eatoire \og\texttt{Choisir(MPSI)}\fg}

R\'ealisons ensemble l'exp\'erience un grand nombre de fois et observons.\megasubline

{\bf Observations~:}\\\\\\\\\\\\\\
%\begin{enumerate}[$\bullet$]
%\item 
%\item 
%\item 
%\end{enumerate}\ \\[-0.5cm]

\attention{{\footnotesize \hspace{-0.25cm}Des tests pr\'ec\'edents on d\'eduit \textsc{rien}. La th\'eorie des probabilit\'es \textsc{ne permet pas} de savoir si l'exp\'erience \texttt{Choisir(MPSI)} est \'equitable ou pas, elle peut au mieux permettre de dire qu'il est probable qu'elle le soit (et on le fera, mais plus tard). \\\phantom{s} Par contre, regarder le code source permet de s'en faire une id\'ee, de m\^eme qu'on pourra \'etablir le caract\`ere \'equillibr\'e \\\phantom{oui} d'un d\'e en examinant sa forme et sa composition, pas en le lan\c{c}ant un grand nombre de fois.}}\\

%\newpage

\subsection{Mod\'elisation}

{\bf D\'emarche naturelle~:}\supline \`a une exp\'erience al\'eatoire, on associe l'ensemble $\Omega$ des issues possibles, ou du moins des issues qu'on peut observer.\megasubline

\rmq
Cette ann\'ee, on consid\`erera uniquement le cas o\`u $\Omega$ est %un ensemble 
fini. C'est tr\`es restrictif mais 
%, sur le plan philosophique, c'est aussi plus honn\^ete.\megasubline
philosophiquement plus honn\^ete.\gigasubline
\qmr

%\newpage\ \\[-1.1cm]
%On s'int\'eresse \`a~:
Qu'est-ce qui nous int\'eresse~?
\begin{enumerate}
\item Les éléments de $\Omega$ (par exemple: les deux dés ont doné 1)
\item Mais aussi les parties de $\Omega$ (par exemple: les deux dés ont donné un résultat pair)
\end{enumerate}

\newpage\ \\[-1.1cm]
\exx~ Pour l'exp\'erience \og\texttt{Choisir(MPSI)}\fg, la mod\'elisation la plus simple consiste \`a prendre pour $\Omega$ l'ensemble de nos élèves ($\#\Omega = 46$ )\\
On s'attend \`a ce que chaque élément de $\Omega$ soit équiprobable.
\xxe

\exx
Pour l'exp\'erience \og lanc\'e de deux d\'es verts (non pip\'es)\fg~:
\begin{enumerate}
\item Une premi\`ere mod\'elisation, qui est elle-m\^eme d\'ej\`a simpliste, consiste \`a prendre pour $\Omega$ l'ensemble
$\llbracket 1, 6 \rrbracket^2$ \\
On s'attend \`a ce que chaque couple soit équiprobable.
Mais ce n'est pas réaliste: on ne sait pas quel dé correspond au premier.
\item  Autre mod\'elisation~: on prend pour $\Omega$ 
	$\{ \{i, j\}, i, j \in \llbracket 1, 6\rrbracket \} $
Mais alors on s'attend \`a ce que les issues de la forme $\{i, j\} $ soient deux fois moins probable que les autres.
\end{enumerate}
\xxe

\medskip

\section{Espaces probabilis\'es finis}

\subsection{Espaces probabilisables finis}

\dfn
On appelle \newdef{espace probabilisable fini} un couple $(\Omega,\pc(\Omega))$ o\`u $\Omega$ est un ensemble fini.
\nfd

{\bf Terminologie}~: les probabilistes ont coutume d'appeler~:
\begin{enumerate}[$\bullet$]
\item \og univers\fg{} l'ensemble $\Omega$~;
\item \og issues\fg{} les \'el\'ements de $\Omega$~;
\item \og \'ev\'enements\fg{} les parties de $\Omega$~;
\item \og \'ev\'enements \'el\'ementaires\fg{} les singletons de $\pc(\Omega)$.
\end{enumerate}
Si $A$ et $B$ sont deux \'ev\'enements d'un espace probabilisable fini, les probabilistes ont coutume d'appeler~:
\begin{enumerate}[$\bullet$]
\item \og \'ev\'enement {\bf contraire}\fg de $A$ voire (sacril\`ege~!) \og non $A$\fg{} l'\'ev\'enement ${}^cA$~;
\item \og $A$ ou $B$\fg{} l'\'ev\'enement $A\cup B$ (horreur~!) et  \og $A$ et $B$\fg{} l'\'ev\'enement $A\cap B$ (ignominie~!)~;
\item \og \'ev\'enements {\bf incompatibles}\fg{} des \'ev\'enements disjoints.
\end{enumerate}
Cette terminologie \'etant importante, elle figure dans la fiche de synth\`ese.

%\newpage

\rmq
Comme annonc\'e dans la remarque 1, on se limite donc au cas fini. C'est tr\`es emb\^etant car on s'interdit des exp\'eriences al\'eatoires tr\`es simples\footnote{Mais non accessibles \`a l'\^etre humain.} dont on a envie de parler, comme par exemple~:
\begin{enumerate}[$\bullet$]
\item lancer un d\'e jusqu'\`a obtenir $6$~;
\item choisir un r\'eel uniform\'ement au hasard entre $0$ et $1$~;
\item ...
\end{enumerate}
On verra quand m\^eme en TD une astuce permettant d'int\'egrer malgr\'e tout les exp\'eriences du type \og lancer un d\'e jusqu'\`a obtenir $6$\fg{} au programme de MPSI.\footnote{C'est comme d'habitude, on prend un gros marteau et on tape fort.}.\\
\qmr

\exx On a vu dans les exemples 2 et 3 comment associer des espaces probabilisables \`a des exp\'eriences al\'eatoires.\\
\xxe
\begin{enumerate}
	\item 
$(\Omega, \pc(\Omega))$ avec $\#\Omega = 46$
\item \emph{Meth 1} $(\llbracket 1, 6\rrbracket^2, \pc(\llbracket 1, 6\rrbracket^2)$
	\emph{Meth 2} $(\Omega, \pc(\Omega))$ avec $\Omega = \{\{i, j\}, i, j \in \llbracket 1, 6 \rrbracket\} $
\end{enumerate}
La d\'efinition la plus importante dans les espaces probabilisables est la suivante~:
\dfn
On appelle \og syst\`eme complet d'\'ev\'enements \fg{} (en abr\'eg\'e sce) une famille $(A_1,\ldots,A_n)$ telle que\subline\\
$\lect{\forall i\neq j,\ A_i \text{ et } A_j \text{ sont incompatibles~;}\\\text{et }A_1\cup\cdots\cup A_n=\Omega~;}$\megasubline\\
autrement dit telle que $A_1\amalg A_2\amalg \cdots \amalg A_n = \Omega$.
\nfd
C'est quasiment la m\^eme chose qu'une partition, sauf qu'on n'impose pas que les $A_i$ soient non vides (mais dans la formule des probabilit\'es totales ce sera impliqu\'e par une hypoth\`ese plus forte).

\exx {\it Le plus simple des sce}
\begin{itemize}
\item $(\{\omega\} )_{\omega\in \Omega}$
\item $(A, {}^cA)$
\end{itemize}
\xxe

\subsection{Probabilit\'e}

\dfn
Soit $\Omega$ un ensemble fini. On appelle probabilit\'e sur $\Omega$ une application $P: \pc(\Omega)\too[0,1]$ telle que~:\begin{enumerate}
\item $P(\Omega)=1$~;
\item pour tout couple $(A,B)$ d'\'ev\'enements incompatibles, $P(A\amalg B) = P(A)+P(B)$.
\end{enumerate}
\nfd

{\bf Terminologie}~: On dit que $\big(\Omega,\pc(\Omega),P\big)$ est un \newdef{espace probabilis\'e fini}.\\

\rmq
Lorsqu'on mod\'elise une exp\'erience al\'eatoire, on ne la mod\'elise pas seulement par $\Omega$, mais par l'espace probabilis\'e $\big(\Omega,\pc(\Omega),P\big)$.
\qmr

\exx\ \\ Tout espace probabilisable fini $(\Omega,\pc(\Omega))$ peut \^etre muni de sa \newdef{probabilit\'e uniforme} $P_U : \defapp{\pc(\Omega)}{[0,1]}{A}{\dfrac{|A|}{|\Omega|}.}$
\xxe

\demo
\begin{enumerate}
	\item $P_U(\Omega) = \frac{\#\Omega}{\#\Omega} = 1$
	\item Soient $A, B \in \pc(\Omega)$ \emph{incompatibles}.

		\begin{align*}
			P_U(A \amalg B) &= \frac{| A \amalg B |}{| \Omega |} \\
			&= \frac{|A| + |B|}{|\Omega|} \\
			&= \frac{|A|}{|\Omega|} + \frac{|B|}{|\Omega|} \\
			&= P_U(A) + P_U(B) \\
		\end{align*}
\end{enumerate}
\cqfd

On a vu que cette probabilit\'e est naturelle pour mod\'eliser~:
\begin{enumerate}
\item \verb|Choisir(MPSI)|
\item Loi de 2 dés verts \emph{modélisé par des couples}
\end{enumerate}
mais aussi qu'elle est totalement \`a exclure si~:
\begin{enumerate}
\item[3.] Loi de 2 dés verts \emph{modélisé par des paires} 
\end{enumerate}
ou encore si~:
\begin{enumerate}
\item[4.] Le dé est pipé ou si la pièce est truquée.
\end{enumerate}
D'o\`u un premier int\'er\^et des autres probabilit\'es.\\

\thm[th\'eor\`eme de caract\'erisation]
Soit $\Omega$ un ensemble fini.
\begin{enumerate}
\item Si $P:\pc(\Omega)\too[0,1]$ est une probabilit\'e alors $\sum\limits_{\omega\in\Omega}P(\{\omega\})=1$.
\item R\'eciproquement, si $p:\Omega\too[0,1]$ v\'erifie $\sum\limits_{\omega\in\Omega}p(\omega)=1$ alors l'application naturellement induite\break\\[-0.25cm] $P : \defapp{\pc(\Omega)}{[0,1]}{A}{\sum\limits_{\omega\in A} p(\omega)}$ est bien d\'efinie et c'est une probabilit\'e.
\end{enumerate}
\mht

\demo
\begin{enumerate}
	\item Soit $P : \pc(\Omega) \to [0, 1]$ une probabilité  \\
		\begin{align*}
			\sum_{\omega\in \Omega} P(\{\Omega\} )  &= P\left( \coprod_{\omega\in \Omega} \{\omega\}  \right) \quad&\text{en itérant le point 2 de la def. d'une proba} \\
								&= P(\Omega) \quad&\text{point 1} \\
								&= 1 \\
		\end{align*}
	\item Soit $p: \Omega \to  [0, 1]$ tel que $\sum_{\omega\in \Omega} p(\omega) = 1 $

		\begin{align*}
			P: \begin{cases}
				\pc(\Omega) &\to [0, 1] \\
				A &\mapsto \sum_{\omega\in A} p(\omega) 
			\end{cases}
		\end{align*}
		est une proba

		\begin{enumerate}
			\item $P(\Omega) = \sum_{\omega\in \Omega} p(\omega) = 1 $
			\item Soient $A, B \in \pc(\Omega)$ incompatibles

				\begin{align*}
					P(A \amalg B) &= \sum_{\omega \in A \amalg B} p(\omega)  \\
						      &= \sum_{\omega\in A} p(\omega) + \sum_{\omega\in B} p(\omega) \quad&\text{d'après Chasles}  \\
						      &= P(A) + P(B) \\
				\end{align*}
		\end{enumerate}
\end{enumerate}
\cqfd

Ce th\'eor\`eme peut donc servir de fa\c{c}on tr\`es pratique \`a d\'ecrire plus simplement une probabilit\'e.

\exx\\\\\\\\
\xxe


\subsection{Propri\'et\'es imm\'ediates}

\pro
Soit $\big(\Omega,\pc(\Omega),P\big)$ un espace probabilis\'e. On a~:
\begin{enumerate}
\item[0.] $P(\emptyset)=0$~;
\item[1.] pour tout $A\in\pc(\Omega)$, $P({}^cA)=1-P(A)$~;
\item[2.] $P$ est croissante pour l'inclusion~;
\item[3.] pour tous $A,\ B\in\pc(\Omega)$, $P(A\cup B)=P(A)+P(B)-P(A\cap B)$~;
\end{enumerate}
\orp

\begin{appl}
\!\!\!\!{\it:\, l'exemple historique.}\\
Est-il plus facile d'obtenir au moins un six en lançant $4$ fois un seul d\'e ou d'obtenir au moins un double six en lançant $24$ fois deux d\'es ?
\emph{4 lancés d'un dé} 

$\begin{cases}
	\Omega&= \llbracket 1, 6 \rrbracket^{4} \\
	P&= P_U \\
\end{cases}$ 

On cherche $P(A)$ où
\[
	A = "On a obtenu au moins une fois un six"
\] 

On calculera  $^c A = "On a pas obtenu de six" = \llbracket 1, 5 \rrbracket^{4}$

\begin{align*}
	P(A) &= 1 - P(^cA) \\
	     &= 1 - \frac{|^cA|}{|A|} \\
	     &= 1 - \left( \frac{5}{6} \right)^{4} \\
	     &\approx 0.52 \\
\end{align*}

Double 6 en lançant 24 fois 2 dés

\begin{align*}
	\Omega&= \left( \llbracket 1, 6\rrbracket^2 \right)^{24}  \\
	P&= P_U \\
	A &= "Obtenir au moins un double 6" \\
	^cA &= "Ne jamais obtenir de double 6"  \\
	    &= ( \llbracket 1, 6 \rrbracket^2 \setminus \{6, 6\} )^{24} \\
	P(A) &= 1 - P(^cA) \\
	&= 1 - \frac{|^cA|}{|\Omega|} \\
	&= 1 - \frac{35^{24}}{36^{24}} \\
	&\approx 0.49 \\
\end{align*}

\paragraph{Conclusion}
Le double 6 en lançant 24 fois 2 dés est moins probable

\end{appl}

\section{Ind\'ependance}

\exx \ \\Consid\'erons l'exp\'erience al\'eatoire suivante~: \og tirer uniform\'ement au hasard une application $f:\{1,2\}\too\{1,2\}$\fg.\megasubline\\
Ouhl\`a. Prenons une minute pour comprendre de quoi \c{c}a cause.

\begin{align*}
	\Omega&= \{x\mapsto 1, x\mapsto 2, \id, \id^{-1}\}  \\
	P &= P_U \\
	P("f(1) = 1") &= \frac{|\{1, \id\} |}{|\Omega|} = \frac{2}{4} = \frac{1}{2} \\
	P("f(2) = 2") &= \frac{|\{2, \id\} |}{|\Omega|} = \frac{2}{4} = \frac{1}{2}
	P("f(2) = 2" \cap "f(1) = 1") &= P("f = \id")\\
				      &= \frac{|\{\id\} |}{|\Omega|} =\frac{1}{4}  \\
				      &= \underbrace{\frac{1}{2}}_{P("f(1) = 2"}  \times \underbrace{\frac{1}{2}}_{P("f(2) = 2")} \\
\end{align*}

Ici, le choix de $f(1)$ ne conditionne pas celui de $f(2)$. On dira que les \'ev\'enements sont ind\'ependants.
\xxe

\exx \ \\Consid\'erons l'exp\'erience al\'eatoire suivante~: \og tirer uniform\'ement au hasard une \textbf{\underline{bijection}} $f:\{1,2\}\too\{1,2\}$\fg.\megasubline\\

\begin{align*}
	P("f(1) = 1") &= \frac{|\{\id\} |}{|\Omega|} = \frac{1}{2} \\
	P("f(2) = 2") &= \frac{|\{\id\} |}{|\Omega|} = \frac{1}{2} \\
\end{align*}

Mais:
\begin{align*}
	P("f(1) = 1" \cap  "f(2) = 2") &= \frac{|\{\id\} |}{|\Omega|} = \frac{1}{2} \\
	\neq \frac{1}{4} &= P("f(1) = 1")  \cdot P("f(2) = 2") \\
\end{align*}

\begin{center}
	{\bf On a  } $P(A \cap B) \neq P(A) \cdot P(B)$
\end{center}

On dira que les \'ev\'enements $A$ et $B$ ne sont pas ind\'ependants.
\xxe

\newpage
\dfn Soit $\big(\Omega,\pc(\Omega),P\big)$ un espace probabilis\'e.\\
Deux \'ev\'enements $A$ et $B$ sont dit \newdef{ind\'ependants} lorsqu'on a $P(A\cap B)=P(A)P(B)$.
\nfd

\rmq
Consid\'erons l'exp\'erience al\'eatoire \og on lance un d\'e vert et un d\'e bleu\fg.\\
Faute d'information suppl\'ementaire, on la mod\'elise par $\big(\Omega,\pc(\Omega),P\big)$ o\`u $\begin{cases}
	\Omega&= \llbracket 1, 6 \rrbracket^2 \\
	P&= P_U \\
\end{cases}$
Montrer que cette mod\'elisation implique que les deux lanc\'es sont ind\'ependants {\scriptsize (commencer par donner un sens \`a cette phrase)}.

On note $"\text{couleur} \to i" := "\text{le dé couleur donne $i$}"$

Soient $\begin{cases}
	V_i :&= "\text{le dé vert donne $i$}" \\
	B_j :&= "\text{le dé bleu donne $j$}" \\
\end{cases}$.

\begin{align*}
	P(V_i) &= P(\{i\}  \times \{1, \ldots, 6\}) \\
		&= \frac{|\{i\}  \times \{1, \ldots, 6\} |}{|\Omega|} \\ 
		&= \frac{6}{36} = \frac{1}{6} \\
	P(B_j) &= P(\{j\}  \times \{1, \ldots, 6\}) \\
		&= \frac{|\{j\}  \times \{1, \ldots, 6\} |}{|\Omega|} \\ 
		&= \frac{6}{36} = \frac{1}{6} \\
	P(V_i \cap B_j) &= P(\{i, j\} ) \\
			&= \frac{1}{36} \\
			&= \frac{1}{6} \cdot \frac{1}{6} \\
			&= P(V_i) P(B_j) \\
\end{align*}



\qmr


\subsection{Ind\'ependance mutuelle}

\dfn Soit $\big(\Omega,\pc(\Omega),P\big)$ un espace probabilis\'e et $(A_1,\ldots,A_n)$ une famille d'\'ev\'enements.\subline\\
On dit que \newdef{$A_1,\ldots,A_n$ sont mutuellement ind\'ependants} lorsqu'on a~:\subline\\
$\forall k\in\{1,\ldots,n\},\ \forall i_1<i_2<\cdots<i_k\in\{1,\ldots,n\},\ P(A_{i_1}\cap A_{i_2}\cap \cdots A_{i_k})=P(A_{i_1})P(A_{i_2})\cdots P(A_{i_k})$.
\nfd

\rmq~\\[-1.25cm]\begin{enumerate}
\item Si $A_1,\ldots,A_n$ sont mutuellement ind\'ependants, alors\begin{enumerate}[$\bullet$]
\item ils sont ind\'ependants $2$ \`a $2$ (\ie $\forall i\neq j,\ P(A_i\cap A_j)=P(A_i)P(A_j)$)~; 
\item et ils sont ind\'ependants $n$ \`a $n$ (\ie $P(A_1\cap\cdots\cap A_n)=P(A_1)\times\cdots\times P(A_n)$).
\end{enumerate} 
\item L'ind\'ependance $2$ \`a $2$ n'implique pas l'ind\'ependance mutuelle.
\item L'ind\'ependance $n$ \`a $n$ n'implique pas l'ind\'ependance mutuelle.
\end{enumerate}
\qmr

\demo 
\begin{enumerate}
	\item On suppose $A_1, A_2, \ldots, A_n$ \emph{mutuellement} indépendants.
		Pour $i, j \in \llbracket , n\rrbracket$\footnote{Notation perso (ewen) pour $\llbracket 1, n\rrbracket$}
		On prend $k=2$. $\begin{cases}
			i_1 &= i\\
			i_2&= j \\
		\end{cases}$ (ÀRP)

		\begin{align*}
			P(A_{i_1} \cap A_{i_2}) &= P(A_{i_1}) P(A_{i_2}) \\
			\text{ie }P(A_{i} \cap A_{j}) &= P(A_{i}) P(A_{j}) \\
		\end{align*}
	\item On suppose $A_1, A_2, \ldots, A_n$ \emph{mutuellement} indépendants.
		Pour $i, j \in \llbracket , n\rrbracket$\footnote{Notation perso (ewen) pour $\llbracket 1, n\rrbracket$}
		On prend $k=2$. $\begin{cases}
			i_1 &= 1\\
			    &\vdots \\
			i_2&= n \\
		\end{cases}$ 

		\begin{align*}
			P(\bigcap_{k\in \llbracket ,n\rrbracket} A_{i_k}) &= \prod_{k\in \llbracket , n\rrbracket} A_{i_k} 
			\text{ie }P(\bigcap_{k\in \llbracket ,n\rrbracket} A_{k}) &= \prod_{k\in \llbracket , n\rrbracket} A_{k} 
		\end{align*}
	\item On considère l'expérience aléatoire {\it On lance deux pièces équilibrées} $\begin{cases}
		\Omega &= \{H, T\}^2 \\
		P&= P_U \\
		P("\text{la 1ère donne T}") = P("\text{la 2ème donne T}") = P("les deux donnent pas la même") = \frac{1}{2} \\
		P("\text{1ère T}" \cap "\text{2ème H}") = P("\text{1ère T}" \cap "\text{deux différents}") = P("\text{2ème H}" \cap "\text{deux différents}") = \frac{1}{4} \\
		\implies \text{indépendance 2 à 2} \\
		P("\text{1ère T}" \cap "\text{2ème H}" \cap "\text{deux différents}") = \frac{1}{4} \neq \frac{1}{8} = P("\text{1ère T}")  \cdot P("\text{2ème H}") \cdot P("\text{deux différents}") \\
	\end{cases}$
	\item $A_1 \neq \emptyset$, $A_2, \ldots, A_n \neq \emptyset$
\end{enumerate} 
\cqfd


\section{Probabilit\'es conditionnelles}

L'id\'ee est de quantifier le conditionnement d'un \'ev\'enement par un autre lorsqu'ils\,sont\,potentiellement\,non\,ind\'ependants.

\subsection{D\'efinition}

\exx On r\'ealise l'exp\'erience \og Choisir MPSI \fg{} mais on oublie le r\'esultat obtenu. Cependant, %{\bf on se rappelle que c'est un \'el\`eve du groupe A qui a \'et\'e tir\'e au sort}. Est-il probable que l'\'el\`eve tir\'e au sort ait \'et\'e une fille~?
{\bf on se rappelle que c'est un gar\c{c}on qui a \'et\'e tir\'e au sort}. Est-il probable que l'\'el\`eve tir\'e au sort soit un \'el\`eve du groupe option info ~?\\\\\\\\\\\\\\\\\\\\\\\\\\\\

On a envie de définir 

\begin{align*}
	P("\text{option info}"|"\text{garçon}") &= \frac{|"\text{option info}" \cap "\text{garçon}"|}{|"\text{garçon}"|} \\
						&= \frac{\frac{|"\text{option info}" \cap "\text{garçon}"|}{46}}{\frac{|"\text{garçons}"|}{46}} \\
						&\approx 0.529 \\
\end{align*}
\xxe

\dfn
Soit $\big(\Omega,\pc(\Omega),P\big)$ un espace probabilis\'e, $A$ un \'ev\'enement et $B$ un \'ev\'enement de probabilit\'e non nulle.\break On appelle \newdef{probabilit\'e de $A$ sachant $B$} et on note $P_B(A)$ ou $P(A\,\big|\,B)$ le quotient $P_B(A)=\dfrac{P(A\cap B)}{P(B)}$.
\nfd

\attention{\og $A\,\big|\,B$\fg{} tout seul n'a aucun sens, et en particulier ce n'est pas un \'ev\'enement~!}\ \\

Le point essentiel (et qui fait que je pr\'ef\`ere la notation $P_B(A)$ \`a l'autre) est le suivant~:
\thm
Soit $B$ un \'ev\'enement de probabilit\'e non nulle.\\
L'application $P_B : \defapp{\pc(\Omega)}{~[0,1]}{A}{P_B(A)}$ est une probabilit\'e.
\mht

\demo
\begin{enumerate}
	\item \begin{align*}
			P(\Omega | B) &= \frac{P(\Omega \cap B}{P(B)} \\
				      &= \frac{P(B)}{P(B)} \\
				      &= 1 \\
	\end{align*}
	\item Soient $A_1 \amalg A_2$.
		\begin{align*}
			P(A_1 \amalg A_2 | B) &= \frac{P((A_1 \amalg A_2) \cap B )}{P(B)} \\
					      &= \frac{P((A_1 \cap B) \amalg (A_2 \cap B))}{P(B)} \\
					      &= \frac{P(A_1 \cap  B) + P(A_2 \cap B)}{P(B)} \quad&\text{car $P$ est une probabilité}\\
					      &= \frac{P(A_1\cap B)}{P(B)} + \frac{P(A_2\cap B)}{P(B)} \\
					      &= P(A_1 | B) + P(A_2 |B) \\
		\end{align*}
\end{enumerate}
\cqfd

\rmq
Si $A$ et $B$ sont deux \'ev\'enement de probabilit\'es non nulles alors~:
\begin{enumerate}
\item $P(A\cap B)=P(A)\times P(B | A)$~;
\item $P(A\cap B)=P(B)\times P(A | B)$.
\end{enumerate}
\qmr

\begin{appl}
Un bidule se d\'eplace sur une grille de morpion (\ie un \'echiquier $3\times 3$). \`A l'instant initial $n=0$, le bidule se trouve sur la case situ\'ee en haut \`a droite. \`A chaque instant $n$, le bidule se d\'eplace d'exactement une case, horizontalement ou verticalement (mais pas en diagonale et sans sortir de la grille), avec \'equiprobabilit\'e pour chacune des cases accessibles. Quelle est la probabilit\'e que le bidule se trouve au centre de la grille \`a un instant $n\in\Np$~?
\end{appl}
On admet\footnote{Cf TD.} qu'on peut mod\'eliser cette exp\'erience al\'eatoire par un espace probabilis\'e fini $\big(\Omega,\pc(\Omega),P\big)$.

Notons $ \Xi_n := "\text{le bidule est au centre à l'issue de $n$ déplacements}" $

On cherche $P(\Xi_n)$

On colorie le damier de sorte que la case centrale soit blanche.

\newcommand{\blk}{\blacksquare}

On note  $\blk_n := ``\text{le bidule est sur une case noire après $n$ déplacements}"$

\begin{figure}[h]
	\includegraphics[width=0.3\textwidth]{fig_damier.png}
\end{figure}

Par récurrence immédiate, $\forall n\in 2\N+1, \blk_n = \Omega$

Les évènements $\Xi_n$ et $\blk_n$ sont incompatibles.

Donc $n\in 2\N+1 \implies P(\Xi_n) = 0$

De plus $P(\Xi_0) = 0$ d'après l'énoncé

Soit  $n\in 2\N^\ast$ (donc $n-1\in 2\N+1$)

D'après l'énoncé, $P(\Xi_n | \blk_{n-1}) = \frac{1}{3}$
 
Et comme $n-1\in 2\N+1$, $\blk_{n-1} = \Omega$

Donc \begin{align*}
	\frac{1}{3} &= P(\Xi_n | \blk_{n-1}) \\
		    &= P(\Xi_n | \Omega) \\
		    &= \frac{P(\Xi_n \cap \Omega)}{P(\Omega)} \\
		    &= P(\Xi_n) \\
\end{align*}

Conclusion:

\begin{align*}
	P(\Xi_n) &= \begin{cases}
		0 &\text{ si} n\in (2\N+1) \cup \{0\}  \\
		\frac{1}{3} & \text{si } n\in 2\N^\ast
	\end{cases} \\
\end{align*}


\subsection{Formule des probabilit\'es compos\'ees}

\thm[Formule des probabilit\'es compos\'ees]
Soit $\big(\Omega,\pc(\Omega),P\big)$ un\,espace\,probabilis\'e et $(A_1,\ldots,A_n)$ une\,famille\,d'\'ev\'enements\,tels\,que $P(A_1\cap\cdots\cap A_{n-1})\neq 0$.
Alors~:\semisupline
\begin{enumerate}
\item $\forall k\leq n\!-\!1,\ P(A_1\cap\cdots\cap A_k)\neq 0$~;
\item $P(A_1\cap\cdots\cap A_{n-1}\cap A_n)=P(A_1)P_{A_1}(A_2)P_{A_1\cap A_2}(A_3)\cdots P_{A_1\cap\cdots\cap A_{n-1}}(A_n)$.
\end{enumerate}
\mht

%\newpage\ \\[-1.5cm]
\demo
\begin{enumerate}
	\item Soit $k \le n-1$. On a
		\begin{align*}
			\bigcap_{1 \le i \le k} A_i &\supset \bigcap_{1 \le i \le n-1} A_i \\
			\text{donc } P\left( \bigcap_{1 \le i \le k} A_i  \right) &\ge P\left(  \bigcap_{1 \le i \le n-1} A_i\right) \qquad\text{par croissance de $\subset $} \\
			\text{or } &\begin{cases}
				P\left( \bigcap_{1 \le i \le k} A_i  \right) &\neq 0 \\
				P\left(  \bigcap_{1 \le i \le n-1} A_i\right) &\in [0, 1]
			\end{cases} \\
				\text{donc } P\left(  \bigcap_{1 \le i \le k} A_i\right) &\ge P\left(  \bigcap_{1 \le i \le n-1} A_i\right) > 0
		\end{align*}
	\item \begin{align*}
			P(A_1) P(A_2 | A_1) P(A_3 | A_1 \cap A_2) \cdots P(A_n | A_1 \cap \ldots\cap A_{n-1}) &= \cancel{P(A_1)} \frac{P(A_1\cap A_2)}{P(A_1)} \times \cdots  \times \frac{P(A_1 \cap \ldots\cap A_n)}{P(A_1 \cap \ldots\cap A_{n-1})}  \\
													      &= P(A_1 \cap \ldots\cap A_n) \\
	\end{align*}
\end{enumerate}
\cqfd

\begin{appl}
On effectue $n$ tirages successifs dans une urne qui contient initialement une boule rouge et une boule blanche. Si la boule tir\'ee est blanche, on la remet et on passe au tirage suivant. Si la boule tir\'ee est rouge, on la remet ainsi qu'une autre boule rouge.
\begin{enumerate}
\item Calculer la probabilit\'e de ne piocher que des boules blanches.
\item Calculer la probabilit\'e de ne piocher que des boules rouges.
\end{enumerate}
\end{appl}

On note  $\begin{cases}
	W_k &= \text{On tire une boule blanche au $k$-ième tirage} \\
	R_k &= \text{La $k$-ième boule tirée est rouge} \\
\end{cases}$

On a $P(W_1 \cap \ldots\cap W_{n-1})\neq 0$

D'où

\newcommand{\sfrac}[2]{#1/#2}

\begin{align*}
	P(W_1 \cap  \ldots \cap  W_n) &= P(W_1) P(W_2 | W_1) \ldots P(W_n | W_1 \cap  \ldots\cap W_{n-1}) \\
\end{align*}

En général, \[
	P(W_k | W_1 \cap \ldots\cap W_{k-1}) = \frac{1}{2}
\] 

D'où 

\begin{align*}
	P(W_1 \cap \ldots\cap W_{n-1}) = \frac{1}{2^{n}}
\end{align*}

\medskip
\medskip
\medskip
\medskip

On a $P(R_1 \cap \ldots\cap R_{n-1})\neq 0$

D'où d'après la FPC

\begin{align*}
	P(R_1 \cap  \ldots \cap  R_n) &= P(R_1) P(R_2 | R_1) \ldots P(R_n | R_1 \cap  \ldots\cap R_{n-1}) \\
\end{align*}

En général,

\begin{align*}
	P(R_k | R_1 \cap \ldots\cap R_{k-1}) &= \frac{k}{k+1} \\
\end{align*}

D'où

\begin{align*}
	P(R_1 \cap \ldots\cap R_n) &= \frac{1}{2}  \times \frac{2}{3}  \times \cdots \frac{n}{n+1} \\
	&= \frac{1}{n+1} \\
\end{align*}

\subsection{Formule des probabilit\'es totales}

\thm[Formule des probabilit\'es totales]
Soit $(A_1,A_2,\ldots,A_n)$ un syst\`eme complet d'\'ev\'enements de probabilt\'es non nulles et $B$ un \'ev\'enement.\break
On a~: $\dsp{P(B)=\sum\limits_{k=1}^nP(A_k)P_{A_k}(B)}$.
\mht

\rmq
La formule reste vraie si certains $A_i$ sont de probabilité nulle avec la convention  $0 \cdot P(B|A) = 0$
\qmr

\demo
\begin{align*}
	P(B) &= P(B\cap \Omega) \\
	     &= P(B \cap (A_1 \amalg \cdots \amalg A_n))  \\
	     &= P(B \cap A_1 \amalg B \cap A_2 \amalg \cdots \amalg B \cap A_n) \\
	     &= P(B\cap A_1) + \cdots + P(B\cap A_n) \\
	     &= P(A_1) P(B|A_1) + \cdots + P(A_n) P(B|A_n)  \\
\end{align*}
\cqfd

\begin{appl}
Notons pour $k\le n$ $\begin{cases}
	E_k &= \text{la somme des $k$ premiers résultats est paire} \\
	^c E_k &= \text{la somme des $k$ premiers résultats est impaire} \\
\end{cases}$
$(E_{n-1}, ^c E_{n-1})$ forme un sce d'évènements de probabilités non-nulle donc d'après la FPT
\begin{enumerate}
\item On lance $n \geq 1$ d\'e(s) \`a $20$ faces. Quelle est la probabilit\'e que la somme des num\'eros obtenus soit paire~? 

\begin{align*}
	P(E_k) &= P(E_{n-1}) P(E_n | E_{n-1}) + P(^c E_{n-1}) P(E_n | ^c E_{n-1}) \\
	       &= P(E_{n-1}) \times \frac{1}{2} + P(^c E_{n-1})  \times \frac{1}{2} \\
	       &= \frac{1}{2} \left(\underbrace{P(E_{n-1}) + P(^c E_{n-1})}_{1}\right) \\
	       &= \frac{1}{2} \\
\end{align*}
\item On lance $n \geq 1$ d\'e(s) \`a 3 faces. Quelle est la probabilit\'e que la somme des numéros obtenus soit impaire ?\\[-0.2cm]

\begin{align*}
	P(^c E_k) &= P(E_{n-1}) P(^c E_n | E_{n-1}) + P(^c E_{n-1}) P(^c E_n | ^c E_{n-1}) \\
	       &= P(E_{n-1}) \times \frac{2}{3} + P(^c E_{n-1})  \times \frac{1}{3} \\
	       &= (1 - P(^cE_{n-1}))\frac{2}{3} + P(^c E_{n-1})\frac{1}{3} \\
	       &= \frac{1}{2} \\
\end{align*}

On a une relation de récurrence sur $P(^c E_n)$:

 \[
	 \forall n\ge 1,\ P(^cE_n) = -\frac{1}{3} P(^c E_{n-1}) + \frac{2}{3}
\] 

C'est une suite arithmético-géométrique: $l = -\frac{1}{3}l + \frac{2}{3}$
 
\begin{align*}
	P(^c E_n) - l &= -\frac{1}{3}(P(^c E_n) - l) \\
		      &= \left( -\frac{1}{3} \right)^{n} (P(^c E_0) - l) \\
\end{align*}

On a $\begin{cases}
	l&= \frac{1}{2} \\
	P(^c E_0) &= 0 \\
\end{cases}$ donc $P(^c E_n) = \left( -\frac{1}{3} \right)^{n} \left( -\frac{1}{2} \right) + \frac{1}{2}$

\end{enumerate}

\end{appl}

\subsection{Formule de Bayes}

\thm[Petite formule de Bayes]
~\\[-0.35cm]
Soient $A$ et $B$ deux \'ev\'enements de probabilt\'es non nulles. On a~: $P_B(A)=\dfrac{P(A)P_A(B)}{P(B)}$.
\mht

\demo
\begin{align*}
	P(A|B) &= \frac{P(A\cap B)}{P(B)} \\
	       &= \frac{P(A) P(B|A)}{P(B)} \\
\end{align*}
\cqfd

\begin{appl}
Un questionnaire \`a choix multiples propose $m$ r\'eponses pour chaque question. Soit $p$ la probabilit\'e qu'un \'etudiant connaisse la bonne r\'eponse \`a une question donn\'ee. S'il ignore la r\'eponse, il choisit au hasard l'une des r\'eponses propos\'ees. Quelle est %pour le correcteur 
 la probabilit\'e qu'un \'etudiant connaisse vraiment la bonne r\'eponse lorsqu'il l'a donn\'ee ?
\end{appl}

Notons $\begin{cases}
	K &:= \text{iel connaissait la bonne répons.e.s} \\
	R &:= \text{iel a donné.e.s la bonne répons.e.s}
\end{cases}$.

\begin{align*}
	P(K|R) &= \frac{P(K)P(R|K)}{P(R)}  \\
	       &\begin{cases}
			P(R|K) &= 1 \\ P(R|^cK) &= \frac{1}{n} \\
	\end{cases} \\
	P(R) &= P(R) P(R|K) + P(^cK) P(R|^cK) \\
	     &= p  \cdot 1+(1-p) \cdot \frac{1}{n} \\
	P(K|R) &= \frac{p \cdot n}{p \cdot n+(A-p) \cdot 1} \\
\end{align*}

On remarquera que, dans cet exercice, on a obtenu la probabilit\'e que l'\'etudiant donne la bonne r\'eponse en utilisant la formule des probabilit\'es totales. Il en va souvent ainsi, d'o\`u l'id\'ee d'\'enoncer la reformulation suivante~:

\thm[Grosse formule de Bayes]
Soit $(A_1,A_2,\ldots,A_n)$ un syst\`eme complet d'\'ev\'enements de probabilt\'es non nulles et $B$ un \'ev\'enement de probabilit\'e non nulle. On a, pour tout $k\in\{1,\ldots,n\}$,  $\dsp{P_B(A_k)=\frac{P(A_k)P_{A_k}(B)}{\sum\limits_{i=1}^nP(A_i)P_{A_i}(B)}}$.
\mht

Sur l'exemple pr\'ec\'edent, on l'a utilis\'ee sans le dire avec $(A_1,\ldots,A_k)=(A_1, A_2)$ et $B=B$

\end{document}
