\input{../.headers/cours.tex}
\renewcommand{\tendvers}[3]{#1\underset{#2}{\longrightarrow} #3}

%\baselineskip15pt

\begin{center}
\shadowbox{\LARGE \textsc{Espaces pr\'ehilbertiens.}}\\[0.2cm]
\end{center}

{\bf Contexte}~: dans tout le chapitre $E$ d\'esigne un $\uuline{\R}$-espace vectoriel. {\bf \`A retenir}~: la formule de projection~!\\


\smallskip
\section{Produit scalaire}

\smallskip
\subsection{L'exemple du produit scalaire usuel sur $\R^n$}
%\smallskip

\exx
On appelle \newdef{produit scalaire usuel sur $\R^n$} l'application $\dsp{\langle\cdot,\cdot\cdot\rangle~:\defapp{\R^n\times\R^n}{\R}{\left(\mvect{x_1\\\vdots\\x_n},\mvect{y_1\\\vdots\\y_n}\right)}{\dsp{\sum\limits_{i=1}^n x_iy_i}.}}$\\
\xxe

\underline{Objectif}~: axiomatiser la notion de produit scalaire \`a partir de cet exemple.\\[0.4cm]
%
Lorsqu'on d\'emontre des propri\'et\'es \`a l'aide du produit scalaire (cf cours de trigonom\'etrie ou Tacmas sur $\R^3$),\\quelles propri\'et\'es utilise-t-on~? Celles du th\'eor\`eme suivant.

\thm\label{LePsUsuelEstUnPs}\ \\[-1.05cm]\phantom{Th\'eor\`eme 1~:~~}
L'application $\langle\cdot,\cdot\cdot\rangle$ est~:\supline\subline
\begin{enumerate}
\item[0.] \`a valeurs dans $\R$~;\bigsubline
\item sym\'etrique~: $\forall x,y\in\R^n,\ \langle y,x\rangle=\langle x,y\rangle$~;\bigsubline
\item bilin\'eaire~: $\lect{\forall x,y,z\in\R^n,\ \forall \lambda,\mu\in\R,\ \langle \lambda x+\mu y,z\rangle=\lambda\langle x,z\rangle+\mu\langle y,z\rangle  \text{ (lin\'earit\'e \`a gauche)}\\\forall x,y,z\in\R^n,\ \forall \lambda,\mu\in\R,\ \langle x,\lambda y+\mu z\rangle=\lambda\langle x,y\rangle+\mu\langle x,z\rangle \text{ (lin\'earit\'e \`a droite)}~;}$
\item d\'efinie-positive~: $\lect{\forall x\in\R^n,\ \langle x,x\rangle\geq 0 \text{ (positivit\'e)}\\\forall x\in\R^n,\ \langle x,x\rangle=0 \,\Rightarrow\,  x=0_E \text{ (caract\`ere d\'efini).}}$
\end{enumerate}
\mht

\demo
On va constamment dans ce chapitre v\'erifier les points 1, 2, 3. Voyons ici un exemple de r\'edaction.
\begin{enumerate}
\item Soient $x=\mvect{x_1\\\vdots\\x_n}$ et $y=\mvect{y_1\\\vdots\\y_n}$ deux vecteurs de $\R^n$. On a~:\\
$\begin{array}{lcll} \langle y,x\rangle
& = & \dsp{\sum\limits_{i=1}^n y_ix_i} & \text{ par d\'efinition}\\
& = & \dsp{\sum\limits_{i=1}^n x_iy_i} & \text{ par commutativit\'e du produit des r\'eels}\\[0.4cm]
& = & \langle x,y\rangle & \text{ par d\'efinition}\\[0.25cm]
\end{array}$
\item Pour la bilin\'earit\'e~: il suffit de d\'emontrer la lin\'earit\'e \`a gauche, car par sym\'etrie on en d\'eduit la lin\'earit\'e \`a droite.\\
Soient $x=\mvect{x_1\\\vdots\\x_n}$, $y=\mvect{y_1\\\vdots\\y_n}$ et $z=\mvect{z_1\\\vdots\\z_n}$ trois vecteurs de $\R^n$, soient $\lambda$ et $\mu$ deux r\'eels. On a~:\\
$\begin{array}{lcll} \langle \lambda x+\mu y, z\rangle
& = & \dsp{\sum\limits_{i=1}^n (\lambda x_i+\mu y_i)z_i} & \text{ par d\'efinition}\\
& = & \dsp{\sum\limits_{i=1}^n (\lambda x_iz_i+\mu y_iz_i)} & \text{ par distributivit\'e de $\times$ sur $+$}\\
& = & \dsp{\lambda \sum\limits_{i=1}^n x_iz_i \,+\, \mu \sum\limits_{i=1}^ny_iz_i} & \text{ par lin\'earit\'e de la somme}\\[0.45cm]
& = & \lambda\langle x,z\rangle + \mu\langle y,z\rangle & \text{ par d\'efinition}\\
\end{array}$
\item Positivit\'e~: soit $x=\mvect{x_1\\\vdots\\x_n}\in\R^n$.\\
On a~: $\dsp{\langle x,x\rangle = \sum\limits_{i=1}^n x_i^2 \geq 0}$ car un carr\'e est toujours positif et car les in\'egalit\'es sont stables par somme.\\
Caract\`ere d\'efini~: soit $x=\mvect{x_1\\\vdots\\x_n}\in\R^n$ et supposons $\dsp{\langle x,x\rangle = 0}$ \ie $\dsp{\sum\limits_{i=1}^n x_i^2 = 0}$. Une somme de positifs\,est\,nulle\,si\,et seulement si tous ses termes sont nuls donc $\forall i\in\{1,\ldots,n\},\ x_i^2=0$ \ie $\forall i\in\{1,\ldots,n\},\ x_i=0$ \ie $x=\vnul$.\\[-1cm]
\end{enumerate}
\cqfd


%\smallskip
\subsection{D\'efinitions}
\medskip

\dfn[Produit scalaire sur $E$]
On appelle \newdef{produit scalaire sur $E$} une {\bf forme bilin\'eaire sym\'etrique d\'efinie positive sur $\pmb{E}$} \cad\subline 
\begin{enumerate}
\item[] une application $\Phi : E\times E \too \R$ telle que~:\subline
\item[1.] $\Phi$ est sym\'etrique, \ie $\forall x,y\in\R^n,\ \Phi(y,x)=\Phi(x,y)$~;\subline
\item[2.] $\Phi$ est bilin\'eaire, \ie $\lect{
\!\!\forall x,y,z\in\R^n,\ \forall \lambda,\mu\in\R,\ \Phi(\lambda x+\mu y,z)=\lambda\Phi(x,z)+\mu\Phi(y,z) \text{ (lin\'earit\'e \`a gauche)}\\
\!\!\forall x,y,z\in\R^n,\ \forall \lambda,\mu\in\R,\ \Phi(x,\lambda y+\mu z)=\lambda\Phi(x,y)+\mu\Phi(x,z) \text{ (lin\'earit\'e \`a droite)~;}}$
\item[3.] $\Phi$ est d\'efinie-positive, \ie $\lect{\forall x\in\R^n,\ \Phi(x,x)\geq 0 \text{ (positivit\'e)}\\\forall x\in\R^n,\ \Phi(x,x)=0 \,\Rightarrow\,  x=0_E \text{ (caract\`ere d\'efini).}}$
\end{enumerate}
\nfd

Le th\'eor\`eme \ref{LePsUsuelEstUnPs} s'\'enonce donc : \og le produit scalaire usuel sur $\R^n$ est un produit scalaire \fg.

\medskip
\rmq\ \\[-1cm]
\begin{enumerate}
\item Le fait que le corps soit $\R$ est donc essentiel pour pouvoir \'enoncer la positivit\'e.
\item Pour montrer la bilin\'earit\'e, il est pratique de montrer d'abord la sym\'etrie pour n'avoir que la lin\'earit\'e d'un seul c\^ot\'e \`a montrer, comme on l'a fait plus haut pour le produit scalaire usuel sur $\R^n$.
\end{enumerate}
\qmr

\nota
On utilise souvent l'une des trois notations suivantes pour d\'enoter un produit scalaire $\Phi$ sur $E$. \'Etant donn\'es deux vecteurs $x$ et $y$ de $E$ leur produit scalaire $\Phi(x,y)$ pourra se noter $(x|y)$ ou $\langle x,y \rangle$ ou $x\cdot y$.
\aton

\dfn\ \\[-0.85cm]
\begin{enumerate}
\item On appelle \newdef{espace pr\'ehilbertien} un $\R$-espace vectoriel muni d'un  produit scalaire $(E,\Phi)$.
\item On appelle \newdef{espace euclidien} un espace pr\'ehilbertien de dimension finie.
\end{enumerate}
\nfd

On peut essayer de copier-coller plus directement la d\'efinition du produit scalaire usuel de $\R^n$~:

\prd[Produit scalaire canoniquement associ\'e \`a une base]
Soit $\bc=(\eps_i)_{i\in I}$ une base de $E$. \\On appelle \newdef{produit scalaire canoniquement associ\'e \`a $\bc$} l'application $\defapp{E\times E}{\R}{\dsp{\left(\sum\limits_{i\in I} x_i \eps_i,\sum\limits_{i\in I} y_i \eps_i\right)}}{\dsp{\sum\limits_{i\in I} x_iyi}.}$\\
Le produit scalaire canoniquement associ\'e \`a $\bc$ est bien un produit scalaire~!
\drp

\rmq
Dans la d\'efinition pr\'ec\'edentes, toutes les sommes sont en fait finies (il n'y a qu'un nombre fini de termes non nuls) m\^eme pour $I$ infini, et correspondent aux d\'ecompositions dans la base $\bc$, il s'agit juste d'une notation pratique pour \'eviter les doubles indices.
\qmr

\demo La m\^eme que pour le produit scalaire usuel de $\R^n$, qui est le produit scalaire canoniquement associ\'e \`a la base canonique de $\R^n$. \cqfd

\smallskip
\subsection{Autres exemples}
%\smallskip

\exx Sur $E=\cc([a,b],\R)$, o\`u $a<b\in\R$, on peut consid\'erer le \newdef{produit scalaire int\'egral} $\dsp{\Phi = (f,g) \mapsto \int_a^b f(t)g(t)\dt}$.
\xxe

\thm Sur $E=\cc([a,b],\R)$ %, o\`u $a<b\in\R$, l'application $\dsp{\Phi = (f,g) \mapsto \int_a^b f(t)g(t)\dt}$
 le produit scalaire int\'egral $\dsp{\Phi = (f,g) \mapsto \int_a^b f(t)g(t)\dt}$ est bien un produit scalaire.
\mht

\demo\ \\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\cqfd

\exs Deux variantes du th\'eor\`eme pr\'ec\'edent~:\subline
\begin{enumerate}
\item Sur $E=\cc_T(\R,\R)$ (ensemble des fonctions $T$-p\'eriodiques et continues de $\R$ dans $\R$) et pour $a\in\R$ quelconque, l'application $\dsp{\Phi = (f,g) \mapsto \int_a^{a+T} f(t)g(t)\dt}$ est un produit scalaire.
\item Sur $E=\R[X]$ et pour $a<b\in\R$, l'application $\dsp{\Phi = (P,Q) \mapsto \int_a^{b} P(t)Q(t)\dt}$ est un produit scalaire.
\end{enumerate}
\sxe

\demo On recopie la d\'emonstration pr\'ec\'edente mais il faut ajuster la fin de la preuve de ${}_{.....................................}{}^{{}^{{}^{{}^{{}^{}}}}}$.\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\cqfd


\exx Sur $E=\mathcal{M}_{p,q}(\R)$, l'application $\dsp{\Phi = (A,B) \mapsto \mathrm{Tr}\big({}^tA B\big)}$ est un produit scalaire.
\xxe

\demo Deux m\'ethodes~:\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\cqfd

\exx Pour $E\!=\!\K_n(\R)$, et $\alpha_0\!\!<\!\!\alpha_1\!\!<\!\!\ldots\!\!<\!\!\alpha_n\!\in\!\R$, l'application $\dsp{\Phi = (P,Q) \mapsto \sum\limits_{i=0}^n P(\alpha_i)Q(\alpha_i)}$ est un produit scalaire.
\xxe

\demo Attention on a peu de place~:
\begin{align*}
	\decomp{P}{\lc} &= \begin{pmatrix} P(\alpha_0) \\ P(\alpha_1) \\ \vdots \\ P(\alpha_n) \end{pmatrix}  \\
\end{align*}

C'est le produit scalaire canoniqument associé à la \emph{base de Lagrange} 
\cqfd

\pro[La restriction d'un produit scalaire est un produit scalaire]\label{RestrictionPs}
Autrement dit si $\Phi : E\times E \too \R$ est un produit scalaire sur $E$, et $F$ est un \sev de $E$, alors $\Phi_{|F\times F} : F\times F \too \R$ est un produit scalaire sur $F$.
\orp

\demo La d\'efinition d'un produit scalaire ne comporte que des quantifications universelles sur $E$~! \cqfd

\exx Sur $E=\R_n[X]$ et pour $a<b\in\R$, l'application $\dsp{\Phi = (P,Q) \mapsto \int_a^{b} P(t)Q(t)\dt}$ est un produit scalaire.
\xxe

\smallskip
\subsection{Normes et distances}
\smallskip

\dfn[Norme euclidienne]
Soit $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ un espace pr\'ehilbertien. On appelle \newdef{norme euclidienne} l'application $N : \defapp{E}{\R_+}{u}{\sqrt{\langle u,u\rangle}.}$
\nfd

\rmq\ \\[-1cm] \phantom{Remarque 3~:~~} L'application $N$ est bien d\'efinie par positivit\'e du produit scalaire.
\qmr

\bigskip
\nota
On utilise souvent l'une des deux notations suivantes pour d\'enoter la norme euclidienne de $(E,\langle\cdot,\cdot\cdot\rangle)$. \\\'Etant donn\'e un vecteur $x$ de $E$ sa norme euclidienne $N(x)$ pourra se noter $\|x\|$ ou $\|x\|_{{}_2}$.
\aton
\bigskip

\exs\subline
\begin{enumerate}
\item Dans $\R^n$ muni du produit scalaire usuel, la norme euclidienne est la norme usuelle.\\[0.15cm]
	Par exemple pour $n=3$ on a $\left\|\mvect{1\\-1\\2}\right\|=\sqrt{\langle \begin{pmatrix} 1\\-1\\2 \end{pmatrix} , \begin{pmatrix} 1\\-1\\2 \end{pmatrix} \rangle} = \sqrt{6}$.
\item Dans $\cc_{2\pi}(\R,\R)$ muni du produit scalaire int\'egral, on a $\left\|\cos\right\|=\sqrt{\pi} $ car~:

	On prend le produit scalaire intéral, et l'intégrale d'une $T$-périodique sur $[a, a+T]$ ne dépend pas de $a$.
	On choist $a=-\pi$


	\begin{align*}
		\| \cos \| &= \sqrt{\langle \cos, \cos \rangle}  \\
			   &= \sqrt{\int_{-\pi}^{\pi} \cos^2}  \\
			   &= \sqrt{\int_{-\pi}^{\pi} \frac{1+\cos(2t)}{2} \dt}  \\
			   &= \sqrt{\left[ \frac{t}{2} + \frac{\sin(2t)}{4}\right]_{t=-\pi}^{\pi}}  \\
			   &= \sqrt{\frac{\pi}{2}+\frac{\pi}{2}}  \\
			   &= \sqrt{\pi}  \\
	\end{align*}
\end{enumerate}
\sxe

\thm[In\'egalit\'e de Cauchy-Schwarz]
Soit $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ un espace pr\'ehilbertien et $\|\cdot\|$ la norme associ\'ee. Pour tous $u,v\in E$ on a $\left|\langle u, v\rangle \right| \leq \|u\|\,\|v\|$.
\mht

\rmq C'est \'evident dans $\R^2$ (ou $\R^3$) muni du produit scalaire usuel. Une formule et un dessin~:\\\\\\\\\\\\\\\\\\\\
\qmr

\demo On r\'ecite CCINP76 en regardant o\`u est-ce qu'on a quelque chose \`a adapter.
\paragraph{1er cas} ($u=0_E$)
ok.

\paragraph{2e cas}  ($u\neq 0_E$)

\begin{align*}
	P(\lambda) &:= \left\|\lambda u + v \right\|^2 \ge  0\\
	&= \langle \lambda u + v, \lambda u + v > \\
	&= \lambda^2\langle u, u \rangle + \lambda \langle u, v\rangle + \lambda \langle v, u \rangle + \langle v, v \rangle \quad&\text{par bilinéarité} \\
	&= \|u\|^2\lambda^2+2\langle u, v\rangle \lambda + \|v\|^2 \quad&\text{par symétrie}\\
	\iff \|u\|^2 &= \langle u, u\rangle \neq 0 \quad&\text{car $u\neq 0_E$ (définie-positivité)} \\
\end{align*}

Donc $\deg P(\lambda) = 2$ et le signe de $P$ ne change pas donc son discriminant $\Delta$ est négatif.

\begin{align*}
	\Delta &= (2\langle u, v\rangle)^2 - R\|u\|^2\|v\|^2 \\
	       &= 4\langle u, v\rangle^2 - R\|u\|^2\|v\|^2 \\
	\Delta \le  0 &\iff 4\langle u, v \rangle^2 \le 4\|u\|^2\|v\|^2 \\
		      &\iff \langle u, v\rangle^2 \le \|u\|^2\|v\|^2 \\
		      &\iff |\langle u, v\rangle| = \sqrt{\langle u, v \rangle^2} \le  \|u\|\|v\|  \quad&\text{par croissance de $\sqrt{} $}
\end{align*}
\cqfd

\thm[Cas d'\'egalit\'e dans Cauchy-Schwarz]
Soit $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ un espace pr\'ehilbertien et $\|\cdot\|$ la norme associ\'ee.\\[0.2cm]
Pour tous $u,v\in E$ on a $\left|\langle u, v\rangle\right| = \|u\|\,\|v\|$ ssi $u$ et $v$ sont colin\'eaires.
\mht

\demo

\emph{1er cas} ($u=0_E$)
ok.

\emph{2e cas} ($u\neq 0_E$)

Le cas d'égalité est obtenu pour $\Delta=0$

%TODO: transformer en formel
\ie dans le cas où $P(\lambda)$ a une racine $\lambda_0$

\ie lorsqu'il existe $\lambda_0\in \R$ tel que $\|\lambda_0 u + v\|^2$

\ie lorsqu'il existe $\lambda_0\in \R$ tel que $\lambda_0 u + v = 0_E$ par définie-posivité

\ie lorsque $u / / v$ car $v\neq 0_E$

\cqfd

\begin{appl}
\begin{itemize}[$\bullet$]
\item Les CCINP 76 et 79 sont essentiellement des applications de Cauchy-Schwarz pour le produit scalaire int\'egral.\subline
\item On peut aussi traiter sur le m\^eme mod\`ele l'exercice 4-D de \href{http://mpsi.daudet.free.fr/maths/exercices/td/TD12_reels.pdf}{la feuille sur le nombres r\'eels}.\\
\end{itemize}
\end{appl}


\newcommand{\Tr}{\operatorname{Tr}}

\begin{appl}
Montrons qu'on a $\forall M\in\mnr,\ \mathrm{Tr}\big(M\big)^2 \leq \,n\,\mathrm{Tr}\big({}^tMM\big)$.

On se place dans $(\mc_n(\R), \operatorname{Tr}(^t \cdot \  \cdot  \cdot ))$

D'après cauchy-schwarz:

\begin{align*}
	|\Tr(^t A B)| &\le \sqrt{\Tr(^t A A)\Tr(^t B B)}  \\
	\iff \Tr(^t A B)^2 &\le \Tr(^t A A)\Tr(^t B B) \\
		\iff \Tr(M)^2 &\le n\Tr(^t M M) \quad&\text{pour $\begin{cases}
			A &= I_n \\
			B &= M \\
		\end{cases}$}
\end{align*}

\end{appl}

\begin{appl}
On peut "d\'efinir des angles" dans n'importe quel espace pr\'ehilbertien $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$.\\
Pr\'ecis\'ement, \'etant donn\'es deux vecteurs non nuls $u$ et $v$ de $E$, on peut d\'efinir \newdef{la mesure de l'angle non orient\'e $\widehat{(u,v)}$} comme \'etant le nombre $\arccos\Big(\frac{\langle u,v\rangle}{\|u\|\cdot\|v\|}\Big)\in[0,\pi]$.
\end{appl}

\thm[Propri\'et\'es d'une norme]
Soit $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ un espace pr\'ehilbertien. La norme euclidienne $N = u \mapsto \sqrt{\langle u,u\rangle}$\subline
\begin{enumerate}
\item[] est une application $N : E\too\R_+$ qui v\'erifie~:\subline
\item[1.] l'\newdef{homog\'en\'eit\'e}~: $\forall u\in E,\ \forall \lambda\in\R,\ N(\lambda u)=|\lambda| N(u)$~;\subline
\item[2.] la \newdef{s\'eparation}~: $\forall u\in E,\ N(u)=0~~N(u) = 0 \iff u = 0_E$~;\subline
\item[3.] l'\newdef{in\'egalit\'e triangulaire}~: $\forall u,v\in E,\ N(u+v) \le N(u) + N(v)$.
\end{enumerate}
\mht

En fait lorsque ces propri\'et\'es sont v\'erifi\'ees on dit que l'application $N$ est \newdef{une norme}, et il existe d'autres normes que les normes euclidiennes, mais elles sont seulement au programme de seconde ann\'ee.

\demo
% \paragraph{Homogénéité}
% \begin{align*}
% 	N(\lambda u) &= \sqrt{\langle \lambda u, \lambda u \rangle}  \\
% 		     &= \sqrt{\lambda^2\langle u, u\rangle}  \quad\text{par bilinéarité}\\
% 		     &= |\lambda| \|u\|
% \end{align*}

% \paragraph{Séparation}
\begin{align*}
	N(u) &= 0 \\
	\iff \sqrt{\langle u, u\rangle} &= 0 \\
\iff\langle u, u\rangle &= 0 \\
	u&= 0 \quad&\text{par définie-positivité} 
\end{align*}

% \paragraph{Inégalité triangulaire}
Soit $u, v\in E$

% \begin{align*}
% 	N^2(u+v) &= \langle u+v, u+v\rangle \\
% 		 &= \langle u, u\rangle^2 + 2\langle u, v \rangle + \langle v, v\rangle^2 \quad&\text{par symétrie et bilinéarité} \\
% 		 &= \|u\|^2 + 2\langle u, v\rangle + \|v\|^2 \\
% 		 &\le \|u\|^2 + 2|\langle u, v\rangle + \|v\|^2 \\
% 		 &\le \underbrace{\|u\|^2 + 2\|u\|\|v\| + \|v\|^2}_{(N(u)+N(v))^2} \quad&\text{d'après Cauchy-Schwarz}
% \end{align*}

\cqfd

\thm[Identit\'es de polarisation]
Soit $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ un espace pr\'ehilbertien de norme euclidienne $\|\cdot\|$. Soient $u$, $v$ dans $E$. Alors~:
\begin{enumerate}
\item $\dsp{\langle u,v\rangle = \frac{\|u+v\|^2-\|u\|^2-\|v\|^2}{2}}$~;
\item $\dsp{\langle u,v\rangle = \frac{\|u+v\|^2-\|u-v\|^2}{4}}$.
\end{enumerate}
\mht

\demo
%FIXME
\begin{align*}
	\frac{\langle u+v, u+v\rangle - \langle u, u\rangle - \langle v, v\rangle}{2} &= \frac{\langle u, u\rangle + 2\langle u, v\rangle + \langle v, v\rangle - \langle u, u\rangle - \langle v, v\rangle}{2} \quad&\text{par bilinéarité et symétrie}\\
										      &= \langle u, v\rangle \\
	\frac{\langle u+v, u+v\rangle - \langle u-v, u-v \rangle}{4} &= \frac{\langle u, u\rangle + 2\langle u, v\rangle + \langle v, v\rangle - \left( \langle u, u\rangle - 2\langle v, u\rangle + \langle v, v\rangle \right) }{4} \\
\end{align*}
\cqfd

Ce th\'eor\`eme indique donc qu'on peut reconstituer le produit scalaire \`a partir de la norme euclidienne.

\dfn[Distance euclidienne]
Soit $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ un espace pr\'ehilbertien de norme euclidienne $\|\cdot\|$.\subline\\
On appelle \newdef{distance euclidienne entre $A$ et $B$} le r\'eel positif $d(A,B)=\|B-A\|$.
\nfd

\thm[Propri\'et\'es d'une distance]
Soit $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ un espace pr\'ehilbertien de norme euclidienne $\|\cdot\|$. La distance euclidienne $d = (A,B) \mapsto d(A,B)$\subline
\begin{enumerate}
\item[] est une application $d : E\times E\too\R_+$ qui v\'erifie~:\subline
\item[1.] la \newdef{sym\'etrie}~: $\forall A,B\in E,\ d(A,B)=d(B,A)$~;\subline
\item[2.] la \newdef{s\'eparation}~: $\forall A,B\in E,\ d(A,B)=0 \Leftrightarrow A=B$~;\subline
\item[3.] l'\newdef{in\'egalit\'e triangulaire}~: $\forall A,B,C\in E,\ d(A,C)\leq d(A,B)+d(B,C)$.
\end{enumerate}
\mht

\demo C'est une traduction quasi-imm\'ediate des propri\'et\'es des normes. Exercice, si tu y tiens.\cqfd

\exx Dans $\cc_{2\pi}(\R,\R)$ muni du produit scalaire int\'egral, on a $d(\cos,\sin)={}_{...........}$ car~:

\begin{align*}
	d(\cos, \sin) &= \| \cos-\sin\| = \| \sin-\cos\|\\
		      &= \sqrt{\langle \cos-\sin, \cos-\sin\rangle}  \\
		      &= \sqrt{\int_{-\pi}^{\pi}(\cos-\sin)^2}  \\
		      &= \sqrt{\int_{-\pi}^{\pi}\left( \sqrt{2} \left( \frac{\sqrt{2} }{2} \cos t - \frac{\sqrt{2} }{2}\sin t \right)  \right)^2 \dt}  \\
		      &= \sqrt{\int_{-\pi}^{\pi}2 \cos^2(t+\frac{\pi}{4} \dt}  \\
		      &= \sqrt{\int_{\pi}^{\pi} 1 + \cos(2t + \frac{\pi}{2}) \dt} \\
		      &= \sqrt{\int_{\pi}^{\pi} 1 - \sin 2t \dt}  \\
		      &= \sqrt{\left[ t + \frac{\cos 2t}{2} \right]_{t=-\pi}^{\pi} }  \\
		      &= \sqrt{2\pi}  \\
\end{align*}

\xxe

\section{Orthogonalit\'e}

Dans toute cette section, $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ d\'esigne un espace pr\'ehilbertien et $\|\cdot\|$ la norme euclidienne associ\'ee.

\smallskip
\subsection{Vecteurs orthogonaux}
\smallskip

\dfn[Vecteur orthogonaux]
Soient $u$, $v\in E$. On dit que \newdef{$u$ et $v$ sont orthogonaux} lorsqu'on a $\langle u,v\rangle=0$.\subline\\
(C'est une relation sym\'etrique par sym\'etrie du produit scalaire.)
\nfd

\nota
On le note $u\bot v$.
\aton
\medskip

\exx~~ Dans $\cc_{2\pi}(\R,\R)$ muni du produit scalaire int\'egral, on a $\cos \bot \sin$ car~:

\begin{align*}
	\langle \cos, \sin\rangle &= \int_{\pi}^{\pi} \cos  \cdot \sin \\
	&= \frac{1}{2} \int_{-\pi}^{\pi} 2\cos  \cdot \sin \\
	&= \frac{1}{2} \int_{-\pi}^{\pi} \sin(2t) \dt \\
	&= \frac{1}{4} \left[ -\cos(2t) \right]_{t=-\pi}^{\pi}  \\
	&= 0 \\
\end{align*}

\xxe

\exx~~ Dans $\R^2$ muni du produit scalaire usuel, on sait bien (?) qu'un vecteur orthogonal \`a $\mvect{a\\b}$ est ${}_{..........}$.
\xxe

\thm[Pythagore]
Soient $u$, $v\in E$. Alors on a $u\bot v\Leftrightarrow\|u+v\|^2=\|u\|^2+\|v\|^2$.
\mht

\demo
\begin{align*}
	u\bot v &\iff \langle u,v \rangle = 0 \\
		&\iff 2\langle u, v\rangle = 0 \\
		&\iff \|u\|^2 + 2\langle u, v\rangle + \|v\|^2 = \|u\|^2+\|v\|^2 \\
		&\iff \|u+v\|^2 = \|u\|^2 + \|v\|^2 \quad&\text{par bilinéarité et symétrie}
\end{align*}
\cqfd

\exx Dans $\cc_{2\pi}(\R,\R)$ muni du produit scalaire int\'egral, retrouvons $d(\cos,\sin)$.

\begin{align*}
	d(\cos, \sin) &= \| \underbrace{\cos + (-\sin)}_{\bot} \|^2 \\
	&= \|\cos\|^2 + \|\sin\|^2 \\
	\|\cos\|^2 &= \int_{-\pi}^{\pi} \cos^2 \\
		   &= \int_{-\pi}^{\pi} \frac{1+\cos(2t)}{2} \dt \\
		   &= \left[ \frac{t}{2} + \frac{\sin(2t)}{4} \right]_{-\pi}^{\pi} \\
		   &= \pi \\
	\|\sin\|^2 &= \ldots = \pi \\
\end{align*}

Donc
\begin{align*}
	d(\cos, \sin)^2 &= 2\pi \\
	d(\cos, \sin) &= \sqrt{2\pi}  \\
\end{align*}

\xxe

\subsection{Familles orthogonales}

\dfn
Une famille $(u_i)_{i\in I}$ de vecteurs de $E$ est dire \newdef{orthogonale} lorsqu'on a $\forall i\neq j\in I,\ u_i \bot u_j$.
\nfd

\exx  Dans $\cc_{2\pi}(\R,\R)$ muni du produit scalaire int\'egral, la famille $\dsp{\Big(\cos(kt)\Big)_{k\in\N}}$ est orthogonale.
$u_k := (t\mapsto \cos(kt))_{k\in \N})$ est orthogonale

Soit $i\neq j\in \N$.

\begin{align*}
	\left< t \mapsto \cos(it), t\mapsto \cos(jt) \right> &= \int_{-\pi}^{\pi} \cos(it) \cdot \cos(jt) \dt \\
							     &=\frac{1}{2} \int_{-\pi}^{\pi}  \cos((i+j)t) + \cos((i-j)t) \dt \\
							     &= \frac{1}{2} \left[ \frac{\sin((i+j)t)}{i+j} + \frac{\sin((i-j)t)}{i-j} \right]_{t=-\pi}^{\pi} \quad&\text{car $i \pm j = 0$}\\
\end{align*}
\xxe


\thm[Pythagore g\'en\'eralis\'e]
Soient $n\in\N$ et $u_1, u_2, \ldots u_n\in E$. Supposons la famille $(u_1,\ldots,u_n)$ orthogonale.\subline\\
Alors on a $\|u_1+u_2+\cdots+u_n\|^2=\|u_1\|^2+\|u_2\|^2+\cdots+\|u_n\|^2$.
\mht
Attention, c'est seulement une implication, contrairement \`a Pythagore qui est une \'equivalence.

\demo
Supposons $(u_1, \ldots, u_n) \bot$

\begin{align*}
	\left\| \sum_{i=1}^{n} u_i \right\|^2 &= \left< \sum_{i=1}^{n} u_i, \sum_{j=1}^{n} u_j \right> \\
	&= \sum_{i=1}^{n} \underbrace{\sum_{j=1}^{n} \left<u_i, u_j \right>}_{\left<u_i, u_j \right>} \quad&\text{par bilinéarité} \\
	&= \sum_{i=1}^{n} \|u_i\|^2 \\
\end{align*}
\cqfd

\begin{appl}
Calculons $\dsp{\int_{-\pi}^{\pi} \bigg(\sum\limits_{k=1}^n \cos(kt)\bigg)^{\!2}\dt}$.

$(\cos\circ(k\id))_{k\in \N}$ est orthogonale donc

\begin{align*}
	\int_{-\pi}^{\pi} \left( \sum_{k=1}^{n} \cos(kt) \right) ^2 &= \sum_{k=1}^{n} \int_{-\pi}^{\pi} \cos(kt)^2 \\
								    &= \sum_{k=1}^{n} \frac{1}{k} \int_{-k\pi}^{k\pi} \cos(u)^2 \mathrm{d}u \\
								    &= \sum_{k=1}^{n} \frac{1}{k} \left[ \frac{1}{2} \frac{1}{2} (u+\sin u + \cos u) \right]_{-k\pi}^{\pi} \\
								    &= \sum_{k=1}^{n} \frac{1}{2k}\left( k\pi + k\pi \right)  \\
								    &= \sum_{k=1}^{n} \pi \\
								    &= n\pi \\
\end{align*}
\end{appl}

\label{thm10}
\thm
Toute famille orthogonale form\'ee de vecteurs non nuls est libre.
\mht

\demo
Considérons une CL nulle $\alpha_1 u_{i_1} + \alpha_2 u_{i_2} + \cdots + \alpha_n u_{i_n} = 0_E$ des vecteurs d'une famille $\bot$ $(u_i)_{i\in I}$.

Soit $k\in \llbracket 1, n \rrbracket$ 

On a 
\begin{align*}
	\langle \alpha_1 u_{i_1} + \alpha_2 u_{i_2} + \cdots + \alpha_k u_{i_k} + \cdots + \alpha_n u_{i_n}, u_{i_k} \rangle &= \langle 0_E, u_{i_k} \rangle = 0_E\\
															     &= \alpha_1 \left<u_{i_1}, u_{i_k} \right> + \cdots + \alpha_k \left<u_{i_k}, u_{i_k} \right> + \cdots + \alpha_n \left<u_{i_n}, u_{i_k} \right> \quad&\text{par bilinéarité} \\
															     &= 0 + \alpha_k \left<u_{i_k}, u_{i_k} \right> + 0 \\
															     \text{donc } \alpha_k \underbrace{\|u_{i_k}\|^2}_{\text{$\neq 0$ par définie positivité}} &= 0 \\ 
															     \text{donc } \alpha_k &= 0 \\
\end{align*}

Ceci est vrai pour tout $k\in \llbracket 1, n\rrbracket$ donc la CL est triviale

\cqfd


\begin{appl} On retrouve que la famille $\dsp{\Big(\cos(kt)\Big)_{k\in\N}}$ est libre~!
\end{appl}

\prd\ \\[-0.85cm]\phantom{Proposition-d\'efinition 8~:~~} Soit $\bc=(\eps_i)_{i\in I}$.
\begin{enumerate}
\item On dit que $\bc$ est une base orthogonale lorsque c'est \`a la fois une famille orthogonale et une base. Cela \'equivaut \`a dire que c'est une famille g\'en\'eratrice et orthogonale form\'ee de vecteurs non nuls.
\item On dit que $\bc$ est une base orthonorm\'ee (b.o.n.) lorsque c'est base orthogonale form\'ee de vecteurs de norme $1$. Cela \'equivaut \`a dire que $\bc$ est g\'en\'eratrice et telle que $\forall i,j\in I,\ \langle\eps_i,\eps_j\rangle = \delta_{i,j}$.
\end{enumerate}
\drp

\demo
\begin{enumerate}
	\item base = libre + générateur et on utilise le théorème 10 (\ref{thm10})
	\item $\delta_{ij} = \begin{cases}
			0 &\text{si $i=j$} \\
			1 &\text{si $i\neq j$}
	\end{cases}$
\end{enumerate}
\cqfd

\smallskip
\subsection{Sous-espaces vectoriels orthogonaux}
\smallskip

\dfn
Soient $F$ et $G$ deux sevs de $E$. On dit que \newdef{$F$ et $G$ sont orthogonaux} lorsqu'on a $\forall u\in F,\ \forall v\in G,\ u\bot v$.
\nfd

\nota
On le note $F\bot G$ aussi.
\aton

\medskip
\exs ~~Dans $\R^3$ muni de produit scalaire usuel.
\begin{enumerate}
	\item \includegraphics{fig_ex_13_1.png}
	\item $\begin{cases}
			F &= \Vect{e_1} \\
			G &= (Oyz) = \Vect{e_2, e_3} \\
			F&\bot G
	\end{cases}$
\end{enumerate}
\sxe

\exs ~~Dans $\mnr$ muni de produit scalaire $\langle A, B\rangle = Tr({}^tA B)$, les sevs $\ac_n(\R)$ et $\sc_n(\R)$ sont orthogonaux.
Soit $\begin{cases}
	A &\in \ac_n(\R) \\
	S&\in \sc_n(\R)
\end{cases}$

On a \begin{align*}
  	 \left<A, S \right> &= \Tr(^t A S)  \\
  	 		    &= \Tr(-A S) \\
  	 		    &= -\Tr(AS) \\
  	 		    &= -\Tr(SA) \\
  	 		    &= -\Tr(^t S A \\
  	 		    &= - \left<S, A \right> \\
  	 		    &= -\left<A, S \right> \quad&\text{par symétrie}\\
\implies \left<A, S \right> &= 0 
\end{align*}
\sxe

\rmq Si $F$ et $G$ sont orthogonaux alors $F\cap G = \{0_E\}$.
\qmr

\demo 
Supposons $F\bot G$

\fbox{ $\supset$ } ok (c'est un sev)

\fbox{ $\subset $}

Soit $x \in F\cap G$
On a $F\bot G \text{ ie } \forall u\in F, \forall v\in G, \left<u, v \right> = 0$

Pour $u=v=x$ on trouve  $\left<x, x \right> = 0$ donc $x=0_E$ par définie-positivité.
\cqfd

\begin{appl}
On retrouve qu'on a $\ac_n(\R)\oplus \sc_n(\R)$.

\begin{align*}
	\ac_n(\R) &\bot \sc_n(\R) \\
	\text{donc}\quad \ac_n(\R) \cap \sc_n(\R) &= \{(0)\}  \\
	\text{or}\quad \underbrace{\dim \ac_n(\R) }_{\frac{n(n-1)}{2}}+ \underbrace{\dim \sc_n(\R) }_{\frac{n(n+1)}{2}}&= n^2 \\
\end{align*}

Par caractérisation des supplémentaires en dimension finie

\[
	\ac_n(\R) \oplus \sc_n(\R) = \mc_n(\R)
\] 

\end{appl}
On g\'en\'eralise cet exemple dans les sous-sections suivantes.

%\smallskip
\subsection{Orthogonal d'une partie ou d'un sev}
\smallskip

\dfn[Orthogonal d'une partie]
Soit $X\subset E$. On appelle \newdef{orthogonal de $X$} l'ensemble $\{v\in E,\ \forall u \in  X,\ v \bot u\}$.
\nfd

\nota On le note $X^\bot$ \aton

\medskip
\exx Prenons l'exemple, dans $\R^3$ muni du ps usuel, o\`u $X$ est un singleton.

Soit $X = \{\begin{pmatrix} a\\b\\c \end{pmatrix} \} $ 

\begin{align*}
	X^{\bot} &= \{\begin{pmatrix} x\\y\\z \end{pmatrix} \in \R^3, \forall u\in X, \left<\begin{pmatrix} x\\y\\z \end{pmatrix} , u \right> =0\}  \\
	&= \{\begin{pmatrix} x\\y\\z \end{pmatrix} \in \R^3, \left<\begin{pmatrix} x\\y\\z \end{pmatrix} , \begin{pmatrix} a\\b\\c \end{pmatrix}  \right> = 0\}  \\
	&= \{\begin{pmatrix} x\\y\\z \end{pmatrix} \in \R^3, ax+by+cz=0\}  \\
\end{align*}
\xxe

\pro
Soit $X\subset E$. On a~:
\begin{enumerate}
\item $\mathrm{Vect}(X)^\bot=X^\bot$.
\item $X^\bot$ est un sev.
\end{enumerate}
\orp

\demo
\begin{enumerate}
	\item \fbox{$\supset$ } Supposons $v\in \Vect{X}^{\bot}$
		Ainsi $\forall u\in \Vect{X}, v\bot u$

		Or $X\subset \Vect X$ donc \emph{en particulier} 

		\begin{align*}
			\forall u\in X, v\bot u \text{ ie } v\in X^{\bot}
		\end{align*}

		\fbox{$\subset $ } Supposons $v\in X^{\bot}$ ie $\forall x\in X, v\bot x$

		Montrons $v\in \Vect{X}^{\bot}$ \ie $\forall u\in \Vect{X}, v\bot u$

		Soit $u\in \Vect X$ 

		Ainsi $u$ peut s'écrire sous la forme \[
			u = \lambda_1 x_1 + \lambda_2 x_2 + \cdots + \lambda_n x_n
		\]  où $\begin{cases}
			\lambda_i &\in \R \\
			x_i &\in X
		\end{cases}$ 

		Donc 

		\begin{align*}
			\left<u, v \right> &= \lambda_1 \underbrace{\left<x_1, v_1 \right> }_{0}+ \cdots + \lambda_n \underbrace{\left<x_n , v_n\right>}_{0} \quad&\text{par bilinéarité}\\
			&= 0 \quad&\text{donc $u\bot v$} \\
		\end{align*}
	\item Montrons que $X^{\bot}$ est un sev

		\paragraph{Méth 1}
		\begin{align*}
			X^{\bot} &= \{v\in R, \forall x\in X, \left<v, u \right> =0\}  \\
			&= \bigcap_{x\in X} \{v\in E, \left<u, x \right> =0\}  \\
			&= \underbrace{\bigcap_{x\in X} \underbrace{\Ker ( \underbrace{v\mapsto \left<v, x \right>}_{AL} }_{sev}}_{sev} \\
		\end{align*}

		\paragraph{Méth 2}
		Avec la définition
\end{enumerate}
\cqfd

{\bf Bilan~:} l'op\'eration int\'eressante est~ $\cdot^\bot : \defapp{\{\text{sevs de }E\}}{\{\text{sevs de }E\}}{F}{F^\bot.}$

\pro Soient $F$, $G$ deux sevs de $E$. Alors~:
\begin{enumerate}
\item $F\bot G \Leftrightarrow F \subset G^\bot \Leftrightarrow G \subset F^\bot$~;
\item $F^\bot$ est le plus grand sev orthogonal \`a $F$ (pour l'inclusion \'evidemment).
\end{enumerate}
\orp

\demo Exercice. \cqfd

\exs\label{PotPourri}\ \\[-0.6cm]
\begin{enumerate}
\item On peut reprendre l'exemple dans $\R^3$ de $F=(Ox)=\Vect{e_1}$.\\
On observe qu'on a $F^\bot=(Oyz)=\Vect{e_2,e_3}$, $\big(F^\bot\big)^\bot=F$ et $F\oplus F^\bot=E$.\subline
\item On peut reprendre l'exemple dans $\mnr$ de $F=\ac_n(\R)$.\\
On observe qu'on a $F^\bot=\sc_n(\R)$, et de nouveau $\big(F^\bot\big)^\bot =F$ et $F\oplus F^\bot=E$.\subline
\end{enumerate} 
Est-ce que \c{c}a marche tout le temps~? Non.\subline
\begin{enumerate}[resume]
\item On se place dans $\R[X]$ muni du produit scalaire canoniquement associ\'e \`a la base canonique.\subline\\On note $F=\Vect{X-1,X^2-1,\cdots,X^n-1,\cdots}$. Calculons $F^\bot$.\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\
\item CCINP 39 question 3~!\subline
\end{enumerate}
\sxe
On montre dans la suite qu'une condition suffisante pour que \og\c{c}a marche\fg{} est que $F$ soit de dimension finie.

Plaçons-nous dans $\R[X]$ muni de
\begin{align*}
	\left<a_0 + a_1 X + \cdots + a_n X^n, b_0 + \cdots + b_n X^n \right> &= \sum_{k=0}^{n} a_i b_i \\
	F &= \Vect{X-1, X^2-1, \ldots, X^{n}-1, \ldots} \\
	  &= \{ \sum_{k=1}^{n} \alpha_k (X^k-1), \begin{cases}
			  n&\in \N \\
			  \alpha_i &\in \R
	  \end{cases} \}  \\
	  &= \{(-\alpha_1-\alpha_2-\cdots-\alpha_n) + \alpha_1 X + \cdots + \alpha_n X^n, \begin{cases}
			  n&\in \N\\
			  \alpha_i&\in \R
	  \end{cases}\}  \\
	F^{\bot} &= \{P\in \K[X], \forall Q\in F, \left<P, Q \right> =0\}  \\
	&= \{\sum_{k=0}^{n} a_k X^k, \forall Q\in F, \left<\sum_{k=0}^{n} a_kX^k, Q \right> = 0\}  \\
	&= \{\sum_{k=0}^{n} a_k X^k, \forall \alpha_1, \ldots, \alpha_n, \sum_{k=1}^{n} a_k \alpha_k = a_0(\alpha_1 + \cdots + \alpha_n)\}  \\
	&= \{\sum_{k=0}^{n} a_k X^k, \forall \alpha_1, \ldots, \alpha_n, \sum_{k=1}^{n} a_k \alpha_k = \sum_{k=1}^{n} a_0 \alpha_k\}  \\
\end{align*}


\emph{Utilisons la base de F} 

Si $P\in F^{\bot}$ alors $\begin{cases}
	P&\bot X-1 \\
	P&\bot X^2-1 \\
	 &\vdots \\
	P &\bot X^{n}-1
\end{cases}$

\[
	P = a_0 + \cdots + a_n X^n
\] 

\begin{align*}
	P \bot X-1 &\iff -a_0 + a_1 = O \iff a_1 = a_0 \\
	P \bot X^2-1 &\iff -a_0 + a_2 = O \iff a_2 = a_0 \\
		     &\vdots
	P \bot X^n-1 &\iff -a_0 + a_n = O \iff a_n = a_0 \\
	P \bot X^{n+1}-1 &\iff -a_0 = 0 \iff a_0 = 0
\end{align*}

\emph{Donc:} 
\[
	P = 0
\] 

Donc $P^{\bot}=\{0\} $

\begin{align*}
	\begin{cases}
		F \oplus F^{\bot} &= F \neq E \\
		(F^{\bot})^{\bot} &= \{0_E\}^{\bot} = E \neq F \\
	\end{cases}
\end{align*}

\subsection{Suppl\'ementaire orthogonal}

\dfn[Suppl\'ementaire orthogonal]
Soit $F$ un sev de $E$. On dit que $F$ \newdef{a un suppl\'ementaire orthogonal} lorsqu'on a $F\oplus F^\bot=E$. 
\nfd
Remarquons que la somme est quoi qu'il arrive directe, mais on a vu pr\'ec\'edemment qu'elle est parfois strictement incluse dans $E$. On va montrer dans cette sous-section que si $F$ est de dimension finie, alors $F$ a bien un suppl\'ementaire orthogonal (on va aussi montrer plein d'autres jolies choses au passage).\subline\\
\`A noter~: il suffit que $F$ soit de dimension finie, l'espace ambiant $E$ peut lui \^etre de dimension infinie. 

\lem[Suppl\'ementaire d'une droite]
Soit $D$ une droite de $E$. Alors $D^\bot$ est un hyperplan.
\mel

\demo
Notons $D=\Vect u$ avec  $u\neq 0_E$

\begin{align*}
	D^{\bot} &= \Vect{u}^{\bot} \\
	&= \{u\} ^{\bot} \\
	&= \{v\in E, \left<v, u \right> = 0_E\}  \\
	&= \Ker( \underbrace{v\mapsto \left<v, u \right>}_{\text{forme linéaire non nulle car $u\neq 0_E$}} ) \\
\end{align*}

C'est le noyau d'une forme linéaire non nulle \emph{donc un hyperplan} .
\cqfd

Un hyperplan et une droite sont toujours suppl\'ementaires quand la droite n'est pas incluse dans l'hyperplan (exercice d'alg\`ebre lin\'eaire d\'ej\`a vu). Les droites ont donc un suppl\'ementaire orthogonal, \c{c}a part bien.

\thm[Existence de bases orthonorm\'ees]
Soit $F$ un sev de $E$ \textbf{de dimension finie}. Alors $F$ a une base orthonorm\'ee.
\mht

\demo On rappelle que la restriction \`a $F$ du produit scalaire de $E$ est un produit scalaire (proposition \ref{RestrictionPs}).\\[0.1cm]
\textbf{Dans toute la d\'emonstration, on se place dans l'espace euclidien $\pmb{\big(F,\langle\cdot,\cdot\cdot\rangle\big)}$}. Cela signifie en particulier que les espaces orthogonaux consid\'er\'es sont pris dans $F$. Montrons le r\'esultat par r\'ecurrence, \ie montrons que pour tout entier $n\in\N$, pour tout sev $F$ de $E$ de dimension $n$, $F$ a une base orthonorm\'ee.\\[0.4cm]
\recurre{Pour $n=0$ soit $F$ un sev de dimension $0$. Alors $F=\{0_E\}$ donc $F$ a bien une b.o.n.~: $\emptyset$.\\[0.2cm]}
{Soit $n\in\N$ et supposons que tout sev de $E$ de dimension $n$ a une base orthonorm\'ee.\\[0.1cm]
Soit $F$ un sev de $E$ de dimension $n+1$.\\[0.1cm]
En particulier il existe un vecteur non nul $u\in F$ et $D=\Vect{u}$ est une droite de $F$.\\[0.1cm]
D'apr\`es le lemme, l'orthogonal $O$ de $D$ dans $F$ est un hyperplan de $F$.\\[0.1cm] Attention, comme annonc\'e, l'orthogonal est ici pris dans $F$, on pourrait l'\'ecrire $O=D^\bot\cap F$ pour bien insister.\\[0.1cm]
Finalement on a $\dim(O)=\dim(F)-1=n$ et donc $O$ a une b.o.n. $(u_1,\ldots,u_n)$.\\
Montrons que $\bigg(u_1,\ldots,u_n,\frac{u}{\|u\|}\bigg)$ est une b.o.n. de $F$.\\
Cette famille a $n+1=\dim(F)$ vecteurs donc il suffit de montrer qu'elle est orthonorm\'ee. Tous les vecteurs sont de norme $1$ (soit par \hdr, soit par homog\'en\'e\"it\'e). Tous les vecteurs sont bien orthogonaux entre eux (soit par \hdr, soit parce que $O$ et $D$ sont orthogonaux). C'est donc bien une famille orthonorm\'ee form\'ee de $n+1$ vecteurs, et donc une base orthonorm\'ee.\\[0.2cm]}
{ Elle est donc vraie pour tout entier $n\in\N$.\\[0.2cm]}
{Tous les sevs de $E$ de dimension finie ont bien une b.o.n.}
\cqfd

\medskip
\thm[Suppl\'ementaire orthogonal.]\label{SupplementaireOrthogonal}
Soit $F$ un sev de $E$ \textbf{de dimension finie}. Alors $F\oplus F^\bot = E$. Autrement dit, $F$ a un suppl\'ementaire orthogonal.\subline
\mht

\demo
Notons $p:=\dim F$ 

Soit $x\in E$. Considérons une décompositin convenable \begin{align*}
x&= \underbrace{x_F}_{\in F}+ \underbrace{x_{F^{\bot}}}_{\in F^{\bot}} \\	
\end{align*}	

$F$ est de dim finie $p$ donc il a une b.o.n. $(u_1,u_2,\ldots,u_p)$

Donc $x_F$ s'écrit sous la forme 
\begin{align*}
	x_F &= \lambda_1 u_1 + \cdots + \lambda_p u_p \\
	x&= \underbrace{\lambda_1 u_1+\cdots + \lambda_p u_p}_{\bot} + \underbrace{x_{F^{\bot}}}_{\in F^{\bot}} \\
\end{align*}

Pour $i \in \llbracket 1, p\rrbracket$ on a donc
\begin{align*}
	\left<x, u_i \right> &= \lambda_1 \underbrace{\left<u_1, u_i \right>}_{0} + \cdots + \lambda_i \underbrace{\left<u_i, u_i \right>}_{1} + \cdots + \lambda_p \underbrace{\left<u_p, u_i \right>}_{0} + \underbrace{\left< \overbrace{x_{F^{\bot}}}^{\in F^{\bot}}, \overbrace{u_i}^{\in F} \right>}_{0} \\
	\text{donc } \lambda_i &= \left<x, u_i \right> \\
	\text{donc } \begin{cases}
		x_F &= \sum_{k=1}^{p} \left<x, u_k \right>u_k \\
		x_{F^{\bot}} &= x-x_F \\
	\end{cases} \quad&\text{unique candidat}
\end{align*}

\paragraph{Synthèse}

\begin{align*}
	\begin{cases}
		x= x_F + x_{F^{\bot}}  & \text{non colinéaire par construction} \\
		x_F \in F & \text{ car } x_F = \underbrace{\lambda_1 u_1 + \cdots + \lambda_p u_p}_{\text{CL de vecteurs de $F$}} \\
		x_{F^{\bot}} \in F^{\bot} & \text{ ie} x_{F^{\bot}} \in \Vect{u_1, \ldots, u_p}^{\bot} \\
	\end{cases} \\
	\text{ie } x_{F^{\bot}} \in \{u_1, \ldots, u_p\} ^{\bot} \\
	\text{ie } \forall i\in \llbracket 1, p\rrbracket, \left<x_{F^{\bot}}, u_i \right> = 0
\end{align*}

Soit $i\in \llbracket 1, p\rrbracket $

\begin{align*}
	\left<x_{F^{\bot}}, u_i \right> &= \left<x-\sum_{k=1}^{p} \left<x, u_k \right>u_k, u_i \right> \\
	&= \left<x, u_i \right> - \sum_{k=1}^{p} \left<x, u_k \right> \underbrace{\left<u_k, u_i \right>}_{\delta_{i, k}} \quad&\text{par bilinéarité} \\
	&= \left<x, u_i \right> - \left<x, u_i \right> \\
	&= 0 \\
\end{align*}

\cqfd

\thm[Th\'eor\`eme de la b.o.n. incompl\`ete]
Soit $F$ un sev de $E$ \textbf{euclidien}. Alors toute famille orthonorm\'ee % de vecteurs 
 de $F$ peut \^etre compl\'et\'ee en b.o.n.\,de\,$F$.\subline
\mht


\demo
$(u_1, \ldots, u_p)$ famille orthonormée de $F$ avec $\dim F := n < +\infty$

Elle est libre car toute famille orthogonale de vecteurs non-nuls l'est.

On se place dans l'espace \emph{euclidien} $(F, \left< \cdot ,  \cdot  \cdot  \right>$ et on note $G = \Vect{u_1, \ldots, u_p}$ 

$G^{\bot}$  est un suppplémentaire de $G$ \emph{dans $F$} \ie $G \oplus G^{\bot} = F$

$G^{\bot}$ est de dimension finie $n-p$ donc $G^{\bot}$ a une b.o.n. (thm. 11), notons-la $(v_1, \ldots, v_{n-p})$

Alors $(u_1, \ldots, u_p, v_1, \ldots, v_{n-p})$ est une b.o.n. de $F$ : c'est une base adaptée à la somme directe.

\emph{De plus} 

\begin{itemize}
	\item $\| u_i \| = \| v_j \| = 1$ par définition
	\item $\left<u_i, u_j \right> = \left<v_i, v_j \right> = 0$ par définition pour $i\neq j$
	\item $\left< \underbrace{v_i}_{\in G}, \underbrace{v_j}_{\in G^{\bot}} \right> = 0$ par définition
\end{itemize}
\cqfd


\subsection{Cas d'un espace euclidien}

Dans cette sous-section, on suppose que $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ est un espace euclidien de dimension $n$. \'Evidemment, la propri\'et\'e fondamentale sur les sevs en dimension finie nous assure que tous les sevs de $E$ sont de dimension finie, donc ont un suppl\'ementaire orthogonal. C'est la f\^ete.


\pro\ \\[-0.4cm]
Si $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ est eucldien alors pour tout sev $F$ de $E$ on a $\lect{F\oplus F^{\bot}=E\\\big(F^\bot\big)^\bot=F.}$ 
\orp

\demo
\begin{enumerate}
\item $F$ est de dimension finie (inf\'erieure \`a $\dim(E)$) donc $F\oplus F^{\bot}=E$ d'apr\`es le th\'eor\`eme \ref{SupplementaireOrthogonal}.\subline
\item C'est la premi\`ere question de CCINP 77.\subline\\
$\bullet$ On a toujours $F\subset \big(F^\bot\big)^\bot$~: Soit $x\in F$. Montrons $x\in \big(F^\bot\big)^\bot$. Soit $y\in F^\bot$. On a $\langle y, x\rangle = 0 \ie \langle x,y \rangle = 0$ par symétrie. Ceci est vrai pour tout vecteur $y\in F^\bot$ donc on a bien $x\in \big(F^\bot\big)^\bot$.\\[0.2cm]
$\bullet$ Montrons maintenant l'\'egalit\'e des dimensions. On a vu avec le th\'eor\`eme \ref{SupplementaireOrthogonal} qu'on a $F\oplus F^{\bot}=E$, mais $F^\bot$ aussi est un sev de $E$ donc est de dimension finie, et donc le th\'eor\`eme \ref{SupplementaireOrthogonal} donne aussi $\big(F^\bot\big)^\bot\oplus F^{\bot}=E$. Ainsi $F$ et $\big(F^\bot\big)^\bot$ sont deux suppl\'ementaires de $F^\bot$ en dimension finie. Ils ont donc la m\^eme dimension.\\
$\bullet$ On a finalement $\lect{F\subset \big(F^\bot\big)^\bot\\\dim(F)=\dim\Big(\big(F^\bot\big)^\bot\Big) }$ donc $F=F^{\bot\bot}$.\\[-0.9cm]
\end{enumerate}
\cqfd

\medskip

\pro[Loi de De Morgan euclidiennes]
Si $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ est eucldien alors pour tout sevs $F$ et $G$ de $E$ on a~:
\begin{enumerate}
\item $(F+G)^\bot=F^\bot\cap G^\bot$ (marche dans tout préhilbertien)
\item $(F\cap G)^\bot=F^\bot+ G^\bot$ (ne marche que dans les euclidiens)
\end{enumerate}
\orp

\demo C'est la deuxi\`eme question de CCINP 77. Faisons-le quand m\^eme ici~:\begin{enumerate}
\item Par double inclusion.
\fbox{$\subset $} Soit $x\in (F+G)^{\bot}$
Ainsi, $\forall y\in F+G, \left<x, y \right> = 0$
\ie $\forall f\in F, \forall g\in G, \left<x, f+g \right> = 0\quad(\square)$

Montrons $x\in F^\bot \cap G^\bot$
\ie $x\in F^\bot$  et $x\in G^\bot$ 

En particularisant $(\square)$ pour $g = 0_E\in G$, on obtient
\[
	\forall f\in F, \left<x, \underbrace{f+0_E}_{f} \right> = 0 \text{ ie } x\in F^\bot
\] 

En particularisant $(\square)$ pour $f = 0_E\in F$, on obtient
\[
	\forall g\in G, \left<x, \underbrace{g+0_E}_{g} \right> = 0 \text{ ie } x\in G^\bot
\] 

\fbox{$\supset$}

Soit $x\in F^\bot \cap G^\bot$

\begin{table}[h]
	\centering
	\begin{tabular}{lll}
		&$\forall f\in F$, &$\left<x, f \right> = 0$ \\
		$+$ \\
		&$\forall g\in G$, &$\left<x, g \right> = 0$ \\\hline
		&$\forall f\in F, \forall g\in G,$ &$\left<x, f \right> + \left<x, g \right> =0$ \\
		&\ie $\forall f\in F, \forall g\in G,$ &$\left<x,f+g \right> =0$ par bilinéarité\\
		&\ie $\forall y\in F+G$, &$\left<x, y \right> =0$ \\
		&\ie $x\in (F+G)^\bot$
	\end{tabular}
\end{table}

\item 

	\begin{align*}
		(F^\bot + G^\bot)^\bot &= F^{\bot\bot} \cap G^{\bot\bot} \\
		\text{ie } (F^\bot + G^\bot)^\bot &= F\cap G \\
		\text{donc } (F^\bot + G^\bot)^{\bot\bot} &= (F \cap G)^\bot \\
		\text{ie } F^\bot + G^\bot &= (F \cap G)^\bot \\
	\end{align*}
\end{enumerate}
\cqfd


\thd
Soit $H$ un hyperplan de $E$, o\`u $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ est euclidien.\\[0.1cm]
Alors il existe un vecteur non nul $\eta$ tel que $\forall x\in E,\ x\in H \Leftrightarrow \langle x,\eta\rangle=0$.\\[0.1cm]
Un tel vecteur est appel\'e \newdef{vecteur normal de $H$}.
\dht
Rappel~: en dimension infinie, les hyperplans peuvent ne pas avoir de vecteur normal, cf exemple \ref{PotPourri}-3.

\demo
$H\oplus H^\bot = E$ car on est en dimension finie donc $H^\bot =: \Vect (u)$ est une droite. (avec $u\neq 0_E$ )

\begin{align*}
	H &= H^{\bot\bot} = \Vect{u}^\bot \\
\end{align*}

Donc pour $x\in E$ on a \begin{align*}
	x\in H &\iff \left<x, u \right> = 0 \\
\end{align*}

On pose $\eta = u$. 
\cqfd

\paragraph{Hyperplan dans $\R^3$}

$H$ est de la forme \begin{align*}
	H &= \left\{ \begin{pmatrix} x\\y\\z \end{pmatrix} \in \R^3, \underbrace{ ax+by+cz }_{\left<\begin{pmatrix} x\\y\\z \end{pmatrix} , \underbrace{\begin{pmatrix} a\\b\\c \end{pmatrix} }_{\eta} \right> } = 0 \right\}  \quad&\text{avec $\begin{pmatrix} a\\b\\c \end{pmatrix} \neq \vec 0$}\\
\end{align*}



\section{Projection orthogonale et applications}

Dans cette section encore, $\big(E,\langle\cdot,\cdot\cdot\rangle\big)$ d\'esigne un espace pr\'ehilbertien et $\|\cdot\|$ la norme euclidienne associ\'ee, ainsi que $d$ la distance euclidienne associ\'ee.

\smallskip
\subsection{Formule de projection}
\smallskip

\dfn[Projection orthogonale]
Soit $F$ un sev de $E$ qui a un suppl\'ementaire orthogonal (par exemple $F$ de dimension finie). On appelle \newdef{projection orthogonale sur $F$} la projection $p_F^\bot = p_F^{F^\bot}$.
\nfd

\rmq On d\'efinit de m\^eme une sym\'etrie orthogonale.
Les projections et sym\'etries orthogonales sont "celles de notre enfance" dans $\R^2$ et $\R^3$ munis du produit scalaire usuel.
\qmr

\medskip
\exx 

\begin{description}
	\item[$\R^3$ (usuel)] 
Soit $p \in \lc(\R^3)$ tel que \begin{align*}
	p \begin{pmatrix} x\\y\\z \end{pmatrix} &= \begin{pmatrix} x\\y\\0 \end{pmatrix}  \\
\end{align*} est la \emph{projection orthogonale} sur $\Vect{e_1, e_2} = F$ (on a donc $F^\bot = \Vect{e_3}$)

\item[$\mc_n(\R)$ (canonique)] 

	$p$ est la projection orthogonale sur $\sc_n(\R)$ est \begin{align*}
		p : \begin{cases}
			\mc_n(\R) &\to \mc_n(\R) \\
			M&\mapsto \frac{M+{}^tM}{2}
		\end{cases}
	\end{align*}
\end{description}

\xxe

\ \\[-1.05cm]
Si vous ne retenez qu'un seul r\'esultat du chapitre, que ce soit celui-ci (s\'erieusement)~:
\thm[Formule de projection]\ \\[-0.4cm]
Soit $F$ un sev de dimension finie $p$ de $E$ et $(\eps_1,\ldots,\eps_p)$ une b.o.n. de $F$. %Alors pour tout $x\in E$ on a $\dsp{p_F^\bot(x)=\sum\limits_{i=1}^p \langle x,\eps_i\rangle\eps_i}$.
On a $\dsp{\forall x\in E,\ p_F^\bot(x)=\sum\limits_{i=1}^p \langle x,\eps_i\rangle\eps_i}$.
\mht



\demo
On veut montrer que $(\eps_1, \ldots, \eps_n)$ b.o.n. de $F$ 

\begin{align*}
	p_F^\bot(x) &= \sum_{k=1}^{p} \left<x, \eps_k \right> \eps_k \\
	&= \left<x, \eps_1 \right> \eps_1 + \cdots + \left<x, \eps_p \right> \eps_p \\
\end{align*}

Par définition on a $p_F^\bot(x) \in F$

Donc il existe $\lambda_1, \ldots, \lambda_p$ tel que $p_F^\bot(x) = \sum_{k=1}^{p} \lambda_k \eps_k$

Calculons pour $i \in \llbracket 1, p\rrbracket$
\begin{align*}
	\left< p_F^\bot(x),\eps_i \right>  &= \left<\sum_{k=1}^{p} \lambda_k \eps_k, \eps_i \right>  \\
	&= \sum_{k=1}^{p} \lambda_k \delta_{ij} \\
	&= \lambda_i \\
\end{align*}

De plus $x= \underbrace{p_F^\bot(x)}_{\in F} + \underbrace{(x - p_F^\bot(x))}_{\in F^\bot}$

Donc 

\begin{align*}
	\left<x, \eps_i \right> &= \left<p_F^\bot(x) + (x-p_F^\bot(x)), \eps_i \right> \\
				&= \left<p_F^\bot(x), \eps_i \right>  + \left< \underbrace{x-p_F^\bot(x)}_{F^\bot}, \underbrace{\eps_i}_{\in F} \right> \quad&\text{par bilinéarité} \\
				&= \lambda_i \\
\end{align*}
\cqfd

\exs
\begin{enumerate}
\item \og C'est facile de projeter orthogonalement sur une droite \fg. Exemple~: 

\emph{Trouvons $p_F^\bot$ dans $\R^3$ pour $F = \Vect{\begin{pmatrix} 1\\2\\3 \end{pmatrix} }$} 

\begin{enumerate}
	\item \emph{Trouver une b.o.n.de $F$} 

		Une base quelconque $F$ est donc  $\left( \frac{1}{\left\| \begin{pmatrix} 1\\2\\3 \end{pmatrix} \right\|} \begin{pmatrix} 1\\2\\3 \end{pmatrix}  \right) $ 

		\ie  $(\eps_i) := \left( \frac{1}{\sqrt{14} } \begin{pmatrix} 1\\2\\3 \end{pmatrix}  \right) $ 

	\item \emph{On utilise la formule de projection} 
		\begin{align*}
			p_F^\bot \begin{pmatrix} x\\y\\z \end{pmatrix} &= \left<\begin{pmatrix} x\\y\\z \end{pmatrix}, \eps_i  \right> \eps_i \\
			&= \left<\begin{pmatrix} x\\y\\z \end{pmatrix} , \frac{1}{\sqrt{14} } \begin{pmatrix} 1\\2\\3 \end{pmatrix}  \right> \frac{1}{\sqrt{14} } \begin{pmatrix} 1\\2\\3 \end{pmatrix}  \\
			&= \frac{1}{14} \left<\begin{pmatrix} x\\y\\z \end{pmatrix} , \begin{pmatrix} 1\\2\\3 \end{pmatrix}  \right> \begin{pmatrix} 1\\2\\3 \end{pmatrix}  \\
			&= \frac{x+2y+3z}{14} \begin{pmatrix} 1\\2\\3 \end{pmatrix}  \\
			&= \frac{1}{14} \begin{pmatrix} x + 2x + 3z \\ 2x + 4y + 6z \\ 3x + 6y + 9z \end{pmatrix}  \\
			\text{ie } \Mat_{\cc}(p_F^\bot) &= \frac{1}{14} \begin{pmatrix} 1 & 2 & 3 \\ 2 & 4 & 6 \\ 3 & 6 & 9 \end{pmatrix}  \\
		\end{align*}
\end{enumerate}

\item \og C'est facile de projeter orthogonalement sur un hyperplan \fg. Exemple~:

	\emph{Trouvons $p_F^\bot$ pour $\R^3$ (usuel) avec $F = \{(x, y, z) \in \R^3, 1x+1y+1z=0\} = \Vect{\begin{pmatrix} 1\\1\\1 \end{pmatrix} }^\bot$} 
	\begin{align*}
		p_F^\bot \begin{pmatrix} x\\y\\z \end{pmatrix} &= \begin{pmatrix} x\\y\\z \end{pmatrix} - p_{F^\bot}^\bot \begin{pmatrix} x\\y\\z \end{pmatrix}  \\
	\end{align*}

	\begin{enumerate}
		\item \emph{Trouver une b.o.n.} 
			\begin{align*}
				\left( \frac{1}{\left\| \begin{pmatrix} 1\\1\\1 \end{pmatrix} \right\|} \begin{pmatrix} 1\\1\\1 \end{pmatrix}  \right) &= \frac{1}{\sqrt{3} }\begin{pmatrix} 1\\1\\1 \end{pmatrix} \implies \eps_i = \frac{1}{\sqrt{3} }\begin{pmatrix} 1\\1\\1 \end{pmatrix}  \\
			\end{align*}
		\item \emph{On utilise la formule de projection} 
			\begin{align*}
				p_{F^\bot}^\bot &= \left<\begin{pmatrix} x\\y\\z \end{pmatrix} , \eps_i \right> \eps_i \\
				&= \frac{1}{3} \left<\begin{pmatrix} x\\y\\z \end{pmatrix} , \begin{pmatrix} 1\\1\\1 \end{pmatrix}  \right> \begin{pmatrix} 1\\1\\1 \end{pmatrix}  \\
				\implies \Mat_{\cc} (p_{F^\bot}^\bot) &= \frac{1}{3} \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{pmatrix}  \\
				\implies \Mat_{\cc} (p_{F}^{\bot}) &= I_3 - \Mat_{\cc} (p_{F^\bot}^\bot) \\
				&= \frac{1}{3} \begin{pmatrix} 2 & -1 & -1 \\ -1 & 2 & -1 \\ -1 & -1 & 2 \end{pmatrix}  \\
			\end{align*}
	\end{enumerate}
\end{enumerate}
\sxe
Et pour les autres sevs~? Il faudrait avoir des bases orthonorm\'ees...


\smallskip
\subsection{Algorithme d'orthonormalisation de Gram-Schmidt}
\smallskip

\thm[Gram-Schmidt]
Soit $F$ un sev de $E$ de dimension finie $p$ et $(u_1,\ldots, u_p)$ une base de $F$.\\[0.1cm]
Alors il existe une b.o.n. $(\eps_1,\ldots,\eps_p)$ de $F$ telle que $\forall i\in\{1,\ldots,p\},\ \Vect{\eps_1,\ldots,\eps_i}=\Vect{u_1,\ldots,u_i}$.\\[0.1cm]
De plus, si on impose $\forall i\in\{1,\ldots,p\},\ \langle u_i,\eps_i\rangle>0$, alors la base $(\eps_1,\ldots,\eps_p)$ est unique.
\mht

\demo
Pour l'existance, on décrit \emph{l'algorithme d'orthogonalisation} de Gran-Schmidt

\begin{enumerate}[Etape 1]
	\item On cherche $(\eps_1)$ orthonormée tel que  $\Vect{\epsilon_1} = \Vect{u_1}$
	On pose $\epsilon_1 = \frac{u_1}{\| u_1\|}$ et on a bien $\begin{cases}
		\| \epsilon_1 \| & \quad\text{par homogénéité} \\
		\Vect{\epsilon_1} = \Vect{u_1} & \quad\text{car $v_1 // \epsilon_1 $}
	\end{cases}$ 

	\begin{tikzpicture}
		\draw (-2, 0) -- (2, 0);
		\draw[->] (-1, 0) -- (0.5, 0) node{$\epsilon_1$ };
		\draw[->] (0, 0) -- (1, 0) node{$u_1$};
	\end{tikzpicture}

\item On cherche $\epsilon_2$ tel que $\left( \epsilon_1, \epsilon_2 \right) $ orthonormée et $\Vect{u_1, u_2} = \Vect{\epsilon_1, \epsilon_2}$

%TODO: includefig

On note $p_2 = p_{\Vect{\epsilon_1}}^\bot = \left<u_2, \epsilon_1 \right> \epsilon_1$ par formule de projection

Puis $v_2 = u_2 - p_2$ de sorte que 

\begin{align*}
	\left<v_2, \epsilon_1 \right> &= \left<u_2 - p_2, \epsilon_1 \right>  \\
	&= \left<u_2, \epsilon_1 \right> - \left<p_2, \epsilon_1 \right>  \\
	&= \left<u_2, \epsilon_1 \right> - \left<\left<u_2, \epsilon_1 \right> \epsilon_1, \epsilon_1 \right>  \\
	&= \left<u_2, \epsilon_1 \right> - \left<u_2, \epsilon_1 \right> \| \epsilon_1\|^2 \\
	&= 0 \\
\end{align*}

Puis $\epsilon_2 = \frac{v_2}{\|v_2\|}$

On a bien $(\epsilon_1, \epsilon_2)$ orthonormée par construction $\Vect{u_1, u_2} = \Vect{\epsilon_1, \epsilon_2}$ (lemme CL de CL)

%TODO includefig

On pose $p_3 = p_{\Vect{\epsilon_1, \epsilon_2}}^\bot (u_3) = \left<u_3, \epsilon_1 \right> \epsilon_1 + \left<u_3, \epsilon_2 \right> \epsilon_2$ par formule de projection

Puuis \begin{align*}
	v_3 = u_3 - p_3 &\bot \Vect{\epsilon_1, \epsilon_2} \quad&\text{par construction} \\
	\epsilon_3 &= \frac{v_3}{\|v_3\|} \\
\end{align*}

 On a bien les propriétés demandées.

\item[$p$] Étant construits $(\epsilon_1, \ldots, \epsilon_{p-1})$

	On pose $p_p = p_{\Vect{\epsilon_1, \ldots, \epsilon_{p-1}}}^\bot = \left<u_p, \epsilon_1 \right> \epsilon_1 + \cdots + \left<u_p, \epsilon_{p-1} \right> \epsilon_{p-1}$ par formule de projection

	Puis \begin{align*}
		v_p &= u_p - p_p \\
		\epsilon_p &= \frac{v_p}{\|v_p\|} \\
	\end{align*}

\end{enumerate}
\cqfd

\exs
\begin{enumerate}
\item Dans $\R^3$ muni de son ps usuel, gram-schmidtons $\left(\mvect{0\\1\\1},\mvect{1\\0\\1},\mvect{1\\1\\0}\right)$.

\begin{enumerate}
	\item  \begin{align*}
		\epsilon_1 &= \frac{1}{\sqrt{2} } \begin{pmatrix} 0\\1\\1 \end{pmatrix}  \\
	\end{align*}

	\item \begin{align*}
			v_2 &= u_2 - p_{\Vect \epsilon_1}^\bot (u_2)  \\
			    &= u_2 - \left<u_2, \epsilon_1 \right> \epsilon_1 \\
			    &= \begin{pmatrix} 1\\0\\1 \end{pmatrix} - \frac{1}{2} \left< \begin{pmatrix} 1\\0\\1 \end{pmatrix} , \begin{pmatrix} 0\\1\\1 \end{pmatrix}  \right> \begin{pmatrix} 0\\1\\1 \end{pmatrix}  \\
			    &= \begin{pmatrix} 1\\0\\1 \end{pmatrix} - \frac{1}{2} \begin{pmatrix} 0\\1\\1 \end{pmatrix}  \\
			    &= \frac{1}{2} \begin{pmatrix} 2\\-1\\1 \end{pmatrix}  \\
			\implies \epsilon_k &= \frac{v_2}{\|v_2\|} = \frac{1}{\sqrt{6} }\begin{pmatrix} 2\\-1\\1 \end{pmatrix}  \\
	\end{align*}

	\item \begin{align*}
			v_3 &= u_3 - p_{\Vect{\epsilon_1, \epsilon_2}}^\bot (u_3) \\
			&= u_3 - \left<u_2, \epsilon_1 \right> \epsilon_1 - \left<u_3, \epsilon_2 \right> \epsilon_2 \\
			&= \begin{pmatrix} 1\\1\\0 \end{pmatrix} - \frac{1}{2} \left<\begin{pmatrix} 1\\1\\0 \end{pmatrix} , \begin{pmatrix} 0\\1\\1 \end{pmatrix}  \right> \begin{pmatrix} 0\\1\\1 \end{pmatrix} - \frac{1}{6} \left<\begin{pmatrix} 1\\1\\0 \end{pmatrix} , \begin{pmatrix} 2\\-1\\1 \end{pmatrix}  \right> \begin{pmatrix} 2\\-1\\1 \end{pmatrix}  \\
			&= \begin{pmatrix} 1\\0\\0 \end{pmatrix} - \frac{1}{2} \begin{pmatrix} 0\\1\\1 \end{pmatrix} - \frac{1}{6} \begin{pmatrix} 2\\-1\\1 \end{pmatrix}  \\
			&= \frac{1}{6} \begin{pmatrix} 6\\6\\0 \end{pmatrix} -\frac{1}{6} \begin{pmatrix} 0\\3\\3 \end{pmatrix} - \frac{1}{6} \begin{pmatrix} 2\\-1\\1 \end{pmatrix}  \\
			&= \frac{1}{6} \begin{pmatrix} 4\\4\\-4 \end{pmatrix} \\
			&= \frac{1}{3} \begin{pmatrix} 2\\2\\-2 \end{pmatrix} \\
			&= \frac{2}{3} \begin{pmatrix} 1\\1\\-1 \end{pmatrix}  \\
		\implies \epsilon_3 &= \frac{v_3}{\| v_3 \|}  \\
		&= \frac{\frac{2}{3} \begin{pmatrix} 1\\1\\-1 \end{pmatrix} }{\| \frac{2}{3} \begin{pmatrix} 1\\1\\-1 \end{pmatrix}  \|} \\
	\end{align*}
\end{enumerate}

\item Dans $\R_2[X]$ muni du ps int\'egral entre $0$ et $1$, gram-schmidtons la base canonique.

\begin{itemize}
	\item $\epsilon_1 = \frac{1}{\| 1\|}$ $\| 1\|^2 = \int_0^1 1^2 \mathrm{d}X = 1$ donc $\epsilon_1 = 1$
	\item $p_2 = p_{\Vect{\epsilon_1}}^\bot X  \cdot 1 = \frac{1}{2}$
	 \item $v_2 = X - \frac{1}{2}$ 
	\item $\epsilon_3 = \frac{v_2}{\|v_2\|}$ 
		\begin{align*}
			\| X-\frac{1}{2}\|^2 &= \int_0^1 \left( X-\frac{1}{2} \right)^2  \\
			&= \int_{-\frac{1}{2}}^{\frac{1}{2}} t^2 \dt \quad&\text{$t = X-\frac{1}{2}$} \\
			&= \frac{1}{12} \\
		\end{align*}
	\item 
		\begin{align*}
			p_3 &= p_{\Vect{\epsilon_1, \epsilon_2}}^\bot (X^2)\\
			    &= \left<X^2, 1 \right> 1 + \left<X^2, \sqrt{12} (X-\frac{1}{2}) \right> \sqrt{12} (X-\frac{1}{2}) \\
			    &= \int_0^1 X^2  \cdot  1 + 12 \left<X^2, X-\frac{1}{2} \right> (X-\frac{1}{2}) \\
			    &= \frac{1}{3} + 12 \int_0^1 \left(X^3 - \frac{X^2}{2}\right) \left( X - \frac{1}{2} \right)  \\
			    &= \frac{1}{3} + 12 \left[ \frac{X^4}{4} - \frac{X^3}{6} \right]_0^1 \left( X-\frac{1}{2} \right) \\
			    &= \frac{1}{3} + \underbrace{12\left( \frac{1}{4} - \frac{1}{6} \right) }_{1} \left( X-\frac{1}{2} \right)  \\
			    &= X - \frac{1}{2} + \frac{1}{3} \\
			    &= X - \frac{1}{6} \\
			v_3 &= X^2 - p_3 = X^2-X+\frac{1}{6} \\
			\epsilon_3 = \frac{X^2-X+\frac{1}{6} }{\| X^2-X+\frac{1}{6}  \|} \\
			\| X^2-X+\frac{1}{6} \| &= \int_0^1 \left( X^2-X+\frac{1}{6} \right)^2 \\
						&= 180 &= \frac{1}{5 \cdot 36} \\ \\
			\epsilon_3 &= \frac{1}{\sqrt{\frac{1}{5 \cdot 36}} } \left( X^2-X+\frac{1}{6} \right) \\
				   &= 6\sqrt{5} \left( X^2-X+\frac{1}{6} \right)  \\
				   &= \sqrt{5} (6X^2-6X+1) \\
		\end{align*}
\end{itemize}


\end{enumerate}
\paragraph{Application bonus}

\begin{align*}
	E &= R^4 \quad\text{usuel} \\
	F &= \Vect{\begin{pmatrix} 1\\0\\1\\0 \end{pmatrix} , \begin{pmatrix} 1\\2\\0\\0 \end{pmatrix} } \\
	p_F^\bot \begin{pmatrix} x\\y\\z\\t \end{pmatrix} &= ? \\
\end{align*}

Utilisons la \emph{formule de projection} 

On cherche une \emph{b.o.n.} de $F$.

Gram-Schmidtons
\begin{itemize}
	\item $\epsilon_1 = \frac{1}{\sqrt{2} } \begin{pmatrix} 1\\0\\1\\0 \end{pmatrix} $
	\item 
		\begin{align*}
			p_2 &= p_{\Vect{\epsilon_1}}^\bot (u_2) \\
			    &= \left<u_2, \epsilon_1 \right> \epsilon_1\\
			    &= \frac{1}{2} \underbrace{\left<\begin{pmatrix} 1\\2\\0\\0 \end{pmatrix} , \begin{pmatrix} 1\\0\\1\\0 \end{pmatrix}  \right> }_{1} \begin{pmatrix} 1\\0\\1\\0 \end{pmatrix}  \\
			    &= \begin{pmatrix} \frac{1}{2} \\0\\ \frac{1}{2}\\0 \end{pmatrix}  \\
			v_2 &= u_2 - p_2 = \begin{pmatrix} 1\\2\\0\\0 \end{pmatrix} - \begin{pmatrix} \frac{1}{2}\\0\\\frac{1}{2}\\0 \end{pmatrix}  \\
			&= \begin{pmatrix} \frac{1}{2}\\2\\-\frac{1}{2}\\0 \end{pmatrix} / / \begin{pmatrix} 1\\4\\-1\\0 \end{pmatrix}  \\
			\epsilon_2 &= \frac{v_2}{\| v_2 \|} \\
			&= \frac{1}{\sqrt{18} } \begin{pmatrix} 1\\4\\-1\\0 \end{pmatrix}  \\
			&= \frac{1}{3\sqrt{2} } \begin{pmatrix} 1\\4\\-1\\0 \end{pmatrix}  \\
		\end{align*}

		D'où pour $\begin{pmatrix} x\\y\\z\\t \end{pmatrix} \in \R^4$

		\begin{align*}
			p_F^\bot &= \left<(x, y, z, t), \epsilon_1 \right>\epsilon_1 + \left<(x, y, z, t), \epsilon_2 \right> \epsilon_2  \\
				 &= \frac{1}{2} \left<(x, y, z, t), (1, 0,1, 0) \right> (1, 0, 1, 0) + \frac{1}{18} \left<(x, y, z, t), (1, 4, -1, 0) \right> \begin{pmatrix} 1\\ 4\\ -1\\ 0 \end{pmatrix}  \\
				 &= \frac{1}{18} \left( (9x+9z) \begin{pmatrix} 1\\0\\1\\0 \end{pmatrix} + (x+4y-z) \begin{pmatrix} 1\\4\\-1\\0 \end{pmatrix}  \right)  \\
				 &= \frac{1}{18} \begin{pmatrix} 10x + 4y + 8z \\ 4x + 16y - 4z \\ 8x - 4y + 10z \end{pmatrix}  \\
			\Mat_{\cc}(p_F^\bot) &= \frac{1}{18} \begin{pmatrix} 10 & 4 & 8 &0 \\ 4 & 16 & -4 & 0 \\ 8 & -4 & 10 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix}  \\
		\end{align*}
\end{itemize}

\sxe

\smallskip
\subsection{Magie des b.o.n.}
\smallskip

\thm[D\'ecomposition en b.o.n.]
Supposons que $(\eps_i)_{i\in I}$ forme une b.o.n. de $E$. Tout vecteur $x\in E$ se d\'ecompose dans cette base $\dsp{x=\sum\limits_{i\in I}\langle x,\eps_i\rangle \eps_i}$.\\
(La somme est bien finie~: elle n'a qu'un nombre fini de termes non nuls.)
\mht

\demo Pour $E$ de dimension finie, c'est juste la formule de projection.\\[0.3cm]
Sinon~: on copie la d\'emonstration de la formule de projection.\\[0.35cm]
Soit $x\in E$. Par d\'efinition d'une base il peut s'\'ecrire de fa\c{c}on unique sous la forme $x=\lambda_1\eps_{i_1}+\ldots+\lambda_n\eps_{i_n}$.\\[0.1cm]
Pour $p\in\{1,\ldots,n\}$ on a bien, par bilin\'earit\'e~: $\dsp{\langle x,\eps_{i_p}\rangle = \langle \sum_{k=0}^n \lambda_k\eps_{i_k},\eps_{i_p}\rangle = \sum_{k=0}^n \lambda_k \langle \eps_{i_k},\eps_{i_p}\rangle = \sum_{k=0}^n \lambda_k \delta_{k,p} = \lambda_p}$.\\
Pour $i\notin\{i_1,\ldots,i_n\}$ on a bien, par bilin\'earit\'e~: $\dsp{\langle x,\eps_{i}\rangle = \langle \sum_{k=0}^n \lambda_k\eps_{i_k},\eps_{i}\rangle = \sum_{k=0}^n \lambda_k \langle \eps_{i_k},\eps_{i}\rangle = \sum_{k=0}^n \lambda_k\cdot 0 = 0}$.
\cqfd



\thm[Expression du produit scalaire et de la norme en b.o.n.]
Supposons que $(\eps_i)_{i\in I}$ forme une b.o.n. de $E$. Soient $x$ et $y$ dans $E$.\\[0.2cm]
Notons $\dsp{\lect{x = \sum\limits_{i\in I} x_i\eps_i\\y = \sum\limits_{i\in I} y_i\eps_i}}$ (les $x_i$ sont les $\langle x,\eps_i\rangle$, seuls un nombre fini d'entre eux sont non nuls, idem pour les $y_i$).\\
\begin{enumerate}
\item On a $\dsp{\langle x, y\rangle = \sum\limits_{i\in I} x_i y_i}$ (c'est une somme finie~: seul un nombre fini de termes sont non nuls).
\item On a $\dsp{\| x \|^2 = \sum\limits_{i\in I} x_i^2}$ (c'est une somme finie~: seul un nombre fini de termes sont non nuls).
\end{enumerate}
\mht

\demo\subline
\begin{enumerate}
\item C'est juste la bilin\'earit\'e~: $\dsp{\langle x, y\rangle = \Big\langle \sum\limits_{i\in I} x_i\eps_i, \sum\limits_{j\in I} y_j\eps_j\Big\rangle =  \sum\limits_{i\in I} \sum\limits_{j\in I} x_iy_j\langle\eps_i,\eps_j\rangle = \sum\limits_{i\in I} \sum\limits_{j\in I} x_iy_j\delta_{i,j} = \sum\limits_{i\in I} x_i y_i}$.
\item C'est juste le cas $y=x$.
\end{enumerate}
\ \\[-0.5cm]\cqfd

\attention{Autrement dit, si on a une b.o.n. $\bc$ quelconque de $E$, alors n\'ecessairement \textbf{le produit scalaire de $\pmb{E}$\\\phantom{c'} est le produit scalaire canoniquement associ\'e \`a $\pmb{\bc}$.}}\\[0.4cm]


\subsection{Distance \`a un \sev}

\smallskip
\dfn
Soit $A\in E$ et $\pc\subset E$, $\pc\neq \emptyset$. On appelle \newdef{distance de $A$ \`a $\pc$} le r\'eel $\dsp{d(A,\pc) = \inf\limits_{B\in \pc} d(A,B)}$.
\nfd

Un dessin~: \newpage

\thm[de projection orthogonale]
Soit $F$ un sev de $E$ de dimension finie, soit $A\in E$. Alors $d(A,F)=d\Big(A,\,p_F^\bot(A)\Big)$.
\mht

\demo
Il est clair que $p_F^\bot(A) \in F$.

\emph{Reste à montrer}  $\forall B\in F, d(A, B) \ge  d(A, p_F^\bot(A))$

Soit $B \in F$. 

\begin{align*}
	d(A, B)^2 &= \| B - A \|^2 \\
		  &= \| B - p_F^\bot(A) + p_F^\bot(A) - A \|^2 \quad&\text{on fait un crochet par le 3e côté} \\
		  &= \| \underbrace{B - p_F^\bot(A)}_{\in F} + \underbrace{p_F^\bot(A)-A}_{\in F} \\
		  &= \underbrace{\| B - p_F^\bot(A) \|^2 }_{\ge 0}+ \underbrace{\| p_F^\bot-A) - A\|^2 }_{d(A, p_F^\bot(A))^2}\\
		  &\ge  d(A, p_F^\bot-A))^2
	\text{ie } d(A, B) &\ge  d(A, p_F^\bot(A)) \quad&\text{par croissance de $\sqrt{} $}
\end{align*}

\cqfd

\exs
\begin{enumerate}
\item Dans $\R^3$ muni de produit scalaire usuel, calculons la distance de $\mvect{1\\2\\3}$ \`a la droite $\Vect{\mvect{1\\1\\1}}$.

\begin{enumerate}
	\item \emph{On cherche une b.o.n. de $F$} 

		C'est $\left( \underbrace{\frac{1}{\sqrt{3} }\begin{pmatrix} 1\\1\\1 \end{pmatrix} }_{\epsilon_1} \right) $
	\item \emph{Calcul de la projection} 

		\begin{align*}
			p_F^\bot(A) &= \frac{1}{3} \left<\begin{pmatrix} 1\\2\\3 \end{pmatrix} , \begin{pmatrix} 1\\1\\1 \end{pmatrix}  \right> \begin{pmatrix} 1\\1\\1 \end{pmatrix} \\
			&= \frac{1}{3} 6 \begin{pmatrix} 1\\1\\1 \end{pmatrix}  \\
			&= \begin{pmatrix} 2\\2\\2 \end{pmatrix}  \\
		\end{align*}
	\item \emph{Calcul de la distance} 
		\begin{align*}
			d(A, F) &= \left\| A - p_F^\bot(A) \right\| \\
			&= \left\| \begin{pmatrix} 1\\2\\3 \end{pmatrix} , \begin{pmatrix} 2\\2\\2 \end{pmatrix} \right\| \\
			&= \left\| \begin{pmatrix} -1\\0\\1 \end{pmatrix} \right\| \\
			&= \sqrt{2}  \\
		\end{align*}
\end{enumerate}

\item Calculons $\dsp{\inf\limits_{(a,b)\in\R^2} \int_{-\pi}^{\pi} \Big(t-a\cos(t)-b\sin(t)\Big)^2\dt}$
	\begin{align*}
		\underbrace{\inf\limits_{(a,b)\in\R^2} }_{} & \underbrace{\int_{-\pi}^{\pi} \Big(t-a\cos(t)-b\sin(t)\Big)^2\dt }_{} \\
		\overbrace{\inf\limits_{B\in F}}_{} & \overbrace{d(A, B)^2}_{} \\
		E &= \cc([-\pi, \pi], \R) \\
		\left<f, g \right> &= \int_{-\pi}^{\pi} f \cdot g \\
		F &= \Vect{\cos, \sin}  \\
		A &= t \mapsto t \\
	\end{align*}
\end{enumerate}

On cherche donc \begin{align*}
	d(A, F)^2 &= d(A, p_F^\bot(A))^2 \\
	p_F^\bot(A) &= ? \\
\end{align*}

Or $\cos\bot \sin$ et $\|\cos\| = \|\sin\| = \sqrt{\pi} $ 

Donc $(\frac{\cos}{\sqrt{\pi} }, \frac{\sin}{\sqrt{\pi} })$ forme une b.o.n. de $F$

\begin{align*}
	 p_F^\bot(A) &= \left<A, \epsilon_1 \right> \epsilon_1 + \left<A, \epsilon_2 \right> \epsilon_2 \\
		     &= \frac{1}{\pi} \left( \int_{-\pi}^\pi t \cos t \dt \right) \cos + \frac{1}{\pi} \left( \int_{-\pi}^{\pi} t \sin t \dt \right) \sin \\
		     &= \frac{1}{\pi} \left( \left[ -\id \cos  \right]_{-\pi}^{\pi} + \int_{-\pi}^\pi \cos  \right)  \\
		     &= \frac{1}{\pi} ( (\pi + \pi) + \left[ \sin \right]_{-\pi}^\pi ) \sin \\
		     &= 2 \sin \\
\end{align*}

D'où

\begin{align*}
	\inf_{(a, b) \in \R^2} \int_{-\pi}^{\pi} (t - a \cdot \cos t - b \sin t)^2 \dt &= d(A, F)^2 \\
										       &= d(A, p_F^\bot(A))^2 \\
										       &= d(\id, 2\sin)^2 \\
										       &= \| \id - 2 \sin\|^2 \\
										       &= \int_{-\pi}^{\pi} (t - 2 \sin t)^2 \dt \\
										       &= \int_{-\pi}^{\pi} \id^2 - 4 \int_{-\pi}^{\pi} \id \cdot \sin + 4 \int_{-\pi}^{\pi} \sin ^2 \\
										       &= \frac{2\pi^3}{3} - 8\pi + 4\pi \\
										       &= \frac{2\pi^3}{3}-4\pi \\
\end{align*}
\sxe

\thm[Distance \`a un hyperplan en dimension finie]
On suppose $E$ euclidien. Soit $H$ un hyperplan de vecteur normal unitaire $\eta$ et $A\in E$. Alors $d(A,H)=\big|\langle A,\eta\rangle\big|$.
\mht

\demo
\begin{figure}[h]
	\centering
	\includegraphics[width=0.8\textwidth]{./fig_thm_20.png}
\end{figure}

On a 
\begin{align*}
	d(A, H) &= d(A, p_F^\bot(A)) \\
		&= \| \underbrace{A - p_H^\bot(A)}_{} \| \\
		&= \| \underbrace{p_H^\bot(A) + p_{H^\bot}^\bot(A)}_{A} - p_H^\bot(A) \| \\
		&= \| p_{H^\bot}^\bot \| \\
		&= \| p_{\Vect \eta}^{\bot}(A) \| \\
		&= \| \left<A, \eta \right> \eta \| \\
		&= | \left<A, \eta \right> |  \cdot  1 \quad&\text{par homogénéité} \\
\end{align*}
\cqfd

\begin{appl}
Dans $\R^3$ muni du produit scalaire usuel. Soit $H=\left\{\mvect{x\\y\\z},\ ax+by+cz=0\right\}$ et $M=\mvect{x\\y\\z}\in \R^3$.\\
Alors $d\left(M,H\right)=\frac{|ax+by+cz|}{\sqrt{a^2+b^2+c^2}}$.
\end{appl}
\demo
$H = \{(x, y, z), ax+by+cz = 0\} $  a pour vecteur normal $\begin{pmatrix} a\\b\\c \end{pmatrix} $
 
donc pour vectuer normal unitaire $\frac{1}{\sqrt{a^2+b^2+c^2} } \begin{pmatrix} a\\b\\c \end{pmatrix} $ 

\begin{align*}
	d(\begin{pmatrix} x\\y\\z \end{pmatrix} , H) &= \left| \left<\begin{pmatrix} x\\y\\z \end{pmatrix} ,\frac{1}{\sqrt{a^2+b^2+c^2} } \begin{pmatrix} a\\b\\c \end{pmatrix}   \right> \right| \\
	&= \frac{|ax+by+cz|}{\sqrt{a^2+b^2+c^2} } \\
\end{align*}
\cqfd

\rmq
C'est un cas particulier d'un r\'esultat vu (?) en TS~:\supline\\[0.2cm]
Si $\pc$ a pour \'equation $ax+by+cz+d=0$ alors $d\left(\mvect{x\\y\\z},\,\pc\right)=\dfrac{|ax+by+cz+d|}{\sqrt{a^2+b^2+c^2+d} }$.\\[0.4cm]
Mais pour le retrouver, il va falloir faire le cours sur les sous-espaces affines~!
\qmr

\end{document}
