\documentclass{article}
\usepackage[utf8]{inputenc}
\usepackage{stmaryrd}
\usepackage[bookmarks]{hyperref}
\usepackage[margin=1in]{geometry}
\usepackage{amsmath, amssymb}
\usepackage{cancel}
\newcommand{\Ker}{\operatorname{Ker}}
\newcommand{\Tr}{\operatorname{Tr}}
\newcommand{\rg}{\operatorname{rg}}
\newcommand{\id}{\operatorname{id}}
\renewcommand{\Im}{\operatorname{Im}}
\newcommand{\Mat}{\operatorname{Mat}}
%\newcommand{\dim}{\operatorname{dim}}
\newcommand{\Vect}{\operatorname{Vect}}
\newcommand{\R}{\mathbb{R}}
\newcommand{\N}{\mathbb{N}}
\renewcommand{\d}{\ \mathrm{d}}
\renewcommand{\t}[1]{\ {}^t\!#1}
\newcommand{\mc}{\mathcal{M}}
\newcommand{\bc}{\bathcal{B}}
\newcommand{\ie}{{\it i.e.}}
\newcommand{\paral}{//}

\begin{document}

\section{}
\subsection{}
D'après la propriété fondamentale des ALs, toute forme linéaire est de la forme

\begin{align*}
	\begin{pmatrix} x_1\\ \vdots \\x_n \end{pmatrix} \mapsto a_1x_1 + \cdots + a_n x_n = \left<\begin{pmatrix} a_1\\ \vdots \\ a_n \end{pmatrix} , \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix}  \right> 
\end{align*}

\subsection{}
 \begin{align*}
	\phi : \begin{cases}
		E &\to E^\ast \\
		u &\mapsto \phi_u = \left<u, \cdot \right> 
	\end{cases}
\end{align*}

est bien définie, linéaire, entre espaces de dimension $n$


\paragraph{On veut montrer que $\phi$ est surjective}

Par caractérisation des isomorphismes en dimension finie, il suffit de montrer qu'elle est \emph{injective} .

\begin{align*}
	\Ker \phi &= \{u\in E, \phi_u = 0_E\}  \\
		  &= \{u\in E, \forall x\in E, \phi_u(x) = 0\}  \\
		  &= \{u\in E, \forall x\in E, \left<u, x \right> =0\}  \\
		  &= E^\bot \\
		  &= \{0_E\} \quad&\text{par caractérisation des finis} \\
\end{align*}

Donc $\phi$ est injective

\subsection{}
On obtient que tout forme linéaire $f: \mc_n(\R) \to \R$ est de la forme $M \mapsto \Tr(^t U  \times M)$ pour $U\in \mc_n(\R)$
\ie de la forme $M\mapsto \Tr(AM)$ pour une certaine matrice $A\in \mc_n(\R)$

En particulier, \emph{tout hyperplan de $\mc_n(R)$} est de la forme

\begin{align*}
	H_A &= \{M\in \mc_n(\R), \Tr(AM) = 0\}  \\
\end{align*}

Pour une matrice $A$ \emph{non-nulle} 


D'après un théorème du cours, $A$ peut s'écrire sous la forme
\begin{align*}
	A &= P J_r Q \quad&\text{avec $\begin{cases}
			r &\in [1, n] \\
			P, Q &\text{ inversibles}
	\end{cases}$} \\
\end{align*}


\begin{align*}
	M\in H_A &\iff \Tr(AM) = 0 \\
		 &\iff \Tr(P J_r Q M) = 0 \\
		 &\iff \Tr(J_r \underbrace{QMP}_{}) = 0 \\
\end{align*}

\paragraph{Lemme}

Il existe $N$ \emph{inversible} telle que $\Tr(J_r N) = 0$

On prend \begin{align*}
	N &= \begin{pmatrix} \overbrace{1}_{\frac{1}{2}} \\ & \ddots \\ & & 1 \\ & & & -1 \\ & & & & \ddots \\ & & & & & -1 \end{pmatrix}  \\
\end{align*}

On a \begin{align*}
	J_r N &= \begin{pmatrix} \text{diagonale: }  \overbrace{1\ldots 1}_{\frac{1}{2}} \overbrace{-1 \ldots -1}_{\frac{1}{2}} 0 \ldots 0 \end{pmatrix}
	\text{donc } \Tr(J_r N) &= 0 \\
	\text{et } \det N &= (-1)^{n-\frac{r}{2}} = 0 \\
\end{align*}

\paragraph{Pour $n\in 2\N+1$}

On prend \begin{align*}
	N &= \begin{pmatrix} \text{diagonale: } 2 \overbrace{1 \ldots 1}_{\frac{r-1}{2}} \overbrace{-1 \ldots -1}_{\frac{r+1}{2}} -1 \ldots -1 \end{pmatrix}  \\
\end{align*}

On a \begin{align*}
	J_r N &= \begin{pmatrix} \text{diagonale: } 2 \overbrace{1 \ldots 1}_{\frac{r-1}{2}} \overbrace{-1 \ldots -1}_{\frac{r+1}{2}} 0 \ldots 0 \end{pmatrix}  \\
	\text{donc } \Tr(J_r N) &= 0 \\
	\text{et } \det N &= 2 (-1)^{n - \frac{r+1}{2}} \neq 0 \\
\end{align*}

\paragraph{Pour $M = Q^{-1} N P^{-1}$}

On a $M$ inversible comme produit d'inversibles, et
\begin{align*}
\Tr(AM) &= \Tr(P J_r \cancel{Q Q^{-1}} N P^{-1}) \\
	&= \Tr(J_r N \cancel{P P^{-1}}) \\
	&= \Tr(J_r N) \\
	&= 0 \\
\end{align*}

\section{}
\subsection{}

$\forall P, Q\in \R[X], \left<P, Q \right> = \int_{-\frac{1}{2}}^{\frac{1}{2}} P Q $

Montrons que c'est un produit Skyler

Soit $P, Q \in \R[X]$

\paragraph{Symétrie}


\begin{align*}
	\left<P, Q \right> &= \int_{-\frac{1}{2}}^{\frac{1}{2}} PQ \\
			   &= \int_{-\frac{1}{2}}^{\frac{1}{2}} QP \quad&\text{par commutativité de $ \times_{\R[X]}$} \\
\end{align*}

\paragraph{Bilinéarité}

Soit $\lambda, \mu\in \R$ et $R\in \R[X]$

Montrons seulement la linéarité à gauche, ce qui équivaut à la linéarité par symétrie

\begin{align*}
	\left<\lambda P + \mu Q, R \right> &= \int_{-\frac{1}{2}}^{\frac{1}{2}} (\lambda P + \mu Q)R \\
	&= \lambda \int_{-\frac{1}{2}}^{\frac{1}{2}} P R + \mu \int_{-\frac{1}{2}}^{\frac{1}{2}} QR \quad&\text{par distributivité de $ \times $ sur $+$ et linéarité de $\int$} \\
	&= \lambda \left<P, R \right> + \mu \left<Q, R \right>  \\
\end{align*}

\paragraph{Positivité}
\begin{align*}
	\left<P, P \right> &= \int_{-\frac{1}{2}}^{\frac{1}{2}} P^2 \\
	& \ge 0 \quad&\text{par positivité de $\int$} \\
\end{align*}

\paragraph{Caractère défini}
\begin{align*}
	\left<P,P \right> &= 0 \\
	\text{ie }  \int_{-\frac{1}{2}}^{\frac{1}{2}} P^2 &= 0 \\
	\iff \text{le polynôme a une infinité de racines sur $[-\frac{1}{2}, \frac{1}{2}]$}
	\iff P &= 0 \quad&\text{sur $[-\frac{1}{2}, \frac{1}{2}]$} \\
\end{align*}
\subsection{}
Existance de $\pi \in \R_3[X]$ tel que 
\begin{align*}
	\forall P\in \R_3[X],\ \left<\pi, P \right> = P(0)
\end{align*}

Oui, $\pi$ existe (et est unique) car $ \cdot (0) : \R_3[X] \to \R$ est une \emph{forme linéaire} 
sur $\R_3[X]$ qui est \emph{euclidien} donc représentable, \ie $\exists \pi\in \R_3[X], \left<\pi,  \cdot  \right> =  \cdot (0)$

\begin{align*}
	\pi &= a_0 + a_1 X + a_2 X^2 + a_3X^3 \\
\end{align*}

\begin{align*}
	\pi\text{ convient}&\iff \forall P\in \R_3[X], \left<\pi, P \right> = P(0) \\
			   &\iff\forall P\in \{1, X, X^2, X^3\}, \left<\pi, P \right> = P(0) \quad&\text{par linéarité}  \\
			   &\iff \begin{cases}
			   	\left<\pi, 1 \right> &= 1 \\
				\left<\pi, X \right> &= 0 \\
				\left<\pi, X^2 \right> &= 0 \\
				\left<\pi, X^3 \right> &= 0 \\
			   \end{cases} \\
			   &\iff \begin{cases}
			   	\int_{-\frac{1}{2}}^{\frac{1}{2}} a_0 + a_1 t + a_2 t^2+a_3 t^3 \d t &= 1 \\
				\int_{-\frac{1}{2}}^{\frac{1}{2}} a_0 t + a_1 t^2 + a_2 t^3 + a_3 t^{4} \d t &= 0 \\
				\int_{-\frac{1}{2}}^{\frac{1}{2}} a_0 t^2 + a_1 t^3 + a_2 t^4 + a_3 t^{5} \d t &= 0 \\
				\int_{-\frac{1}{2}}^{\frac{1}{2}} a_0 t^3 + a_1 t^4 + a_2 t^5 + a_3 t^{6} \d t &= 0 \\
			   \end{cases} \\
			   &\iff \begin{cases}
					   a_0 + 2a_2 \left[ \frac{t^3}{3} \right]_{t=0}^{\frac{1}{2}} &= 1 \qquad\text{par parité de $\id$} \\
					   2a_1 \left[ \frac{t^3}{3}\right]_{t=0}^{\frac{1}{2}} + 2a_3 \left[ \frac{t^{5}}{5}\right]_{t=0}^{\frac{1}{2}} &= 0 \\
					   2a_0 \left[ \frac{t^3}{3} \right]_{t=0}^{\frac{1}{2}} + 2a_2 \left[ \frac{t^{5}}{5}\right]_{t=0}^{\frac{1}{2}} &= 0 \\
					   2a_1 \left[ \frac{t^5}{5} \right]_{t=0}^{\frac{1}{2}} + 2a_3 \left[ \frac{t^{7}}{7}\right]_{t=0}^{\frac{1}{2}} &= 0 \\
			   \end{cases} \\
			   &\iff \begin{cases}
			   	a_0 + \frac{a_2}{12} &= 1 \\
				\frac{a_1}{12} + \frac{a_3}{80} &= 0 \\
				\frac{a_0}{12} + \frac{a_2}{80} &= 0 \\
				\frac{a_1}{80} + \frac{a_3}{64 \cdot 7} &= 0 \\
			   \end{cases} \\
			   &\iff \begin{cases}
			   	\begin{cases}
			   		a_0 + \frac{a_2}{12}&= 1 \\
					\frac{a_0}{12}+\frac{a_2}{80}&= 0 \\
			   	\end{cases} \\
				\begin{cases}
					\frac{a_1}{12}+\frac{a_3}{80}&= 0 \\
					\frac{a_1}{80}+\frac{a_3}{64 \cdot 7}&= 0 \\
				\end{cases}
			   \end{cases} \\
			   &\iff \begin{cases}
				\frac{1}{80}-\frac{1}{12^2} &= \frac{9-15}{9 \cdot 5 \cdot 16} \\
				&= \frac{1}{9 \cdot 5 \cdot 4} \\
				&= \frac{1}{180} \\
				\begin{pmatrix} a&b\\c&d \end{pmatrix}  \times \begin{pmatrix} a_0\\a_2 \end{pmatrix} = \begin{pmatrix} 1\\0 \end{pmatrix} &\iff \begin{pmatrix} a_0\\a_2 \end{pmatrix} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}  \times \begin{pmatrix} 1\\0 \end{pmatrix}  \\
					\text{ie } \begin{pmatrix} a_0\\a_2 \end{pmatrix} &= 180 \begin{pmatrix} \frac{1}{80}&-\frac{1}{12}\\-\frac{1}{12}& 1 \end{pmatrix}  \times \begin{pmatrix} 1\\0 \end{pmatrix}  \\
					&= 180  \times \begin{pmatrix} \frac{1}{80}\\-\frac{1}{12} \end{pmatrix}  \\
					&= \begin{pmatrix} \frac{180}{80}\\-\frac{180}{12} \end{pmatrix}  \\
					&= \begin{pmatrix} \frac{9}{4}\\-15 \end{pmatrix}  \\	
			   	\begin{cases}
					a_1&= 0 \\
					a_3&= 0 \\
				\end{cases} \quad&\text{car $\frac{1}{12} \cdot \frac{1}{64 \cdot 7} - \left( \frac{1}{80} \right) ^2 \neq 0$}
			   \end{cases}
\end{align*}

Conclusion: \[
	\pi = \frac{9}{4}-15X^2
\] 

\subsection{}
Montrons que, sur $\R[X]$, il n'existe pas \[
	\pi\in \R[X], \ \forall P\in \R[X], \left<\pi, P \right> = P(0) 
\] par l'absurde.

\paragraph{Pour $P=X\pi$}

On obtient \begin{align*}
	\left<X\pi, \pi \right> &= (X\pi)(0) = 0 \\
	\text{ie } \int_{-\frac{1}{2}}^{\frac{1}{2}} t \pi(t) \d t &= 0 \\
\end{align*}

On prend $P = X^2\pi$ 

\begin{align*}
	\left<X^2\pi, \pi \right> &= 0 \\
	\text{ie }\int_{-\frac{1}{2}}^{\frac{1}{2}} (t \pi(t))^2 \d t &= 0 \\
	\text{donc } X\pi&= 0 \quad&\text{par caractère défini du produit Skyler}\\
	\text{or } X&\neq 0 \\
	\text{donc } \pi&= 0 \quad&\text{par intégrité de $\R[X]$}\\
	\text{En particullier } 1 \overbrace{=}^{\text{par déf. de $\pi$}} \left<\pi, 1 \right> &= \left<0, 1 \right> = 0 \quad\textsc{IMP} 
\end{align*}

\section{}

\subsection{}
\paragraph{Symétrie}
Soit $P,Q  \in \R[X]$. Posons $\left< \cdot ,  \cdot  \cdot  \right> = \frac{1}{2} \int_{-1}^1  \cdot  \times  \cdot  \cdot  $

\begin{align*}
	\left<P, Q \right> &= \frac{1}{2}\int_{-1}^{1}PQ \\
	&= \frac{1}{2}\int_{-1}^1 QP \\
	&= \left<Q, P \right>  \\
\end{align*}

\paragraph{Bilinéarité}
Soit $(\lambda, \mu, P, Q, R) \in \R^2  \times \R_3[X]^3$ 

\begin{align*}
	\left<\lambda P + \mu Q, R \right> &= \frac{1}{2}\int_{-1}^{1} (\lambda P + \mu Q) R \\
	&= \frac{\lambda}{2} \int_{-1}^1 PR + \frac{\mu}{2} \int_{-1}^1 QR \\
	&= \lambda \left<P, R \right> + \mu \left<Q, R \right>  \\
\end{align*}

Ainsi $\left< \cdot ,  \cdot  \cdot  \right> $ est linéaire à gauche.
Par symétrie, $\left< \cdot ,  \cdot  \cdot  \right> $ est aussi linéaire à droite.
Ainsi, $\left< \cdot ,  \cdot  \cdot  \right> $ est bilinéaire.

\paragraph{Positivité}
Soit $P\in \R[X]$ 

\begin{align*}
	\left<P, P \right> &= \frac{1}{2}\int_{-1}^1 P^2 \ge 0 \quad&\text{par positivité de $\int$ et de $\frac{1}{2}$} \\
\end{align*}

\paragraph{Caractère défini}

\begin{align*}
	\frac{1}{2}\int_{-1}^1 P^2 &= 0 \\
	\text{ie } P &\quad\text{a une infinité de racines} \\
	\text{ie } P &= 0 \\
\end{align*}

$F$ est un sev de $E$ de dimension $\dim F = n+1$ donc fini, alors $F$ est muni de la structure d'espace Euclidien.

\subsection{}
\paragraph{IPP généralisée}
\begin{align*}
	\forall p\in \N, \ \mathcal{P}_p := ``\forall f, g\in \mathcal{C}^{p}([-1, 1], \R), \ \int_{-1}^1 f g^{(p)} = \ldots"
\end{align*}

\emph{Initialsation} ( $p=0$ )

Soit $f, g\in \mathcal{C}([-1, 1], \R)$

\begin{align*}
	\left[ \sum_{k=0}^{1} (-1)^k f^{(k)} g^{(p-k-1)} \right]_{-1}^{1} + (-1)^0 \int_{-1}^1 f^{(0)}g &= \int_{-1}^{1} fg \\
													&= \int_{-1}^{1} f g^{(0)} \\
\end{align*}

\emph{Hérédité} Soit $n\in \N$. Supposons $\mathcal{P}_p$

Soit  $f, g\in \mathcal{C}^{p+1}([-1, 1], \R)$

On a bien $f', g' \in \mathcal{C}^{p}([-1, 1], \R)$

\begin{align*}
	\int_{-1}^1 fg^{(p+1)} &= \left[ fg^{(p)} \right]_{-1}^1 - \int_{-1}^1 f' g^{(p)} \\
	\int_{-1}^1 f' g^{(p)} &= \left[ \sum_{k=0}^{p-1} (-1)^k f^{(k+1)} g^{(p-k-1)} \right]_{-1}^1 + (-1)^p \int_{-1}^1 f^{(p+1)} g \\
	\int_{-1}^1 f g^{(p+1)} &= \left[ f g^{(p)} + \sum_{k=0}^{p-1} (-1)^{k+1} f^{(k+1)} g^{(p-k-1)} \right]_{-1}^{1} \int_{-1}^{1} f^{(p+1)} g \\
				&= \left[ \sum_{k=0}^{p} (-1)^{k} f^{(k)} g^{(p-k)} \right]_{-1}^1 + (-1)^{p+1}\int_{-1}^{1} f^{(p+1)} g \\
\end{align*}

\emph{Conclusion}  \ldots

\subsection{}
\begin{align*}
	U_k &= ((X^2-1)^{k})^{(k)} \\
	\deg(X^2-1) &= 2 \\
	\text{donc } \deg((X^2-1)^{k}) &= 2k \\
	\text{donc } \deg(((X^2-1)^{k})^{(k)}) &= \deg U_k = k \\
\end{align*}

Or 
\begin{align*}
	X^2-1 &= (X-1)(X+1) \quad&\text{1 et -1 sont racines de $(X^2-1)$ de mult. 1} \\
	(X^2-1)^k &= (X-1)^k(X+1)^k \quad&\text{1 et -1 sont racines de $(X^2-1)$ de mult. $k$} \\
\end{align*}

\begin{align*}
	U_k = ((X^2-1)^k)^{(k)} &\text{ n'a pas 1 et -1 comme racines} \\
	\text{mais pour $i<k$ } ((X ^2-1)^k)^{(i)} &\text{ a 1 et -1 comme racines (de mult. $k-i$ )}
\end{align*}

\paragraph{}
$(U_0, U_1, \ldots, U_n)$ est une base de $\R_n[X]$ car c'est une famille échelonnée en degré

Soient $i\neq j\in \llbracket 0, n\rrbracket$. ÀRP, $i<j$

\begin{align*}
	\left<U_i, U_j \right> &= ? \\
\end{align*}

\begin{align*}
	2\left<U_i, U_j \right> &= \int_{-1}^1 \underbrace{U_i}_{\in \mathcal{C}^{\infty}} \underbrace{U_j}_{\in \mathcal{C}^{\infty}} \\
				&= \int_{-1}^1 ((X^2-1)^i)^{(i)} ((X^2-1)^j)^{(j)} \d X \\
\end{align*}

Avec $ \begin{cases}
	p&= j \\
	g &= (\id^2-1)^j \\
	f &= U_i \\
\end{cases} $, d'après la 3.2, 

\begin{align*}
	2\left<U_i, U_j \right> &= \left[ \sum_{k=0}^{j-1} (-1)^k f^{(k)}g^{(j-k-1)} \right]_{-1}^1  + (-1)^j \int_{-1}^1 f^{(j)}g \\
\end{align*}

$i<j$ et $\deg U_i = i$ donc $U_i^{(j)} = f^{(j)} = 0$

donc   \begin{align*}
	\int_{-1}^{1} f^{(j)}g &= \int_{-1}^1 0 \times g = 0 \\
\end{align*}

et pour $k\in \llbracket 0, j-1 \rrbracket$ on a
\begin{align*}
	\begin{cases}
		r &= j-k-1 \in \llbracket 0,  j-1 \rrbracket \\
		g^{(j-k-1)} &= g^{(r)} \\
			    &= ((\id^2-1)^j)^{(r)} \\
			    & \text{ a -1 et 1 pour racines (de mult. $j-r=k+1$ )} \\
	\end{cases} \\
	\text{donc } \left[ \sum_{k=0}^{j-1} f^{(k)}g^{(j-k-1)} \right]_{-1}^1 &= 0 \\
	\text{d'où } \left<U_i, U_jj \right> &= 0 \qquad\text{car $2\neq 0$} \\
	\text{donc } (u_1, \ldots, u_n) &\text{ et une base et une fmaille orthogonale, donc une b.o.g.}
\end{align*}

B.o.n $(Q_0, \ldots, Q_n)$ où les $Q_i = \frac{U_i}{\| U_i \|}$

\begin{align*}
	\| U_i\|^2 &= \left<U_i, U_i \right> \text{ et } \\
	2\left<U_i, U_i \right>  &= \left[ \overbrace{ \sum_{k=0}^{i-1} (-1)^k ((X^2-1)^i)^{(k+1)} ((X^2-1)^i)^{(i-k-1)} }^{0} \right]_{-1}^1 + (-1)^i \int_{-1}^1 ((X^2-1)^i)^{(2i)} (X^2-1)^i \d X \\
				 &= (-1)^i \int_{-1}^1  (X^{2i}+\cdots)^{(2i)} (X^2-1)^i \d X \\
				 &= (-1)^i (2i)! \int_{-1}^1 (X-1)^i(X+1)^i \d X  \\
	\int_{-1}^{1} (X-1)^i (X+1)^i \d X &= \underbrace{\left[ \frac{(X-1)^{i+1}(X+1)^{i}}{i+1} \right]_{-1}^{1}}_{= 0}  - \frac{i}{i+1} \int_{-1}^1 (X-1)^{i+1}(X-i)^{i-1} \d X \quad\text{par IPP} \\
					   &= \frac{-i}{i+1} \int_{-1}^1 (X-1)^{i+1} (X+1)^{i-1} \d X \\
					   &= \frac{-i}{i+1} \left( \underbrace{\left[ \frac{(X-1)^{i+2}(X+1)^{i-1}}{i+1} \right]_{-1}^1}_{0} - \frac{i-1}{i+2} \int_{-1}^2 (X-1)^{i+2}(X+1)^{i-2}\d X \right)  \\
					   &= (-1)^2 \frac{i(i-1)}{(i+1)(i+2)} \int_{-1}^{1} (X-1)^{i+2}(X+1)^{i-2} \d X \\
					   &= \vdots \\
					   &= (-1)^i \frac{i!}{(i+1) \times \cdots  \times (2i)} \int_{-1}^1 (X-1)^{2i} \d X \\
					   &= (-1)^i \frac{i!^2}{(2i)!} \left[ \frac{(X-1)^{2i+1}}{2i+1} \right]_{-1}^1 \\
					   &= (-1)^i \frac{i!^2}{(2i)!} \left( -\frac{(-2)^{2i+1}}{2i+1} \right)  \\
					   &= (-1)^i \frac{i!^2 2^{2i+1}}{(2i+1)!} \\
\end{align*}

D'où

\begin{align*}
	\| U_i \|^2 &= \frac{(-1)^i}{2} (2i)! (-1)^i \frac{i!^2 2^{2i+1}}{(2i+1)!} \\
		    &= \frac{i! 2^{2i}}{2i+1} \\
		    \iff Q_i &= \frac{U_i \sqrt{2i+1} }{\sqrt{i!} \ 2^i} \\
\end{align*}

\subsection{}

\paragraph{Remarque}
\[
	d(P, \R_n[X]) = 0 \impliedby \deg P \le n
\] 

\paragraph{}
\begin{align*}
	d(P, \R_n[X])^2 &= d(P, p_{\R_n[X]}^\bot(P))^2 \text{ car } \dim \R_n[X] = n + 1 < n \\
\end{align*}

\begin{align*}
	p_{\R_n[X]}^\bot(P) &= \sum_{i=0}^{n} \left<P, Q_i \right> Q_i \\
			    &= \| \underbrace{P - p_{\R_n[X]}^\bot(P)}_{\in \R_n[X]^\bot} \|^2 \\
\end{align*}

D'après Pythaya:

\begin{align*}
	\|P\|^2 &= \| ( \underbrace{P - p_{\R_n[X]}^\bot(P)}_{\in \R_n[X]^\bot} ) + \underbrace{p_{\R_n[X]}^\bot(P)}_{\in \R_n[X]} \|^2 \\
	&= \| P - p_{\R_n[X]}^\bot(P)\|^2 + \|p_{\R_n[X]}^\bot(P) \|^2 \\
	&= d(P, \R_n[X])^2 + \sum_{i=0}^{n} \left<P, Q_i \right> ^2 \quad&\text{magie des b.o.n.} \\
\end{align*}

ÀPCR $N = \deg P$

On a  \begin{align*}
	d(P, \R_n[X])^2 &= 0 \\
	\text{donc } \sum_{i=0}^{n} \left<P, Q_i \right> ^2 &= \| P\|^2 \\
\end{align*}

\section{}
$E = \R[X]$
$\phi = \int_0^1  \cdot $

Montrons que $\phi$ n'est pas représentable.
Supposons qu'il existe $U\in R[X]$ tel que $\phi = \left< \cdot , U \right> $

Notons $U = u_0 + u_1 X + \cdots + u_n X^n$

On obtient
\begin{align*}
	\int_0^1 X^{n+1} \d X &= \left<\lambda^{n+1}, u_0 + u_1 X + \cdots + u_n X^n \right>  \\
\text{ie } \frac{1}{n+2} &= 0 \text{\textsc{ imp}} \\
\end{align*}

\section{}

$f$ est un sev de $\R^3$ car 

\begin{align*}
	f&= \left\{ \begin{pmatrix} a\\b\\c \end{pmatrix} \in \R^3, 2x+y+2z = 0 \right\} \\
	 &= \Vect\left( \begin{pmatrix} 1\\-2\\0 \end{pmatrix} , \begin{pmatrix} 0\\-2\\1 \end{pmatrix}  \right)  \\
	\text{donc } d(A, F) &= d(A, p_{F}^\bot(A)) \\
\end{align*}

\paragraph{Meth. 1}


Calcul d'une b.o.n. de $f$

\begin{itemize}
	\item $\epsilon_1 = \frac{1}{\sqrt{5} }\begin{pmatrix} 1\\-2\\0 \end{pmatrix} $ 
	\item $\epsilon_2 =  \frac{ \cdot }{\| \cdot \|}( u_2 - \sum_{i=1}^{1} \left<u_1, \epsilon_1 \right> \epsilon_1)  $
\end{itemize}

\paragraph{Meth. 2}

D'après le cours, 

 \begin{align*}
	 d(A, F) &= \frac{| 2 \cdot 4+3+2 \cdot 2 | }{\sqrt{2^2+1^2+2^2} } \\
	 &= \frac{15}{3} = 5 \\
\end{align*}

\section{}
\section{}
\section{}
\section{}
\section{}
\section{}
\section{}
\section{}

$\|a\| = \|b\| = 1$

 \begin{align*}
	 f&: \begin{cases}
		 E &\to E \\
		 x &\mapsto x - \left<a, x \right> b
	 \end{cases}
\end{align*}


\subsection{}
\paragraph{f endo?}

$f = \id - g$ avec $ g : \begin{cases}
		E &\to E \\
		x&\mapsto \left<a, x \right> b
	\end{cases}$ 

Donc $f$ est linéaire comme CL d'AL.

\subsection{}

$\dim E = n < +\infty$
Comme des isos en dim. finie

\begin{align*}
	f\text{ bij} \iff f\text{ inj}
\end{align*}

Calculons \begin{align*}
	\Ker f &= \{x\in E, f(x) = 0_E\}  \\
	&= \{x\in E, x=\left<a, x \right> b\}  \\
	&\subset \Vect(b)
\end{align*}

Soit $x\in \Vect(b)$ \ie de la forme $x = \lambda b$

\paragraph{Est-il dans $\Ker f$?}

\begin{align*}
	f(x) &= x-\left<a, x \right> b \\
	     &= \lambda b - \lambda \left<a, b \right> b \\
	     &= \lambda (1 - \left<a, b \right>)b \\
\end{align*}

\begin{align*}
	f(x) = 0 &\iff \left<a, b \right> =1 \\
\end{align*}

\begin{align*}
	\left<a, b \right> &\le \| a\| \|b\| \quad&\text{d'après Cauchy-Schwarz} \\
	&= 1 \\
\end{align*}


\begin{align*}
	\left<a, b \right> = 1 &\iff \text{on est dans le \emph{cas d'égalité} de Cauchy-Schwarz.} \\
			       &\iff a \propto_{\text{positivement}} b \\
			       &\iff a = b \quad&\text{car $\|a\|=\|b\|$}
\end{align*}

\paragraph{Conclusion}
CNS de bijectivité: \fbox{ $a\neq b$ }

\subsection{}
On suppose $f$ bijective (\ie $a \neq  b$).

\begin{align*}
	f^{-1}(x) = y &\iff x = f(y)
\end{align*}

\begin{align*}
	x = f(y) &\iff x = y - \left<a, y \right> b \\
		 &\iff y = x + \left<a, y \right> b
\end{align*}

$y$ est de la forme $x+\lambda b$. On réinjecte.

On a \begin{align*}
	y  =x + \left<a, y \right> b &\iff x + \lambda b \\
				     &= x + \left<a, x+\lambda b \right> b \\
				     &= x + \left<a, x \right> b + \lambda \left<a, b \right> b \\
\iff \lambda(1 - \left<a, b \right> )b &= \left<a, x \right> b \\
\iff \lambda(1 - \left<a, b \right> ) &= \left<a, x \right> \quad&\text{car $b \neq 0_E$ car $\|b\| = 1$} \\
\iff \lambda &= \frac{\left<a, x \right> }{1-\left<a, b \right> } \\
\end{align*}

\paragraph{Conclusion}
$y = x + \frac{\left<a, x \right> }{1 - \left<a, b \right> }b$ \ie $f^{-1}: \begin{cases}
	E &\to E \\
	x &\mapsto x + \frac{\left<a, x \right> }{1 - \left<a, b \right> }b
\end{cases}$

\subsection{}
On suppose $f$ non bijective \ie $a = b$ 

\paragraph{Calculons $f \circ f$}

Soit $x\in E$

\begin{align*}
	f(f(x)) &= f(x) - \left<a, f(x) \right> b \\
	&= x-\left<a, x \right> b - \left<a, x - \left<a, x \right> b \right> b \\
	&= x-\left<a, x \right> b-\left<a, x \right> b+\left<a, b \right> \left<a, x \right> b \\
	&= x - 2\left<a, x \right> a + \frac{\| a \|}{1} \left<a, x \right> a \quad&\text{car $a=b$} \\
	&= x-\left<a, x \right> a \\
	&= f(x) \\
\end{align*}

\paragraph{Somme directe associée?}

Pour $a=b$ 

\begin{align*}
	\Ker f &= \Vect(b) \\
	       &= \Vect(a) \quad&\text{car $a=b$} \\
	\Im f &= \{f(x), x\in E\}   \\
	&= \{x-\left<a, x \right> b,\ x\in E\}  \\
	&= \{ x-\left<a, x \right> a,\ x\in E \}  \\
	&= \{  p_{\Vect(b)}^\bot(x),\ x\in E\}  \\
	&= \Vect(b)^{\bot} \\
\end{align*}

\section{}
\subsection{}
$\Ker A = \Ker(^t A A)$
\paragraph{\fbox{ $\subset$ } }

Soit $x\in \Ker A$.

\begin{align*}
	Ax &= \begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix}  \\
	\text{Donc } (^t A A)x &= \begin{pmatrix} 0\\ \vdots \\ 0 \end{pmatrix}  \\
	\text{ie } x&\in \Ker (^t A A)
\end{align*}

\paragraph{\fbox{ $\supset$ }}

Soit $x\in \Ker(^t A A)$
\ie $^t A A x = \begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix} $

\begin{align*}
	\text{Alors } ^t x ^t A Ax &= ^t x \begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix}  \\
	&= 0 \\
	\text{ie } ^t(Ax) \times (Ax) &= 0 \quad&\text{c'est le p.s. des vecteurs, pas des matrices} \\
	\text{ie } \left<Ax, Ax \right>_{\R^n} &= 0 \\
\end{align*}

\begin{center}
	(En général, $^tX \times Y = \left<X, Y \right> $ )
\end{center}

\begin{align*}
	X &= \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} \left<X, Y \right> = x_1 y_1 + \cdots + x_n y_n \\
	Y &= \begin{pmatrix} y_1 \\ \vdots \\ y_n \end{pmatrix} {}^t X \times Y = x_1 y_1 + \cdots + x_n y_n \\
\end{align*}

Par caractère défini: $Ax  = \begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix} $ 

\ie $x\in \Ker A$.

\subsection{}
$\Im A = \Im (A ^t A)$ 

\paragraph{\fbox{ $\supset$}}

Soit $y \in \Im(A ^t A)$ 
Il existe $x\in \R^n$ tq. $y = A(^t A x)$

Pour  $z = ^t A x$ on obtient $y = Az$, donc $y \in \Im A$ 

\paragraph{\fbox{ $\subset $ }}

Montrons $\dim \Im A = \dim \Im (A ^t A)$

On sait que  $\rg A  = \rg (^tA) = n - \dim \Ker A$ 

\begin{align*}
	\rg(^t A A) &= n-\dim \Ker (^t A A) \\
\end{align*}

En applicant le résultat de 13.1 à $^t A$ plutôt qu'à $A$, on obtient

\begin{align*}
\Ker (^t A) &= \Ker ({}^{t t} A {}^t A)\\
	    &= \Ker (A \ {}^t\!A) \\
\end{align*}

Donc 

 \begin{align*}
	 \dim \Ker \t{A} &= \dim \Ker (A \t{A}) \\
	 \iff \rg A &= \rg \t{A} = \rg (A \t{A}) \quad&\text{en réinjectant} \\
\end{align*}

D'où

$ \begin{cases}
	\Im A &\supset \Im (A \t{A}) \\
	\dim \Im A &= \dim \Im(A \t{A}) \\
\end{cases} $ 

Et donc $\Im A = \Im (A \t{A})$


\section{Pour se réveiller}
Soit $A = \begin{pmatrix} 4 & -2 & -2 \\ 1 & 0 & -1 \\ 3 & -2 & -1 \end{pmatrix} $ et $\bc = (e_1, e_2, e_3)$

Montrer qu'il existe une base $C = (\epsilon_1, \epsilon_2, \epsilon_3)$ de $E$ telle que la matrice de $f$ dans $C$ soit $D = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix} $

\paragraph{On cherche} $(\epsilon_1, \epsilon_2, \epsilon_3)$ tels que 

\begin{enumerate}
	\item $(\epsilon_1, \epsilon_2, \epsilon_3)$ soit une base de $\R^3$
	\item 
		\begin{align*}
			\Mat_{C}f &= \begin{pmatrix} 0 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix}  \\
			&\iff\begin{cases}
				\decomp{f(\epsilon_1)}{C} &= \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
				\decomp{f(\epsilon_2)}{C} &= \begin{pmatrix} 0\\1\\0 \end{pmatrix} \\
				\decomp{f(\epsilon_3)}{C} &= \begin{pmatrix} 0\\0\\2 \end{pmatrix}  \\
			\end{cases} \\
			&\iff \begin{cases}
				f(\epsilon_1) &= \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
				f(\epsilon_2) &= \epsilon_2 \\
				f(\epsilon_3) &= 2\epsilon_3 \\
			\end{cases}	
		\end{align*}
\end{enumerate}

\subsection{}


\begin{align*}
	f(\epsilon_1) := f \begin{pmatrix} x_1\\y_1\\z_1 \end{pmatrix} &= \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
	\iff A \times \begin{pmatrix} x_1\\y_1\\z_1 \end{pmatrix} &= \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
	\iff &\begin{cases}
		4x_1 - 2y_1 - 2z_1 &= 0 \\
		x_1-z_1&= 0 \\
		3x_1-2y_1-z_1&= 0 \\
	\end{cases} \\
	\iff &\begin{cases}
		z_1 &= x_1 \\
		x_1&= y_1 \\
		x_1&= y_1 \\
	\end{cases} \\
	S &= \Vect \begin{pmatrix} 1\\1\\1 \end{pmatrix}  \\
\end{align*}

Prenons $\epsilon_1 = \begin{pmatrix} 1\\1\\1 \end{pmatrix} $

\subsection{}

\begin{align*}
	f(\epsilon_2) := f \begin{pmatrix} x_2\\y_2\z_2 \end{pmatrix} &= \begin{pmatrix} x_2\\y_2\\z_2 \end{pmatrix}  \\
	\iff &\begin{cases}
		4x_2-2y_2-2z_2&= x_2 \\
		x_2-z_2&= y_2 \\
		3x_2-2y_2-z_2&= z_2 \\
	\end{cases} \\
	\iff &\begin{cases}
		3x_2-2y_2-2z_2&= 0 \\
		x_2-y_2-z_2&= 0 \\
		3x_2-2y_2-2z_2&= 0 \\
	\end{cases} \\
	\iff &\begin{cases}
		z_2 &= x_2-y_2 = -y_2 \\
		x_2&= 0 \\
	\end{cases} \\
	S &= \Vect \begin{pmatrix} 0\\1\\-1 \end{pmatrix}  \\
\end{align*}

Prenons $\epsilon_2 = \begin{pmatrix} 0\\1\\-1 \end{pmatrix} $ 

\begin{align*}
	f(\epsilon_3) := f \begin{pmatrix} x_3\\y_3\z_3 \end{pmatrix} &= 2 \begin{pmatrix} x_3\\y_3\\z_3 \end{pmatrix}  \\
	\iff &\begin{cases}
		4x_3-2y_3-2z_3&=2 x_3 \\
		x_3-z_3&=2 y_3 \\
		3x_3-2y_3-z_3&= 2 z_3 \\
	\end{cases} \\
	\iff &\begin{cases}
			x_3-y_3-z_3&= 0 &L_1 \\
			x_3-2y_3-z_3&= 0 & L_2 \\
			3x_3-2y_3-3z_3&= 0 &L_3 \\
	\end{cases} \\
	\iff &\begin{cases}
		x_3-y_3-z_3&= 0 L_1 \\
		-y_3&= 0 & L_2 \from L_2-L_1 \\
		3x_3-2y_3-3z_3 &= 0 & L_3 \\
	\end{cases} \\
	\iff &\begin{cases}
		y_3&= 0 \\
		x_3&= z_3 \\
	\end{cases}
	S &= \Vect \begin{pmatrix} 1\\0\\1 \end{pmatrix}  \\
\end{align*}

De plus, $(\epsilon_1, \epsilon_2, \epsilon_3)$ est une case car \begin{align*}
	\operatorname{det} \begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 1 & -1 & 1 \end{pmatrix} &= 1-1+0-1-0-0 = -1 \neq 0 \\
\end{align*}

\begin{align*}
	A &= \Mat_{\bc \from C}\id D \Math_{C \from \bc} \id \\
	  &= \begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 1 & -1 & 1 \end{pmatrix}  \times D  \times \begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 1 & -1 & 1 \end{pmatrix}^{-1} \\
\end{align*}

Si par exemple on nous demade $A^n$\ldots

\begin{align*}
	A^n &= (PDP^{-1})^n \\
	&= P D^n P^{-1} \\
	&= P \begin{pmatrix} 0 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2^n \end{pmatrix} P^{-1} \\
\end{align*}

\paragraph{Meth 2} Trouver par contemplation $(\epsilon_1, \epsilon_2, \epsilon_3)$


\begin{align*}
	A\epsilon_1 = \vec 0 &\iff x_1 \begin{pmatrix} 4\\1\\3 \end{pmatrix} + y_1 \begin{pmatrix} -2\\0\\-2 \end{pmatrix} + z_1 \begin{pmatrix} -2\\-1\\-1 \end{pmatrix} = \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
		A\epsilon_2  &\iff x_2 \begin{pmatrix} 3\\1\\3 \end{pmatrix} + y_2 \begin{pmatrix} -2\\-1\\-1 \end{pmatrix} + z_2 \begin{pmatrix} -2\\-1\\-2 \end{pmatrix} = \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
			\iff (A-I_3)\epsilon_2 &= \vec O \\
	A\epsilon_3 &= 2\epsilon_3 \\
	\iff (A-2I_3)\epsilon_3 &= \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
		\iff x_3 \begin{pmatrix} 2\\1\\3 \end{pmatrix} + y_3 \begin{pmatrix} -2\\-2\\-2 \end{pmatrix} + z_3 \begin{pmatrix} -2\\-1\\-3 \end{pmatrix} &= \begin{pmatrix} 0\\0\\0 \end{pmatrix}  \\
\end{align*}
\end{document}
