\input{../.headers/cours.tex}
\renewcommand{\L}{\lc}
\renewcommand{\i}{\mathbf{i}}
\newcommand{\Tr}{\operatorname{Tr}}
\newcommand{\conts}{\mathcal{C}}

\baselineskip15pt

\begin{center}
\shadowbox{\LARGE \bf \textsc{${}^{{}^{{}^{{}^{{}^{}}}}}$ Applications lin\'eaires\semisubline}}\\[0.25cm]
\end{center}%\ \\[-1.1cm]

Dans tout le chapitre, $\K$ d\'esigne un sous-corps de $\C$, en pratique $\R$ ou $\C$.%\\
%$E$ d\'esignera toujours un $\K$\nobreakdash-espace vectoriel.

\section{D\'efinition et op\'erations sur les applications lin\'eaires}

\subsection{D\'efinitions - Exemples}

Rappels de l'\'epilogue du cours sur les structures~: les applications lin\'eaires sont les \og morphismes d'espace vectoriel \fg, on peut donc les caract\'eriser au choix par une des deux caract\'erisations \'equivalentes suivantes~:

\prd[Application lin\'eaire]
Soient $E$ et $F$ deux $\K$-ev. Pour une application  $f : E\too F$ on a \'equivalence entre~:
\begin{enumerate}
\item $f$ pr\'eserve les sommes et les multiplications par un scalaire, \ie~:
\begin{enumerate}[$\bullet$]
\item $\forall u \in E,\ \forall \lambda \in \K,\ f(\lambda u) = \lambda f(u)$.
\item $\forall u, v \in E,\ f(u + v) = f(u) + f(v)$.
\end{enumerate}
\item $f$ pr\'eserve les combinaisons lin\'eaires, \ie~:\\
$\forall (u, v) \in E^2,\ \forall (\lambda, \mu) \in \K^2,\ f(\lambda u + \mu v) = \lambda f(u) + \mu f(v)$.
\end{enumerate}
On dit alors que \newdef{$f$ est une application lin\'eaire}. On\,note\,$\L(E,F)$\,l'ensemble\,des\,applications\,lin\'eaires\,de\,$E$\,dans\,$F$.
\drp

\demo 

\fbox{$\implies$}

\begin{align*}
	f(\lambda u + \mu v) &= f(\lambda u) + f(\mu v) \\
			     &= \lambda f(u) + \mu f(v) \\
\end{align*}

\fbox{$\impliedby$}
\begin{align*}
    f(\mu v) &= f(0 u + \mu v) \\
             &= 0 f(u) + \mu (v) \\
            &= \mu f(v) \\
    f(u + v) &= f(1 u + 1 v) \\
                &= 1 f(u) + 1 f(v) \\
                 &= f(u) + f(v) 
\end{align*}
\cqfd

\fbox{\exx Pour tout $\K$-ev $E$, $\id_E:E\too E$ est une application lin\'eaire~! \xxe}

\begin{exemples}\label{ExemplesLineairesChapitresPrecedents} Quelques exemples que l'on a d\'ej\`a rencontr\'es avec ou sans d\'emonstration~:
\begin{enumerate}
\item[]$\bullet$ Consid\'erons $\C$ comme un $\R$-espace vectoriel (de dimension $2$).\\ La conjugaison $\mathrm{conj} = z \mapsto \overline{z}$ est une application lin\'eaire de $\C$ dans $\C$~: cf cours sur $\C$.
\item[]$\bullet$ La transposition est une application lin\'eaire de $\mpqk$ dans $\mc_{q,p}(\K)$~: cf Tacmas sur les matrices.
\item[]$\bullet$ Soit $E$ un $\K$-espace vectoriel de dimension finie $n$, et $\bc$ une base de $E$. L'application 
 de d\'ecomposition dans la base $\bc$ est une application lin\'eaire de $E$ dans $\K^n$~: cf chapitre sur la dimension finie.
\item[]$\bullet$ La d\'erivation des polyn\^omes est une application lin\'eaire de $\K[X]$ dans $\K[X]$. M\^eme chose pour la d\'erivation de $\dc(I,\R)$ dans $\R^I$ ou de $\cc^{\infty}(I,\R)$ dans $\cc^{\infty}(I,\R)$.
\item[]$\bullet$ Pour $a,b \in\R$, \og int\'egration entre $a$ et $b$\fg $\dsp{\int_a^b} : \defapp{\mathcal{C}_{pm}([a, b], \R)}{\R}{f}{\int_a^b f}$, qu'on appelle par abus \og l'int\'egrale\fg, est une application lin\'eaire de $\mathcal{C}_{pm}([a,b], \R)$ dans $\R$.
\end{enumerate}
\end{exemples}

\exs Quelques contre-exemples~:
\begin{enumerate}
\item Si l'on voit $\C$ comme un $\C$-espace vectoriel (de dimension $1$), la conjugaison \underline{\textbf{n'est pas}} une application lin\'eaire de $\C$ dans $\C$. En effet, on a par exemple $-1=\mathrm{conj}(\i\times\i)\neq\i\mathrm{conj}(\i)=1$.
\item L'application $\det : \mnk \too \K$ n'est pas lin\'eaire pour $n\geq 2$. En effet on a%, par exemple
~: $\det(2I_n)=2^n\neq 2=2\det(I_n)$.
\end{enumerate}
\sxe

%Une question \`a laquelle on apportera plusieurs r\'eponses dans cette section est la suivante~: \textit{comment montrer qu'une application est lin\'eaire}~?\\

\exs \`A vous

\begin{align*}
	\operatorname{Tr} &= \begin{cases}
		\mc_n(\K) &\to \K \\
		M &\mapsto \operatorname{Tr} M
	\end{cases} \\
\end{align*}

\begin{align*}
	\phi &= \begin{cases}
		\mathbb{C} &\to \mathbb{C} \\
		z &\mapsto z^n
	\end{cases} \text{ où $n\ge 2$ est fixé}\\
	\end{align*} n'est pas linéaire car en général $(z_1+z_2)^n \neq z_1^n+z_2^n$

\begin{align*}
	\sum_{n=0}^\infty &= \begin{cases}
		\text{séries convergentes} &\to \R \\
		\sum_{n\ge 0} u_n &\mapsto \sum_{k=0}^{+\infty} u_k
	\end{cases} \\
\end{align*} est linéaire d'après le cours sur les séries.

\begin{align*}
	<\cdot, \begin{pmatrix} a\\b\\c \end{pmatrix} > &= \begin{cases}
	\R^3&\to \R \\
	\begin{pmatrix} x\\y\\z \end{pmatrix} &\mapsto ax+by+cz
	\end{cases} \\
\end{align*} est linéaire.

L'application utilisée dans le corrigé du \fbox{CCINP 55}:

\begin{align*}
	\begin{cases}
		\K^\N &\to \K^2 \\
		u &\mapsto \begin{pmatrix} u_0\\u_1 \end{pmatrix} 
	\end{cases}
\end{align*}	est linéaire,car
\begin{align*}
	\forall u, v\in \K^\N, \forall \lambda, \mu \in \K, \phi(\lambda u + \mu v) &= \phi((\lambda u_n + \mu v_n)_n) \\
	&= \begin{pmatrix} \lambda u_0 + \mu v_0 \\ \lambda u_1 + \mu v_1 \end{pmatrix}  \\
	&= \lambda \begin{pmatrix} u_0\\u_1 \end{pmatrix} + \mu\begin{pmatrix} v_0 \\v_1\end{pmatrix}  \\
	&= \lambda \phi(u) + \mu \phi(v) \\
\end{align*}

Variante \fbox{CCINP 87}

\begin{align*}
	\begin{cases}
	\K_n[X] &\to  \K^{n+1} \\
	P &\mapsto \begin{pmatrix} P(\alpha_0) \\ \vdots \\ P(\lambda_n) \end{pmatrix} 	
	\end{cases}
\end{align*} est linéaire.

{\it (Dans les deux cas on est ramenné au fait que l'évaluation est une application linéaire)}

\sxe

\textbf{\textit{Premi\`ere m\'ethode pour montrer qu'une application est lin\'eaire}}~: on revient \`a la d\'efinition. C'est ce qu'on a fait pour les exemples~\ref{ExemplesLineairesChapitresPrecedents}. Remarquons que cette "premi\`ere m\'ethode" donne en fait d\'ej\`a deux m\'ethodes.

\exx Montrons que la trace est une application lin\'eaire de $\mnk$ dans $\mnk$.
Soient $M = (m_{ij}), A = (a_{ii}) \in \mc_n(\K)$ et $\lambda, \mu\in \K$
\begin{align*}
	\Tr (\lambda M + \mu A) &= \sum_{k=1}^{n} \lambda m_{ii} + \mu a_{ii} \\
	&= \lambda \sum_{k=1}^{n} m_{ii} + \mu \sum_{k=1}^{n} a_{ii} \\
	&= \lambda \Tr M + \mu \Tr A \\
\end{align*}
\xxe

%\begin{exemple}\label{LeNilpotentGenerique}Montrons que l'application $\Phi : \defapp{\K^2}{\K^2}{\vect{x\\y}}{\vect{y\\0}}$ est lin\'eaire.\\
%Soient $\vect{x\\y}\in\K^2$, $\vect{x'\\y'}\in\K^2$, $\lambda\in\K$ et $\mu\in\K$. On a~:\\[0.2cm]
%$\begin{array}{lcl}
%\Phi\left(\lambda\vect{x\\y}+\mu\vect{x'\\y'}\right)  & = & \Phi\left(\vect{\lambda x +\mu x'\\\lambda y+\mu y'}\right)\\[0.2cm]
%& = & \vect{\lambda y+\mu y'\\0}\\[0.2cm]
%& = & \lambda\vect{y\\0}+\mu\vect{y'\\0}\\[0.2cm]
%& = & \lambda\Phi\left(\vect{x\\y}\right)+\mu\Phi\left(\vect{x'\\y'}\right).
%\end{array}$\ \\[0.2cm]
%On a donc bien $\Phi\in\L(\K^2,\K^2)$.
%\end{exemple}


\subsection{(Co)restriction}

\Proposition
Soient $E$, $F$ des $\K$-ev, $G$ un sev de $E$ et $H$ un sev de $F$.\\[0.05cm]
Si $f:E\too F$ est lin\'eaire et $f(G)\subset H$, alors $f_{{}_{|G}}^{{}^{|H}}:G\too H$ est lin\'eaire.
\FinProposition

\demo \'Evident~!\cqfd

En g\'en\'eral, on note encore $f$ l'application $f_{{}_{|G}}^{{}^{|H}}$~: le contexte permet de d\'eterminer de quelle application on parle pr\'ecis\'ement.\\

\textbf{\textit{Deuxi\`eme m\'ethode pour montrer qu'une application est lin\'eaire}}~: on montre que c'est la (co)restriction d'une application lin\'eaire.

\begin{exemple} Montrons que $\Psi : \defapp{\R[X]}{\R}{P=\dsp{\sum\limits_{i = 0}^{\deg(P)} a_i X^i}}{\dsp{\sum\limits_{i=0}^{\deg(P)} \frac{a_i}{i+1}}}$ est lin\'eaire.

On identifie $\R[X]$ à l'espace des fonctions polynomiales.

$\psi$ est la restriction à $\R[X]$ de \begin{align*}
	\tilde \psi &= \begin{cases}
		\conts(\R, \R) &\to \R \\
		f &\mapsto \int_0^1 f
	\end{cases} \\
\end{align*}

\begin{align*}
	P&= a_0 + a_1X + a_2 X^2 + \cdots + a_n X^n \\
	\psi P &= \frac{a_0}{1} + \frac{a_1}{2} + \cdots + \frac{a_n}{} \\
	&= \int_0^1 a_0 dt + \int_0^1 a_1 t dt + \cdots + \int_0^1 a_n t^n dt \\
	&= \int_0^1 (a_0 + a_1 t + \cdots + a_n t^n) dt \\
\end{align*}

Or $\tilde \psi = \int_0^1$ est linéaire donc $\psi$ est linéaire comme restriction d'une AL\footnote{application linéaire}.
\end{exemple} 


\subsection{Stabilit\'e par combinaison lin\'eaire}

Dans ce paragraphe, on se donne $E, F$ deux $\K$-ev, $f, g : E \to F$ et $\lambda, \mu \in \K$.\\
On rappelle que par d\'efinition, on a~: $\lambda f + \mu g : \defapp{E}{F}{x}{\lambda f(x)+ \mu g(x)}$. 


\Theoreme
Si $f$ et $g$ sont lin\'eaires alors $\lambda f + \mu g$ est lin\'eaire.
\FinTheoreme

%\Demonstration
%Soient $u\in E$, $v\in E$, $a\in\K$ et $b\in\K$. On a~:\\
%$\begin{array}{lcll}
%\big(\lambda f + \mu g\big)(ax+by) & = & \lambda f(ax+by) + \mu g(ax+by) & \text{ par d\'efinition,}\\
%& = & \lambda \big(af(x)+bf(y)\big) + \mu \big(ag(x)+bg(y)\big) & \text{ par lin\'earit\'e,}\\
%& = & a \big(\lambda f(x)+\mu g(x)\big) + b \big(\lambda f(y)+ \mu g(y)\big) & \text{ }\\
%& = & a \big(\lambda f+\mu g\big)(x) + b \big(\lambda f+\mu g\big)(y). & \text{ }
%\end{array}$\\
%D'o\`u la lin\'earit\'e de $\lambda f + \mu g$.
%\qed

\demo

On veut montrer que $\lambda f + \mu g$ est linéaire.

Soient $x, y\in E$, soient $\alpha, \beta\in \K$.

\begin{align*}
	(\lambda f + \mu g)(\alpha x + \beta y) &= \lambda f(\alpha x +\beta y) + \mu g(\alpha x + \beta y)  \\
						&= \lambda (\alpha f(x) + \beta g(y)) + \mu (\alpha f(x) + \beta g(y)) \\
						&= \alpha (\lambda f(x) + \mu g(x)) + \beta (\mu f(y) + \lambda f(y)) \\
						&= \alpha (\lambda f + \mu g)(x) + \beta (\lambda f + \mu g)(y) \\
\end{align*}

Donc $\lambda f + \mu g$ est bien linéaire.
\cqfd

%Cette proposition se reformule imm\'ediatement~:
\Theoreme[Reformulation]
$\L(E,F)$ est un sev de $F^E$. En particulier, $(\L(E,F),+,\cdot)$ est un $\K$-espace vectoriel.
\FinTheoreme

%On en tire une~:\\
\textbf{\textit{Troisi\`eme m\'ethode pour montrer qu'une application est lin\'eaire}}~: on montre que c'est une combinaison lin\'eaire d'applications lin\'eaires connues.

\begin{exemple}

\begin{align*}
	\theta&=  \begin{cases}
		\mc_2(\K) &\to \mc_2(\K) \\
		\begin{pmatrix} a&b\\c&d \end{pmatrix} &\mapsto \begin{pmatrix} a & (2b-c) \\ (2c-b) & d \end{pmatrix} = \begin{pmatrix} 2a-a & 2b-c \\ 2c-b & 2d-d \end{pmatrix} 
	\end{cases}
\end{align*}

On a $\phi = 2\operatorname{id} - \ ^t\cdot$ donc $\phi$ est une AL car $\lc(E, F)$ est un sev.
\end{exemple}

\dfn
On appelle \newdef{homoth\'etie vectorielle de rapport $\lambda$}, ou plus simplement \newdef{homoth\'etie de rapport $\lambda$} l'application $\lambda \id_E : E \too E$.
C'est une application lin\'eaire.\\
On dit que $f \in \L(E)$ est une \newdef{homoth\'etie} lorsque $ \exists \lambda \in \K, \forall u \in E, f(u) = \lambda u$, i.e. $f = \lambda \id$. 
\nfd

%\begin{exemple}
%$ \phi : \left\{ \begin{array}{c} M_n(\R) \to M_n(\R) \\   M \mapsto {}^t M + Tr(M) I_n \end{array} \right. $
%$\phi$ est la somme de $M \mapsto {}^t M$ et $M \mapsto Tr(M) T_n$ qui est lin\'eaire par lin\'earit\'e de la trace, donc $phi$ est lin\'eaire.
%\end{exemple}


\subsection{Composition}

Dans ce paragraphe, on se donne $E$, $F$, $G$ trois $\K$-ev.

\Theoreme
Soient $f \in \L(E, F)$ et $g \in \L(F, G)$. Alors $g \circ f \in \L(E, G)$.
\FinTheoreme

\Demonstration
Soient $u\in E$, $v\in E$, $\lambda\in\K$ et $\mu\in\K$. On a~:\\
$\begin{array}{lcll}
(g\circ f)\big(\lambda u + \mu v\big) & = & g\big(f(\lambda u + \mu v)\big) & \text{ par d\'efinition,}\\
& = &  g\big(\lambda f(u)+\mu f(v)\big) & \text{ par lin\'earit\'e de $f$,}\\
& = &  \lambda g\big(f(u)\big)+\mu g\big(f(v)\big) & \text{ par lin\'earit\'e de $g$,}\\
& = &  \lambda (g\circ f)(u)+\mu (g\circ f)(v) & \text{ par d\'efinition.}
\end{array}$\ \\
D'o\`u la lin\'earit\'e.
\qed

\demo\ \\\\\\\\\\\\\\\\\\\\\\\\\\\\
\cqfd

\medskip

%On en tire une~:\\
\textbf{\textit{Quatri\`eme m\'ethode pour montrer qu'une application est lin\'eaire}}~: on montre que c'est une compos\'ee d'applications lin\'eaires.

%\begin{exemple}
%$  \left\{ \begin{array}{c} \mathcal{C}_{pm}([0, 1], \R) \to \R \\   f \mapsto \int_0^1 f(x^2) \end{array} \right. $
%est lin\'eaire car c'est la compos\'ee des applications 
%$  \left\{ \begin{array}{c} \mathcal{C}_{pm}([0, 1], \R) \to \mathcal{C}_{pm}([0, 1], \R) \\ f \mapsto (x \mapsto f(x^2)) \end{array} \right. $ et
%$  \left\{ \begin{array}{c} \mathcal{C}_{pm}([0, 1], \R) \to \R) \\ f \mapsto \int_0^1 f \end{array} \right. $
%qui sont lin\'eaires.
%\end{exemple}  

\begin{exemple}
L'application $\gamma:\defapp{\K[X]}{\K}{P}{P^{(n)}(0)}$ est lin\'eaire. En effet~:\\\\\\\\\\\\\\

\paragraph{Rappel}

\begin{align*}
	 \cdot' : \begin{cases}
		 \K[X] &\to \K[X] \\
		 P &\mapsto P'
	 \end{cases}, \operatorname{eval}_0 : \begin{cases}
		 \K[X] &\to \K \\
		 P &\mapsto P(0)
	 \end{cases} \in \lc
\end{align*}

On a bien $\gamma = \operatorname{eval}_0 \circ  \bigcirc_{k=0}^n  \cdot'$ donc $\gamma\in \lc$.

%, c'est la compos\'ee de la d\'erivation $\partial : \defapp{\K[X]}{\K[X]}{P}{P'}$ et de l'evaluation en $0$ $\mathrm{eval}_0 : \defapp{\K[X]}{\K}{P}{P(0)}$. Plus g\'en\'eralement, l'application $\psi_k : \defapp{\K[X]}{\K}{P}{P^{(k)}(0)}$ est lin\'eaire car elle peut s'ecrire $\mathrm{eval}_0 \circ \underbrace{\partial \circ \partial \circ \cdots \circ \partial}_{\text{k fois}}$.\\
%On trouve en particulier que l'application $\defapp{\R_n[X]}{\R}{P=\dsp{\sum\limits_{i = 0}^{\deg(P)} a_i X^i}}{\dsp{\sum\limits_{i=0}^{\deg(P)} \frac{a_i}{i+1}}}$ est lin\'eaire, puisqu'elle peut s'\'ecrire $\sum\limits_{k=0}^n \frac{1}{(k+1)!} \psi_k$~: c'est donc une CL des applications $\psi_k$. Attention cette application n'est pas l'application $\Psi$ de l'exemple \ref{ExempleDeRestrictionLineaire}, seulement sa restriction \`a $\R_n[X]$.
\end{exemple}

\paragraph{Nano-remarque} On retrouve que

\[
	\phi : \begin{cases}
		\K_n[X] &\to \K \\
		\sum_{k=0}^{n} a_k X^k &\mapsto \sum_{k=0}^{n} \frac{a_k}{k+1} 
	\end{cases}
\] 

Cas pour $P = \sum_{k=0}^{n} a_k X^k$ et $k \in \llbracket 0, n\rrbracket $ 

\begin{align*}
	P^{(k)}(0) &= k! a_k \\
\end{align*}

Donc pour $i\in \llbracket 0, n\rrbracket$

\begin{align*}
	a_i &= \frac{P^{(i)}(0)}{i!} \\
\end{align*}

donc $\begin{cases}
	\K_n[X] &\to \K \\
	P &\mapsto  \sum_{k=i}^{n} \frac{P^{(i)}(0)}{(i+1)!}
\end{cases}$ est une CL d'AL donc une AL.

\Proposition
Soit $h\in F^E$ (une \underline{application quelconque}~!).\subline\\
La composition par $h$ \textbf{\underline{\`a droite}} est distributive sur l'addition et compatible avec la multiplication externe~:
\enumeration{\item $\forall f, g \in G^F,\ (f + g) \circ h = f \circ h + g \circ h$~;
\item $\forall f \in G^F,\  \forall \lambda \in \K,\ (\lambda f) \circ h = \lambda (f \circ h)$.}
Remarquons que ces deux propri\'et\'es peuvent \^etre synth\'etis\'ees en une~:\subline\\
 $\forall f, g \in G^F,\ \forall \lambda,\mu\in\K,\ (\lambda f + \mu g) \circ h = \lambda (f \circ h) + \mu (g \circ h)$.
\FinProposition

\Demonstration
On montre l'\'enonc\'e unificateur. Soient $f, g \in G^F$ et $\lambda,\mu\in\K$. Soit $u\in E$. On a~:\\
$\begin{array}{lcll}
\big((\lambda f + \mu g) \circ h\big)(u) & = & (\lambda f + \mu g)\big(h(u)\big)& \text{par d\'efinition de }\circ,\\
& = & \lambda f\big(h(u)\big)+\mu g\big(h(u)\big)& \text{par d\'efinition des op\'erations,}\\
& = & \lambda (f\circ h)(u)+\mu (g\circ h)(u)& \text{par d\'efinition de }\circ,\\
& = & \big(\lambda (f\circ h)+\mu (g\circ h)\big)(u)& \text{par d\'efinition des op\'erations,}
\end{array}$\ \\
et ceci \'etant vrai pour tout $u\in E$, on a bien l'\'egalit\'e voulue.
\qed
\demo \ \\\\\\\\\\\\\\\\\\
\cqfd

\newpage\ \\[-1.2cm]
Observons que, par d\'efinition de la lin\'earit\'e, cette proposition peut se reformuler ainsi~:
\Theoreme\label{LinearitePreComposition}
Soient $E,F,G$ des $\K$-ev et $h\in F^E$. L'application de \newdef{pr\'ecomposition par $h$} $\defapp{G^F}{G^E}{f}{f\circ h}$ est lin\'eaire.
\FinTheoreme

%\attention{Cette proposition est vraie pour $f, g, h$ quelconque, donc pas forcement lin\'eaires.}

\attention{Attention, on n'a rien de tel lorsqu'on compose \`a gauche~!\\ Contre-exemple $E=F=G=\R$, $f=g=x\mapsto x$, $h=x\mapsto x^2$.\\
\phantom{Et} Par contre~:}

\Proposition
Soit $E,F,G$ des $\K$-ev et $h\in G^F$. \textbf{\underline{Supposons $h$ lin\'eaire.}}\\
Alors la composition par $h$ \`a gauche est distributive sur l'addition et compatible avec la multiplication externe~:\\[-0.5cm]\enumeration{\item $\forall f, g \in F^E,\ h\circ (f + g) = h \circ f + h \circ g$.
\item $\forall f \in F^E,\  \forall \lambda \in \K,\ h \circ (\lambda f) = \lambda (h \circ f)$.}
Ou encore : $\forall f, g \in F^E,\ \forall \lambda,\mu\in\K,\ h\circ (\lambda f + \mu g) = \lambda (h \circ f) + \mu (h \circ g)$.
\FinProposition

\Demonstration
On montre l'\'enonc\'e unificateur. Soient $f, g \in G^F$ et $\lambda,\mu\in\K$. Soit $u\in E$. On a~:\\
$\begin{array}{lcll}
\big(h \circ (\lambda f + \mu g) \big)(u) & = & h\big(\lambda f(u) + \mu g(u)\big) & \text{par d\'efinition de }\circ,\\
& = & \lambda h\big(f(u)\big)+\mu h\big(g(u)\big) & \text{par lin\'earit\'e de }h,\\
& = & \lambda (h\circ f)(u)+\mu (h\circ g)(u) & \text{par d\'efinition de }\circ,\\
& = & \big(\lambda (h\circ f)+\mu (h\circ g)\big)(u) & \text{par d\'efinition des op\'erations,}
\end{array}$\ \\[0.2cm]
et ceci \'etant vrai pour tout $u\in E$, on a donc bien l'\'egalit\'e voulue.
\qed

\demo
%TODO
\cqfd

Observons que, par d\'efinition de la lin\'earit\'e, cette proposition peut se reformuler ainsi~:
\Theoreme\label{LinearitePostComposition}
Soit $E,F,G$ des $\K$-ev \underline{{\bf et} {\mathversion{bold}{$h\in \L(F,G)$}}}. L'application de \newdef{postcomposition par $h$}
$\defapp{F^E}{G^E}{f}{h\circ f}$ est lin\'eaire.
\FinTheoreme

%\attention{Cette proposition n\'ecessite que $h$ soit lin\'eaire.}

%\begin{rem}
%On peut synth\'etiser les deux propositions de la fa\c{c}on suivante
%\begin{enumerate}
%\item  Si $h\in F^E$ alors $  \left\{ \begin{array}{c} G^F \to G^E \\ \phi \mapsto \phi \circ h \end{array} \right. $ est une application lin\'eaire.
%\item Si $h\in \L(E, F)$ alors $  \left\{ \begin{array}{c} F^E \to G^E \\ \phi \mapsto h \circ \phi  \end{array} \right. $ est une application lin\'eaire.
%\end{enumerate}
%\end{rem}

%En particulier, il r\'esulte des corollaires \ref{LinearitePreComposition} et \ref{LinearitePostComposition} que, pour $E,F,G$ des $\K$-ev, l'application $\circ : \defapp{\L(F,G)\times\L(E,F)}{\L(E,G)}{(g,f)}{g\circ f}$ est \newdef{bilin\'eaire}, \cad lin\'eaire par rapport \`a chacune de ses deux variables.\\

%Nous n'utiliserons des r\'esultats pr\'ec\'edents que la petite partie suivante~:
%En corollaire de tout ce qui pr\'ec\`ede~:
Nous utiliserons des r\'esultats pr\'ec\'edents essentiellement uniquement la petite partie suivante~:
\Corollaire %\Theoreme
Bilan~: $\big(\L(E), +, \circ, \cdot \big)$ forme une $\K$-alg\`ebre. En particulier $\big(\L(E), +, \circ \big)$ forme un anneau. 
\FinCorollaire %\FinTheoreme

\Definition\index{endomorphisme}
On dit qu'une application lin\'eaire est un \newdef{un endomorphisme de $E$} lorsque c'est une application d'un $\K$-espace vectoriel $E$ dans lui-m\^eme. %\\
On notera $\L(E)$ plut\^ot que $\L(E,E)$ l'ensemble des endomorphismes de $E$.
\FinDefinition

\exs Reprenons les exemples pr\'ec\'edents.

\begin{itemize}
	\item $\id_\Z$ est toujours un endomorphisme
	\item $\overline{ \cdot }$ est un endomorphisme
	\item $^t \cdot $ est un endormophisme ssi $p=q$ 
	\item $\decomp{ \cdot }{\bc}$ est un endomorphisme ssi $E=\K^n$
	\item $\K[X] \to \K[X]$ est un endomorphisme
	\item $\dc(I, \R) \to \R^I$ n'est \emph{pas} un endomorphisme
	\item $\int_a^b: \cc_{\text{pm}}([a, b], \R) \to \R$ n'est pas un endomorphisme
	\item Suite de l'exo 0: les deux premiers sont des endomorphismes
	\item $\Tr$ n'est pas un endomorphisme
	 \item $\begin{cases}
			 \K^\N &\to \K^2 \\
			 u &\mapsto \begin{pmatrix} u_0\\u_1 \end{pmatrix} 
	 \end{cases}$ n'est pas un endomorphisme
	 \item Pour $h$ linéaire, la précomposition par $h$

		  \begin{align*}
		 	\begin{cases}
				G^{F} &\to G^{E} \\
				f &\mapsto f\circ h
		 	\end{cases}
		 \end{align*}

	est un endomorphisme ssi $E=F$ ie ssi \emph{$h$ est un endomorphisme} 
\end{itemize}

\sxe


%\Demonstration
%La seule chose non \'evidente est que $\circ$ est distributive sur $+$ et compatible avec $\cdot$. Cela r\'esulte des deux propositions pr\'ec\'edentes. Le neutre pour l'addition est l'application nulle $0_{\L(E)} = u \mapsto 0$ et le neutre pour la composition est $\id_E$.
%\qed

%\attention{\ \\Pour $\dim(E)\geq 2$, l'anneau $\L(E)$ n'est ni int\`egre, ni commutatif.}
%On l'illustre seulement dans le cas $E=\K^2$, en laissant au lecteur le soin de g\'en\'eraliser~:
%\begin{itemize}
%\item[]$\bullet$ Reprenons l'application $\Phi : \defapp{E}{E}{\vect{x\\y}}{\vect{y\\0}}$ de l'exemple \ref{LeNilpotentGenerique}. On a $\Phi\neq 0_{\L(E)}$ et pourtant $\Phi \circ \Phi =0_{\L(E)}$, ce qui montre le d\'efaut d'int\'egrit\'e.
%\item[]$\bullet$ Consid\'erons l'application $\Phi$ pr\'ec\'edente et l'application $\Psi \defapp{E}{E}{\vect{x\\y}}{\vect{0\\x}}$. On a $\Phi \circ \Psi = \vect{x\\y}\mapsto\vect{x\\0}$ et $\Psi \circ \Phi = \vect{x\\y}\mapsto\vect{0\\y}$~: ces applications sont distinctes.
%\end{itemize}

%\rmq
%Puisque $\big(\L(E),+,\circ\big)$ est un anneau, on pourra s'autoriser, comme le veut l'usage, \`a noter $fg$ pour $f\circ g$. Comme dans tout anneau on notera $f^n$ la puissance $n$-i\`eme de $f$, \cad ici $\underbrace{f \circ f \circ \cdots \circ f}_{\text{n fois}}$. En particulier on a $u^0=\id_E$.
%\qmr

Tout polyn\^ome peut s'appliquer \`a tout \'el\'ement de toute alg\`ebre. En particulier~: 
\Corollaire
On peut appliquer un polyn\^ome \`a un endomorphisme. On obtient un endomorphisme.
\FinCorollaire

\begin{exemple}
$P(X) = X^2+X+1$ appliqué à $f\in \lc(E)$ donne $P(f) = f\circ f + f + \id_E \in \lc(E)$
\end{exemple}

%On en tire une~:\\
\textbf{\textit{Cinqui\`eme m\'ethode pour montrer qu'une application est lin\'eaire}}~: on montre qu'elle est de la forme $P(u)$ avec $P \in \K[X]$ et $u \in \L(E)$. Cette m\'ethode n'est adapt\'ee qu'au cas des endomorphismes.

\begin{exemple}
$ \phi :  \defapp{\cc^{\infty}(\R, \R)}{\cc^{\infty}(\R, \R)}{f}{f'' - 2f' + f}$ est lin\'eaire car on a $\phi = P(u)$ o\`u $u=\partial$ est la d\'erivation $f \mapsto f'$ et $P(X) = X^2 -2X +1$.
%L'application $\defapp{\R^\N}{\R^\N}{(u_n)_n}{(u_{n+2}-au_{n+1}-bu_n)_n}$ est lin\'eaire car\\\\\\
\end{exemple}

\attention{Lorsqu'on applique un polyn\^ome a un endomorphisme, on fait tr\`es attention \`a ce que le terme constant $a_0$ devient, apr\`es application, $a_0\id_E$.}

\paragraph{Cas particulier du cas particulier}

Pour $u : \begin{cases}
	\mathcal{c}^{\infty}(\R, \R) &\to \mathcal{c}^{\infty}(\R, \R) \\
	f &\mapsto f'
\end{cases}$

On obtient que $u^2-2u+\id_{\mathcal{c}^{\infty}(\R, \R)}$ est un endomorphisme

\begin{itemize}
	\item $-2u = -2f'$
	 \item $u^2 = f''$
\end{itemize}

et $u^2-2u+\id$ c'est $\begin{cases}
	\mathcal{c}^{\infty}(\R, \R) &\to \mathcal{c}^{\infty}(\R, \R) \\
	f &\mapsto \underbrace{f''}_{u^2(f)} \underbrace{-2f'}_{-2u(f)} + \underbrace{f}{\id(f)}
\end{cases}$

$X^2-2X+1 = (X-1)^2$ donc notre endomorphisme peut aussi s'écrire

\begin{align*}
	(f \mapsto f'-f)^2 &= f \mapsto (f'-f)' - (f'-f)  \\
			   &= f \mapsto f'' -2f' + f
\end{align*}


Exo 0.1 de la feuille: c'est le même polynôme $X^2-2X+1$ appliqué à ``shift'' $u_n \mapsto u_{n+1}$ 

\begin{align*}
	(u_n \mapsto u_{n+1})^2 -2(u_n \mapsto u_{n+1}) + 1 &= (u_n \mapsto u_{n+1}) \circ (u_n \mapsto u_{n+1}) -2(u_n \mapsto u_{n+1}) + \id \\
							    &= u_n \mapsto u_{n+2} -2u_{n+1} + u_n \\
\end{align*}

\subsection{R\'eciproque}


\Theoreme
Soient $E$ et $F$ deux espaces vectoriels, et $f\in\L(E,F)$. %\\
Si $f$ est bijective alors $f^{-1}\in\L(F,E)$.
\FinTheoreme

\Definition
Une application lin\'eaire bijective est appel\'ee un \newdef{isomorphisme}.
\FinDefinition

\demo
Soient $\lambda, \mu\in \K$ et $u, v\in F$.

\begin{align*}
	f^{-1}(\lambda u + \mu v) &= f^{-1}(\lambda f(f^{-1}(u)) + \mu f(f^{-1}(v))) \\
				  &= f^{-1}(f(\lambda f^{-1}(u) + \mu f^{-1}(v))) & \text{car $f\in \lc$}  \\
				  &= \lambda f^{-1}(u) + \mu f^{-1}(v) & \text{par définition}
\end{align*}
\cqfd

\exs Reprenons les exemples pr\'ec\'edents.
\begin{itemize}
\item La conjugaison est un isomorphisme de $\C$ dans $\C$. Elle a en effet une application r\'eciproque lin\'eaire~: elle m\^eme.
\item La transposition de $\mpqk$ dans $\mc_{q,p}(\K)$ est un isomorphisme. Son application lin\'eaire r\'eciproque est la transposition de $\mc_{q,p}(\K)$ dans $\mpqk$.
\item L'application ${\tiny \decomp{\cdot}{\bc}} : E \too \K^n$ est un isomorphisme~: voir p. \pageref{IsomorphismeDeDecomposition}.\qed
\item $ \cdot '$ n'est \emph{pas} un iso
\item $\int_a^b f$ n'est  \emph{pas}  un iso
\item $\Tr$ n'est  \emph{pas} un iso (sauf pour $n=1$ )
	\item $
		\begin{cases}
			\K^\N &\to \K^2 \\
			u &\mapsto \begin{pmatrix} u_0\\u_1 \end{pmatrix} 
		\end{cases}
$ n'est pas un iso
\item Exercice 0.2: $P \mapsto P''(0) + P(0)X^2$ n'est \emph{pas} un isomorphisme puisque $X$ n'a pas d'antécédent
\item Exercice 0.1: $u\mapsto (u_{n+2}-u_{n+1}+u_n)_n$
	\\ Un antécédent de $(0)_n$ est une suite  $u$ telle que $\forall n\in \N, u_{n+2} -2u_{n+1}+u_n=0$
	\begin{align*}
		S_{2, -1} &= \{\lambda(1^n)_n + n \mu(1^{n-1})_n, (\lambda, \mu) \in \K^2\} \\
			  &= \{(\lambda+\mu n)_n, (\lambda ,\mu) \in \K^2\}  \\
			  &= \text{suites arithmétiques} \\
	\end{align*}

	En particulier, $(0)_n$ a une infinité d'antécédents, donc \emph{ce n'est pas un isomorphisme} 
\end{itemize}
\sxe

\textbf{\textit{Sixi\`eme m\'ethode pour montrer qu'une application est lin\'eaire}}~: on montre que c'est la r\'eciproque d'une application lin\'eaire.

\exx~~ Si $E$ est de dimension finie $n$ et $\bc=(\eps_1,\ldots,\eps_n)$ est une base de $E$ alors $\defapp{\K^n}{E}{\mvect{\lambda_1\\\vdots\\\lambda_n}}{\lambda_1\eps_1+\ldots+\lambda_n\eps_n}$ est clairement lin\'eaire, et bijective par d\'efinition d'une base.\\\\
On en d\'eduit donc que $\decomp{ \cdot }{\bc}$ est linéaire.
(Bien s\^ur, on le savait d\'ej\`a.)
\xxe

\bigskip

\begin{notation} \\
%En utilisant le second point de la d\'efinition, on constate que s
S'il existe un isomorphisme d'un espace vectoriel $E$ dans un espace vectoriel $F$, %alors il existe aussi un isomorphisme de $F$ dans $E$, et r\'eciproquement. Pour cette raison, lorsque ce sera le cas, on pourra aussi bien dire
on dit que \newdef{$E$ et $F$ sont isomorphes}.
\end{notation}

\rmq\label{SiIsomorphesAlorsMemeDimension}Si $E$ et $F$ sont deux $\K$-espaces vectoriels de dimension finie et isomorphes, alors ils ont la m\^eme dimension.
\qmr

\medskip
%Cette remarque est l'analogue vectorielle de la remarque \ref{SiEquipotentsAlorsMemeCardinal} du chapitre \ref{Applications}.
Analogue ensembliste~: $A \simeq B \iff \#A = \#B$

\demo
Soit $f : E \too F$ un isomorphisme, d'isomorphisme r\'eciproque $g$, et soit $(u_1,\hdots,u_n)$ une base de $E$.

Montrons que la famille $\big(f(u_1),\hdots,f(u_n)\big)$ est une base de $F$~: comme $f$ est injective, cette base aura le m\^eme cardinal que la base de $E$ de d\'epart, ce qui montrera donc que $E$ et $F$ ont m\^eme dimension.


\paragraph{Libert\'e}
Soit $\lambda_1f(u_1)+\cdots+\lambda_nf(u_n)=0_F$ une CL nulle.


\begin{align*}
	\lambda_1 g(u_1) + \cdots + \lambda_n g(u_n) &= 0_E \\
	\iff g(\lambda_1 u_1 + \cdots + \lambda_n u_n) &= g(0_E) \quad&\text{par linéarité de $g$}\\
	\iff \lambda_1 u_1 + \cdots + \lambda_n u_n &= 0_E \quad&\text{par injectivité de $g$} \\
		\iff \lambda_1 = \cdots = \lambda_n &= 0 \quad&\text{par liberté de $\lc$}
\end{align*}


\paragraph{Caract\`ere g\'en\'erateur} 

Montrons que l'image d'une famille génératrice $\gc = (\sigma_1, \ldots, \sigma_n)$ par une AL surjective $h : E \to F$ est génératrice.

Soit $y\in F$.

Par surjectivité de $h$, il existe $u\in E$ tel que $y = h(x)$

Par caractère générateur de $\gc$, il existe  $\lambda_1, \ldots, \lambda_n$ tel que $x = \lambda_1 v_1 + \cdots + \lambda_n v_n$

\cqfd



\subsection{Groupe lin\'eaire}

%\Theoreme
%Si $f \in \L(E, F)$ et $f$ bijective alors $f^{-1} \in \L(F, E)$.
%\FinTheoreme
%\Demonstration
%Soit $(x, y) \in E^2, (\lambda, \mu) \in \K^2$.\\
%$f^{-1}(\lambda x + \mu y) =  f^{-1}(\lambda f(f^{-1}(x) + \mu f(f^{-1}(y))$ \\
%$= f^{-1}(f (\lambda f^{-1}(x) + \mu f^{-1}(y)) = \lambda f^{-1}(x) + \mu f^{-1}(y)  $
%\qed

%\Corollaire
%Les inversibles de $(\L(E), + , \circ)$ sont les automorphismes.
%\FinCorollaire

\Definition\index{automorphisme}
On dit qu'une application lin\'eaire est \newdef{un automorphisme de $E$} lorsque c'est un isomorphisme de $E$ dans $E$. En bref~: \og auto = endo + iso \fg. On notera $ GL(E)$ l'ensemble des automorphismes de $E$.
\FinDefinition

\exs Reprenons les exemples pr\'ec\'edents.
\begin{itemize}
\item $\overline{ \cdot }$ est un automorphisme du $\R$-espace vectoriel $\C$.
\item ${}^t\cdot~:~\mpqk\too\mc_{q,p}(\K)$ est un automorphisme \ssi $p=q$. En notant $n=p=q$, c'est alors un automorphisme de $\mnk$.
\item L'application ${\tiny \decomp{\cdot}{\bc}} : E \too \K^n$ est un automorphisme \ssi $E=\K^n$. C'est alors un endomorphisme de $\K^n$.\qed
\item $\Tr$ n'est pas un autormophisme (sauf pour $\mc_{1}(\K)$ lol)
\item $\begin{cases}
		\K^\N &\to \K^2 \\
		u &\mapsto (u_0, u_1)
	\end{cases}$ n'est pas un auto
\end{itemize}
\sxe

%\exx
%Pour tout espace vectoriel $E$, on a $\id_E\in GL(E)$.
%\xxe

D'apr\`es la proposition sur les isomorphismes, un automorphisme est une application lin\'eaire $f\in\L(E)$ pour laquelle il existe $g\in\lc(E)$ tel que $f\circ g=g\circ f=\id_E$. Autrement dit, les automorphismes de $E$ sont pr\'ecis\'ement les \'el\'ements inversibles de l'anneau $\big(\L(E), + , \circ\big)$. On a donc $GL(E)=\L(E)^\times$.

\thd
En particulier $\big( GL(E) , \circ\big)$ forme un groupe. On l'appelle le \newdef{groupe lin\'eaire de $E$}.
\dht
Et oui, bien s\^ur, il y a un lien avec $GL_n(\K)$... on en parlera plus tard.

%\Definition
%Soit  $u \in GL(E)$ et $n \in \Z$. On pose 
%$u^n = \left\{ \begin{array}{c} u \circ u \circ \hdots \circ u, si n \geq 0 \\ u^{-1} \circ u^{-1} \circ \hdots \circ u^{-1}, si n < 0   \end{array} \right. $
%\FinDefinition

%Remarquons que, pour montrer qu'un endomorphisme est un automorphisme ou exhiber l'automorphisme r\'eciproque, on peut utiliser les techniques g\'en\'erales valables dans tout anneau.
%
%\exx
%On sait que d
%Dans tout anneau $A$, tout $a\in A$ v\'erifie $1_{A}-a^{n+1}=(1_{A}-a)(1_{A}+a+a^2+\cdots+a^{n})$. Consid\'erons maintenant l'application $\zeta : \defapp{\K_n[X]}{\K_n[X]}{P}{P-P'}$. Cette application est bien d\'efinie puisque, si $P$ est de degr\'e au plus $n$, alors $P-P'$ l'est aussi. Elle est lin\'eaire par lin\'earit\'e de l'identit\'e et de la d\'erivation. Montrons qu'il s'agit d'un automorphisme en exhibant sa r\'eciproque. On a $\zeta = \id_{\K[X]}-\partial$, o\`u $\partial : \defapp{\K_n[X]}{\K_n[X]}{P}{P'}$. Observons qu'on a $\partial^{n+1} = 0_{\L(E)}$ d'apr\`es la proposition \ref{ProprietesAiseesDeLaDerivation} du chapitre \ref{Polynomes}. Utilisons maintenant l'identit\'e rappel\'ee au d\'ebut de l'exemple~:\\ $\id_{\K[X]}=\id_{\K[X]}-\partial^{n+1}=(\underbrace{\id_{\K[X]}-\partial}_{\zeta})(\id_{\K[X]}+\partial+\partial^2+\cdots+\partial^{n})$.\\
%Finalement, on trouve que $\zeta$ est un automorphisme d'automorphisme r\'eciproque \\
%$\zeta^{-1} : \defapp{\K_n[X]}{\K_n[X]}{P}{P+P'+P''+\cdots+P^{(n)}}$.
%\xxe



\subsection{Formes lin\'eaires}

La d\'efinition suivante servira pour la suite. On peut d\'ej\`a l'apprendre pour les kh\^olles de la semaine prochaine.

\Definition
Une application lin\'eaire d'un espace vectoriel $E$ dans le corps de base $\K$ est appel\'ee \newdef{une forme lin\'eaire sur $E$}.\\
On notera $E^*$ plut\^ot que $\L(E,\K)$ l'ensemble des formes lin\'eaires sur $E$.
\FinDefinition

\exs~Reprenons les exemples pr\'ec\'edents.
\begin{itemize}
	\item $\Tr$ est une forme linéaire
	\item $\int_a^b  \cdot $ est une forme linéaire
	\item $\overline{ \cdot }$ n'est \emph{pas} une forme linéaire car le corps de base est  $\R$, pas $\C$ (sinon c'est  \emph{même pas linéaire})
	\item $\id_E$ est une forme linéaire ssi $E=\K$ (\ie quasiment jamais)
	\item $\det$ n'est pas linéaire
	\item $\operatorname{eval}_0$ est une forme linéaire
	\item $\sum_{k=0}^{\infty}  \cdot : \text{séries convergentes} \to \R$ est une forme linéaire
	\item $< \cdot , \begin{pmatrix} a\\b\\c \end{pmatrix} >: \R^3 \to \R $ est une forme linéaire
	\item $<  \cdot ,  \cdot  \cdot >$ est une forme \sout{linéaire} bilinéaire
\end{itemize}
\sxe

\medskip




\section{Propri\'et\'e fondamentale}

\subsection{Exemple des droites.}

\lem
Soit $D$ une droite (\ie un $\K$-ev de dimension $1$).\\
Une application $f:D\too D$ est lin\'eaire si et seulement si c'est une homoth\'etie.
\mel

\demo
$\dim D = 1$ ie $f \in \lc(D)$, montrons que $f$ est une \emph{homotéthie} 

ie $f = \lambda \id_D$ ie $\forall v\in D, f(v) = \lambda v$ pour un certain $\lambda\in \K$

Posons $\lambda$ le scalaire tel que $f(u) = \lambda u$ (car $f(u) \in D$ )

Soit $v\in D$, ainsi $v = au$ pour un certain $a\in \K$ 

\begin{align*}
	f(v) &= f(au) \\
	     &= af(u)  \quad&\text{linéarité}\\
	     &= a \lambda u \\
	     &= \lambda a u \\
	     &= \lambda v \\
\end{align*}

\cqfd

\begin{appl}
Consid\'erons $\R$ comme un $\R$-ev. Les applications lin\'eaires de $\R$ dans $\R$ sont\\
\end{appl}

\medskip

\subsection{Exemple de $\K^n$}

\Proposition\label{ProprieteFondamentaleRn}
Soit\,$f:\K^q\!\too\!\K^p$~;\,$f$\,est\,lin\'eaire\,si\,et\,seulement\,s'il\,existe\,une\,matrice $A\!\!\in\!\!\mpqk$\,telle\,que\,$f\!=\!\defapp{\!\K^q\!}{\!\K^p\!\!\!}{x\!\!\!}{\!\!\!A\times x.}$
Autrement dit, $f$ est lin\'eaire si et seulement s'il existe des scalaires $(a_{i,j})_{\substack{\ \\{\text{\scriptsize $1\!\leq\!i\!\leq\!p$}}\\ \text{\scriptsize $1\!\leq\!j\!\leq\!q$}}}$ pour lesquels on peut \'ecrire\\[-0.2cm]
$f = \defapp{\K^q}{~~~~~~~~\K^p}{\vect{x_1\\ \vdots \\ x_q}}{\vect{a_{1,1}x_1 \!+\! a_{1,2} x_2 \!+\! \hdots \!+\! a_{1,q}x_q \\ \vdots \\ a_{p,1} x_1 \!+\! a_{p,2}x_2 \!+\! \hdots \!+\! a_{p,q} x_q}.}$
\FinProposition



%Avant de d\'emontrer ce th\'eor\`eme, reformulons-le d'une fa\c{c}on qui nous est maintenant famili\`ere~:

%\Theoreme
%Soit $f:\K^q\too\K^p$. Alors $f$ est lin\'eaire si et seulement s'il existe une matrice $A\in\mpqk$ telle que
%$f = \defapp{\K^q}{\K^p}{x}{A\times x}$.
%\FinTheoreme

%\Demonstration
%Proc\'edons par analyse-synth\`ese.\\
%\analysesynthese{Soit $x=\vect{x_1\\\vdots\\x_q}\in\K^q$. Utilisons la lin\'earit\'e~: on a\\
%$\begin{array}{lcl} f\left(\vect{x_1\\\vdots\\x_q}\right) & = & f(x_1e_1+x_2e_2+\cdots+x_qe_q)\\
%& = & x_1f(e_1)+x_2f(e_2)+\cdots+x_qf(e_q).
%\end{array}$\ \\[0.3cm]
%On a $f(e_1), f(e_2),\hdots,f(e_q)\in\K^p$.\\
%On peut donc noter~: $f(e_1) = \vect{a_{1,1}\\\vdots\\a_{p,1}},\ f(e_2) = \vect{a_{1,2}\\\vdots\\a_{p,2}},\ \hdots,\ f(e_q) = \vect{a_{1,q}\\\vdots\\a_{p,q}}$ pour un certain choix de scalaires $(a_{i,j})_{\substack{\ \\1\leq i \leq p\\ 1\leq j \leq q}}$.\\%$(a_{i,j})_{\stackrel{1\leq i \leq p}{1\leq j \leq q}}$.\\
%L'\'egalit\'e pr\'ec\'edente se r\'e\'ecrit bien $f\left(\vect{x_1\\\vdots\\x_q}\right) = \vect{a_{1,1}x_1 + a_{1,2} x_2 + \hdots + a_{1,q}x_q \\ \vdots \\ a_{p,1} x_1 + a_{p,2}x_2 + \hdots + a_{p,q} x_q}$, ou encore, par d\'efinition du produit matriciel, $f(x)=A\times x$ en notant $A=\mattt{a_{1,1} & \cdots & a_{1,q}\\\vdots & & \vdots\\a_{p,1} & \cdots & a_{p,q}}$.\\[0.3cm]}{Reste \`a voir qu'une application de la forme $x\mapsto A\times x$ est bien lin\'eaire. Mais on a ceci par d\'efinition, en utilisant la distributivit\'e du produit matriciel sur la somme et la compatibilit\'e du produit matriciel avec le produit par un scalaire.}{On a bien montr\'e l'\'equivalence propos\'ee.}\qed

%Dit autrement toute AL de $\K^q$ dans $\K^p$ est de la forme $ \vect{x_1 \\ \vdots \\ x_q} \mapsto A \times \vect{x_1 \\ \vdots \\ x_q} $ o\`u $ A \in M_{p,q}(\R)$.\\
%(R\'eciproquement, une telle application est \'evidemment lin\'eaire par distributivit\'e de la multiplication des matrices sur l'addition des matrices et compatibilit\'e avec la multiplication par un scalaire.)

\demo

\fbox{$\impliedby$} Supposons  $f$ de la forme $\begin{cases}
	\K^q &\to \K^p \\
	x &\mapsto A \times x
\end{cases}$ avec $A \in \mc_{p, q}(\K)$. Montrons $f \in \lc(\K^q, \K^p)$

Soit $\alpha, \beta \in \K$, $x, y \in \K^q$

\begin{align*}
	f(\alpha x + \beta y) &= A(\alpha x + \beta y) \\
	&= A\alpha x + A \beta y \quad&\text{par distributivité de $ \times $ sur $+$} \\
	&= \alpha A x + \beta A y \quad&\text{par compatibilité de $ \times $ et $ \cdot $} \\
	&= \alpha f(x) + \beta f(y) \quad&\text{d'où la linéarité} \\
\end{align*}

\fbox{$\implies$ } Supposons $f$ linéaire.

Soit $x\in \K^q$, ie $x = \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_q \end{pmatrix} = x_1 e_1 + x_2 e_2 + \ldots + x_q e_q$ 

\begin{align*}
	f(x) &=  f(x_1 e_1 + \ldots + x_q e_q) \quad&\text{par linéarité}\\
	     &= x_1 f(e_1) + \ldots + x_q f(e_q) \\
\end{align*}

$f(e_1)\in \K^p$ donc  $f(e_1)$ est de la forme $\begin{pmatrix} a_{11} \\ a_{21} \\ \vdots \\ a_{p1} \end{pmatrix} $
$f(e_2)\in \K^p$ donc  $f(e_2)$ est de la forme $\begin{pmatrix} a_{12} \\ a_{22} \\ \vdots \\ a_{p2} \end{pmatrix} $ 
$\vdots$
$f(e_q)\in \K^p$ donc  $f(e_q)$ est de la forme $\begin{pmatrix} a_{1q} \\ a_{2q} \\ \vdots \\ a_{pq} \end{pmatrix} $ 

et donc $f(x) = x_1 \begin{pmatrix} a_{11} \\ \vdots \\ a_{p 1} \end{pmatrix} + \cdots + x_q \begin{pmatrix} a_{1q} \\ \vdots \\ a_{pq} \end{pmatrix} $

ie
\begin{align*}
	f(x) &= \begin{pmatrix} a_{11} x_1 + \cdots + a_{1q} x_q \\ \vdots \\ a_{p 1} x_1 + \cdots + a_{pq} x_q \end{pmatrix} = \begin{pmatrix} a_{11} + \cdots + a_{1q} \\ \vdots \\ a_{p 1} \cdots + a_{pq} \end{pmatrix} \begin{pmatrix} x_1 \\ \vdots \\ x_q \end{pmatrix} \\
	&= Ax \quad&\text{en notant\ldots} \\
	A &= \begin{pmatrix} a_{11} \cdots a_{1q} \\ \vdots \\ a_{p 1} \cdots a_{pq} \end{pmatrix} \quad&\text{qui ne dépend que de $e_1, \ldots, e_q$ et $f$ (mais pas de $x$ )} \\
\end{align*}



\cqfd

\medskip

%Jusqu'\`a pr\'esent, on avait une approche abstraite des applications lin\'eaires. On vient de voir que, dans le cas des espaces $\K^n$, les applications lin\'eaires pouvaient toutes s'exprimer tr\`es concr\`etement~: ce sont les applications obtenues en multipliant l'argument par une matrice~!
\rmq Du coup, \og dans $\R^n$ \fg, toute application lin\'eaire se repr\'esente canoniquement par une matrice\footnote{Et du coup on connaissait d\'ej\`a. Boring.}, mais on a vu qu'un espace de dimension finie quelconque pouvait \^etre ramen\'e \`a $\R^n$ en le munissant d'une base~: il sera donc possible en dimension finie, et pas seulement dans $\R^n$, de repr\'esenter les applications lin\'eaires par des matrices. On verra plus tard, hein. Quant au cas de la dimension quelconque, on ne peut plus parler de matrice, mais on peut faire pareil quand m\^eme, c'est l'objet du paragraphe suivant.
\qmr

\medskip

%\exx
%L'application $\Phi$ de l'exemple \ref{LeNilpotentGenerique} \'etait pr\'ecis\'ement donn\'ee sous cette forme. On peut aussi bien l'\'ecrire $\Phi = \mvect{x\\y}\mapsto\matdd{0}{1}{0}{0}\mvect{x\\y}$.
%\xxe


\subsection{Cas g\'en\'eral\subline}

%Pour g\'en\'eraliser le r\'esultat pr\'ec\'edent, on observe que c'est la base canonique qui nous a permis de ramener la forme de tout \'el\'ement de $\K^q$ \`a une CL de vecteurs bien d\'etermin\'es, ceci permettant de conclure par lin\'earit\'e. On va de m\^eme, dans le cas g\'en\'eral, utiliser une base.

\Theoreme[Propri\'et\'e fondamentale des applications lin\'eaires]\label{ProprieteFondamentaleAL}
Soient $E$ et $F$ deux $\K$-espaces vectoriels. Toute application lin\'eaire $f \in \L(E, F)$ est \uuline{enti\`erement} et \uuline{uniquement} d\'etermin\'ee par ses valeurs sur une base de $E$.\\[0.15cm]
Autrement dit~: soit $\bc=(\eps_i)_{i\in I}$ une base de $E$. Alors, pour toute famille $(y_i)_{i\in I}$ de vecteurs de $F$, il existe une unique application lin\'eaire $f\in\L(E,F)$ telle que $\forall i\in I,\ f(\eps_i)=y_i$.
\FinTheoreme
%L'\'enonc\'e du th\'eor\`eme pr\'ec\'edent doit se comprendre ainsi~: pour se donner une application lin\'eaire de source $E$, il suffit de se donner ses valeurs sur une base de $E$~; et r\'eciproquement, pour tout choix de valeurs sur une base, il existera bien une application lin\'eaire prenant les valeurs impos\'ees. Remarquons que, par d\'efinition de l'\'egalit\'e entre applications, des choix de valeurs diff\'erents donneront des applications lin\'eaires diff\'erentes. Bon c'est nul mon paragraphe : je dis "A et r\'eciproquement A".

%\Demonstration
%Soit $(\varepsilon_i)_{i \in I}$ une base de $E$. Il s'agit de montrer l'existence et l'unicit\'e d'une application lin\'eaire $f\in\L(E,F)$ dont les valeurs $\big(f(\varepsilon_i)\big)_{i \in I}$ sont impos\'ees. Proc\'edons par analyse-synth\`ese.\\
%\analysesynthese{Soit $f$ une application convenable. Soit $x \in E$. Par d\'efinition d'une base, il existe une unique CL des $(\varepsilon_i)_{i \in I}$ \'egale \`a $x$, que l'on peut \'ecrire $x = \lambda_1 \varepsilon_{i_1} + \cdots + \lambda_r \varepsilon_{i_r}$.\\
%Par lin\'earit\'e il vient $f(x) = f(\lambda_1 \varepsilon_{i_1} + \cdots + \lambda_r \varepsilon_{i_r})
%= \lambda_1 f(\varepsilon_{i_1}) + \cdots + \lambda_r f(\varepsilon_{i_r})$. \\Il existe donc une unique application candidate $f$ puisque, pour tout vecteur $x$, la CL pr\'ec\'edente est unique.}{Reste \`a voir qu'une application d\'efinie de la fa\c{c}on pr\'ec\'edente est bien lin\'eaire. Soient $x,y\in E$ et $a,b\in\K$. Par d\'efinition d'une base, il existe une unique CL des $(\varepsilon_i)_{i \in I}$ \'egale \`a $x$ et une unique CL des $(\varepsilon_i)_{i \in I}$ \'egale \`a $y$, que l'on peut \'ecrire $x = \lambda_1 \varepsilon_{i_1} + \cdots + \lambda_r \varepsilon_{i_r}$ et $y = \mu_1 \varepsilon_{i_1} + \cdots + \mu_r \varepsilon_{i_r}$, quitte \`a ce que certains des $\lambda_{i}$ et des $\mu_{j}$ soient nuls. \\On a alors $ax+by = (a\lambda_1+b\mu_1)\eps_{i_1}+\cdots+(a\lambda_r+b\mu_r)\eps_{i_r}$ et par unicit\'e de la d\'ecomposition dans une base, $f(ax+by)=(a\lambda_1+b\mu_1)f(\eps_{i_1})+\cdots+(a\lambda_r+b\mu_r)f(\eps_{i_r})=af(x)+bf(y)$. L'application d\'efinie pr\'ec\'edemment est donc bien lin\'eaire.}{On a donc bien % montr\'e 
% l'existence et l'unicit\'e d'une telle application lin\'eaire.} \qed

\demo

Soit $(\epsilon_i)_{i\in I}$ une base de $E$ et $(y_i)_{i\in I}$ une famille de $F$ 

\paragraph{Analyse} considérons une AL $f$ convenable ie telle que $\forall i\in I, f(\epsilon_i) = y_i$ 

Soit $x\in E$.

Par définition d'une base, $x$ peut s'écrire d'une façon unique $x = \sum_{k=1}^{n} \lambda_k \epsilon_{i_k}$ 

\begin{align*}
	f(x) &= f(\sum_{k=1}^{n} \lambda_k \epsilon_{i_k}) \\
	     &= \sum_{k=1}^{n} \lambda_k f(\epsilon_{i_k}) \quad&\text{par linéarité}\\
	     &= \sum_{k=1}^{n} \lambda_k y_{i_k} \quad&\text{par hypothèse} \\
\end{align*}

Unique candidat:

\[
	f\left( \sum_{k=1}^{n} \lambda_k \epsilon_{i_k} \right) = \sum_{k=1}^{n} \lambda_k y_{i_k} \\
\] 

\paragraph{Synthèse} Testons nos candidats

\begin{itemize}
	\item $f(\epsilon_i) = f\left( \sum_{k=i}^{i} 1 \epsilon_i \right)  = \sum_{k=i}^{i} 1 y_k = y_i$
\item Montrons que $f$ est linéaire
Soient $\alpha, \beta\in \K$ $x, y\in E$ 

Par définition d'une base on peut les écrire
\[
	\begin{cases}
		x&= \sum_{k=1}^{n} \lambda_k \epsilon_{i_k} \\
		y&= \sum_{k=1}^{n} \mu_k \epsilon_{i_k} \\
	\end{cases}
\] 

\begin{align*}
	f(\alpha x + \beta y) &= f\left( \alpha \sum_{k=1}^{n} \lambda_k \epsilon_{i_k} + \beta \sum_{k=1}^{n} \mu_k \epsilon_{i_k} \right)  \\
			      &= f\left( \sum_{k=1}^{n} \left( \alpha \lambda_k + \beta \mu_k \right) \epsilon_{i_k} \right)  \\
			      &= \sum_{k=1}^{n} (\alpha \lambda_k + \beta \mu_k) y_{i_k} \\
			      &= \alpha \sum_{k=1}^{n} \lambda_k y_{i_k} + \beta \sum_{k=1}^{n} \mu_k y_{i_k} \\
			      &= \alpha f(x) + \beta f(y) \\
\end{align*}
\end{itemize}

\cqfd

%\exx
%L'application $\Phi$ de l'exemple \ref{LeNilpotentGenerique} est parfaitement d\'etermin\'ee par la description suivante~: c'est l'unique endomorphisme tel que $\Phi(e_1)=0_{\R^2}$ et $\Phi(e_2)=e_1$.
%\xxe
%
%\medskip

\exs~~Prenons le cas $E=F=\K[X]$ et $\bc=\cc=(1,X,X^2,\hdots,X^n,\hdots)$ la base canonique de $\K[X]$.
\begin{enumerate}[1.]
\item Il existe un unique endomorphisme $f\in\L(\K[X])$ tel que, pour tout $n\in\N$, $f(X^n)=X^{n+1}$.\\ Cet endomorphisme est $P \mapsto XP$.
\item Il existe un unique endomorphisme $f\in\L(\K[X])$ tel que, pour tout $n\in\N$, $f(X^n)=nX^{n-1}$.\\ Cet endomorphisme est $P \mapsto P'$.
\item Il existe un unique endomorphisme $f\in\L(\K[X])$ tel que, pour tout $n\in\N$, $f(X^n)=X^{n^2}+X^{2^n}+n$.\\ Cet endomorphisme n'a pas d'expression simple.
Mais on peut calculer l'image d'un polynôme, par exemple:

\[
	f(X^2-X+1) = f(X^2) - f(X) + f(1) = (2X^2+2) - (X^2 + X + 1) + (1+X) = X^2 + 2
\] 
\end{enumerate}
\sxe

%
%\Propdef\label{FormesCoordonnees}
%Soient $E$ un $\K$-espace vectoriel et $\bc=(\eps_i)_{i\in I}$ une base de $E$. On appelle $i$-\`eme coordonn\'ee par rapport \`a la base $\bc$ l'unique forme lin\'eaire $f$ telle que $f(\eps_j)=\delta_{i,j}$.
%\FinPropdef
%
%\Demonstration Son existence et son unicit\'e r\'esultent de la propri\'et\'e fondamentale. \qed

%\exx
%Pour $E=\K^3$ et $\bc=\cc=(e_1,e_2,e_3)$,
%\begin{itemize}
%\item la premi\`ere forme coordonn\'ee est $\defapp{\K^3}{\K}{\vect{x\\y\\z}}{x}$~;
%\item la deuxi\`eme forme coordonn\'ee est $\defapp{\K^3}{\K}{\vect{x\\y\\z}}{y}$~;
%\item la troisi\`eme forme coordonn\'ee est $\defapp{\K^3}{\K}{\vect{x\\y\\z}}{z}$.
%\end{itemize}
%\xxe

%\exx
%Pour $E=\K^3$ et $\bc=\cc=(e_1,e_2,e_3)$,\\
% la premi\`ere forme coordonn\'ee est $\defapp{\K^3}{\K}{\vect{x\\y\\z}}{x}$~;\\
% la deuxi\`eme forme coordonn\'ee est $\defapp{\K^3}{\K}{\vect{x\\y\\z}}{y}$~;\\
%  la troisi\`eme forme coordonn\'ee est $\defapp{\K^3}{\K}{\vect{x\\y\\z}}{z}$.
%\xxe
%
%\bigskip
%
%Voyons une application sympathique de la propri\'et\'e fondamentale~:
%\Theoreme\label{DesEVisomorphesOntMemeDim}
%Deux $\K$-espaces vectoriels de dimension finie $E$ et $F$ sont isomorphes si et seulement s'ils ont la m\^eme dimension.
%\FinTheoreme

\medskip

\begin{appl}
Deux $\K$-ev de dimension finie $E$ et $F$ sont isomorphes si et seulement s'ils ont la m\^eme dimension.\\[0.15cm]
$\bullet$ Le sens direct est donn\'e par la remarque \ref{SiIsomorphesAlorsMemeDimension}~!\\[0.15cm]
$\bullet$ Sens r\'eciproque~: On suppose $E, F$ de même dimension finie $n$.

Ainsi $E$ a une base de la forme $(u_1, \ldots, u_n)$ et $F$ de la forme $(v_1, \ldots, v_n)$


\begin{itemize}
	\item D'après thm 8, il existe une unique AL $f\in \lc(E, F)$ tel que $\forall i\in \llbracket 1, n \rrbracket, f(u_i) = v_i$
	\item De même, d'après thm 8, il existe une AL $g\in \lc(F, E)$ tel que $\forall i\in \llbracket 1, n \rrbracket, g(v_i) = u_i$ 
	\item En particulier $g \circ f \in \lc(E)$ et $\forall i \in \llbracket 1, n \rrbracket, g\circ f (u_i) = g(v_i) = u_i$. 
		{\bf Par unicité} dans le thm 8, $g\circ f = \id_E$. De même $f \circ g = \id_F$
\end{itemize}


\end{appl}


%\Demonstration
%Le sens direct est donn\'e par la remarque \ref{SiIsomorphesAlorsMemeDimension}. Montrons le sens r\'eciproque.\\[0.2cm]
%Supposons $E$ et $F$ de m\^eme dimension $n$. Soit $\bc_E=(u_1,\hdots,u_n)$ une base de $E$ et $\bc_F=(v_1,\hdots,v_n)$ une base de $F$. D'apr\`es la propri\'et\'e fondamentale~:\begin{itemize}
%\item[]$\bullet$ il existe une unique application $f\in\L(E,F)$ telle que $\forall i\in\{1,\hdots,n\},\ f(u_i)=v_i$~;
%\item[]$\bullet$ il existe une unique application $g\in\L(F,E)$ telle que $\forall i\in\{1,\hdots,n\},\ g(v_i)=u_i$~;
%\item[]$\bullet$ il existe une unique application $\phi\in\L(E)$ telle que $\forall i\in\{1,\hdots,n\},\ \phi(u_i)=u_i$, et par unicit\'e cette application est $\id_E$~;
%\item[]$\bullet$ il existe une unique application $\psi\in\L(F)$ telle que $\forall i\in\{1,\hdots,n\},\ \psi(v_i)=v_i$, et par unicit\'e cette application est $\id_F$.
%\end{itemize}
%Par d\'efinition on a $g\circ f=\phi$ et $f\circ g=\psi$, \cad $g\circ f = \id_E$ et $f\circ g=\id_F$. En particulier $f$ est un isomorphisme de $E$ dans $F$~!
%\qed


\subsection{D\'efinition par restrictions}

%Voyons maintenant une g\'en\'eralisation de la propri\'et\'e fondamentale qui sera utile pour la suite.

\Theoreme[Propri\'et\'e fondamentale g\'en\'eralis\'ee]\label{thmDefinitionParRestriction}
Soient $E$ et $F$ deux $\K$-evs et $E_1,E_2,\hdots,E_p$ des sevs de $E$ tels que $E_1\oplus E_2\oplus\cdots\oplus E_p = E$.\\[0.1cm]
Soient $\varphi_1\in\L(E_1,F)$, $\varphi_2\in\L(E_2,F)$, $\hdots$, $\varphi_p\in\L(E_p,F)$.\\[0.1cm]
Alors il existe une unique application lin\'eaire $\varphi\in\L(E,F)$ telle que $\forall i\in\{1,2,\hdots,p\}$, $\varphi_{{}_{|E_i}}=\varphi_i$.
\FinTheoreme

%\rmq
%En  pcsi, ce th\'eor\`eme n'est au programme que dans le cas d'une somme directe de deux sous-espaces. Les exemples d'illustration qui suivent dans ce chapitre sont d'ailleurs de cette forme.
%\qmr

\medskip

En quoi est-ce une g\'en\'eralisation de la propri\'et\'e fondamentale~?

\paragraph{Analyse} Considérons $\varphi$ convenable

Soit $x\in E = E_1 \oplus \ldots\oplus E_p$

Par def., $x$ peut s'écrire de façon unique 

\[
	x = \underbrace{x_1}_{\in E_1} + \ldots + \underbrace{x_2}_{\in E_2} \qquad\text{par linéarité}
\] 

\begin{align*}
	\varphi(x) &= \varphi(x_1) + \varphi(x_2) + \ldots + \varphi(x_3) \\
		&= \varphi_1(x_1) + \varphi_2(x_2) + \ldots + \varphi_p(x_p) \\
\end{align*}

\paragraph{Unique candidat} $\varphi: \begin{cases}
	E &\to F \\
	x = x_1 + \ldots + x_p &\mapsto \varphi_1(x_1) + \ldots + \varphi_p(x_p)
\end{cases}$

\paragraph{Synthèse} par construction, on a bien $\forall i\in \llbracket 1, p \rrbracket, \varphi_{|E_i} = \varphi_i$

Montrons la linéarité. Soit $x, y \in E$ et $\lambda, \mu\in \K$

$x$ peut s'écrire $x = \underbrace{x_1}_{E_1} + \ldots + \underbrace{x_p}_{E_p}$ \\
$y$ peut s'écrire $y = \underbrace{y_1}_{E_1} + \ldots + \underbrace{y_p}_{E_p}$ 

\begin{align*}
	\varphi(\lambda x + \mu y) &= \varphi(\underbrace{\lambda x_1 + \mu y_1}_{\in E_1\text{ car $E_1$ sev}}+ \ldots + \underbrace{\lambda x_p + \mu y_p}_{\in E_p\text{ car $E_p$ sev}})\\
				   &= \varphi_1(\lambda x_1 + \mu y_1) +\ldots+ \varphi_p(\lambda x_p + \mu y_p) \quad&\text{par construction}\\
				   &= \lambda(\varphi_1(x_1) + \ldots + \varphi_p(x_p)) + \mu(\varphi_1(y_1) + ... + \varphi_p(y_p)) \quad&\text{par linéarité des $\varphi_i$} \\
				   &= \lambda \varphi(x) + \mu \varphi(y) \\
\end{align*}



Dans le cas particulier o\`u les $E_i$ sont tous des droites, il existe des vecteurs non nuls $\eps_i$ tels que $E_i=\Vect{\eps_i}$. De plus, d'apr\`es le corollaire \ref{SommeDirecteDeDroites} du chapitre \ref{EspacesVectoriels}, la famille $(\eps_1,\eps_2\hdots,\eps_p)$ est une base de $E$. Se donner les applications $\varphi_i$ c'est se donner, en particulier, les images $\varphi_i(\eps_i)$. La propri\'et\'e fondamentale assure alors qu'il existe une unique application lin\'eaire $\varphi$ telle que $\forall i\in\{1,\hdots,p\},\ \varphi(\eps_i)=\varphi_i(\eps_i)$. Il n'est ensuite pas difficile de voir qu'on a $\forall i\in\{1,\hdots,p\},\ \varphi_{{}_{|E_i}}=\varphi_i$.


%\Demonstration
%Proc\'edons par analyse-synth\`ese.\\
%\analysesynthese{Soit $\varphi\in\L(E,F)$ convenable. Soit $x\in E=E_1\oplus E_2\oplus\cdots\oplus E_p$. Par d\'efinition des sommes directes, il existe alors un unique $p$-uplet $(x_1,x_2,\hdots,x_p)\in E_1\times E_2\times\cdots\times E_p$ tel que $x=x_1+x_2+\cdots+x_p$. On a alors~:\\
%$\begin{array}{lcll}
%\varphi(x) & = & \varphi(x_1+x_2+\cdots+x_p) & \text{par d\'efinition,}\\
%           & = & \varphi(x_1)+\varphi(x_2)+\cdots+\varphi(x_p) & \text{par lin\'earit\'e,}\\
%           & = & \varphi_{{}_{|E_1}}(x_1)+\varphi_{{}_{|E_2}}(x_2)+\cdots+\varphi_{{}_{|E_1}}(x_p) & \text{car }\forall i\in\{1,2,\hdots,p\},\ x_i\in E_i\\
%           & = & \varphi_1(x_1)+\varphi_2(x_2)+\cdots+\varphi_p(x_p) & \text{par hypoth\`ese.}
%\end{array}$\ \\[0.2cm]
%Il existe donc un unique candidat pour $\varphi$~: l'application d\'efinie par \\$\varphi(x)=\varphi_1(x_1)+\varphi_2(x_2)+\cdots+\varphi_p(x_p)$, o\`u $x=x_1+x_2+\cdots+x_p$ est l'unique d\'ecomposition de $x$ dans la somme directe $E_1\oplus E_2\oplus\cdots\oplus E_p$.}{V\'erifions que ce candidat convient. Tout d'abord c'est bien une application \`a valeurs dans $F$ car les $\varphi_i$ sont \`a valeurs dans $F$ et qu'une somme d'\'el\'ements d'un sous-espace vectoriel appartient toujours \`a ce sous-espace. Reste \`a voir que $\varphi$ est lin\'eaire. Soient $x,y\in E$ et $\lambda,\mu\in \K$. Par d\'efinition d'une somme directe, $x$ a une unique d\'ecomposition $x=x_1+x_2+\cdots+x_p$ et $y$ une unique d\'ecomposition $y=y_1+y_2+\cdots+y_p$ o\`u pour tout $i$ on a $x_i,y_i\in E_i$. On a alors $\lambda x+\mu y=\underbrace{\lambda x_1+\mu y_1}_{\in E_1 \text{ car } E_1 \text{ sev}}+\underbrace{\lambda x_2+\mu y_2}_{\in E_2 \text{ car } E_2 \text{ sev}}+\cdots+\underbrace{\lambda x_p+\mu y_p}_{\in E_p \text{ car } E_p \text{ sev}}$, et ceci est la d\'ecomposition de $\lambda x+\mu y$ dans la somme directe $E_1\oplus E_2\oplus\cdots\oplus E_p$, par unicit\'e d'une telle \'ecriture. Par suite on a~:\\[0.2cm]
%$\begin{array}{lcl}
%\varphi(\lambda x+\mu y) & = & \varphi_1(\lambda x_1+\mu y_1)+\varphi_2(\lambda x_2+\mu y_2)+\cdots+\varphi_p(\lambda x_p+\mu y_p)\\
%&=& \lambda \varphi_1(x_1)+\mu \varphi_1(y_1)+\lambda \varphi_2(x_2)+\mu \varphi_2(y_2)+\cdots+\lambda \varphi_p(x_p)+\mu \varphi_p(y_p)\\
%&=& \lambda \big(\varphi_1(x_1)\!+\!\varphi_2(x_2)\!+\!\cdots+\varphi_p(x_p)\big)\! +\! \mu \big(\varphi_1(y_1)\!+\!\varphi_2(y_2)\!+\!\cdots+\varphi_p(y_p)\big)\\
%&=& \lambda \varphi(x) + \mu \varphi(y).\\
%\end{array}$\ \\[0.2cm]
%D'o\`u la lin\'earit\'e de $\varphi$.}{Il existe bien une unique application lin\'eaire dont les restrictions aux termes d'une somme directe soient impos\'ees.}
%\qed


\demo\ \\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\
\cqfd

%On utilisera ce th\'eor\`eme dans la section \ref{SectionEndomorphismes} avec des sommes directes de deux sous-espaces.
\exx
%Pla\c{c}ons-nous dans le cas $\K=\R$, $E=\R^\R$, $F=\R$. On a vu p. \pageref{SupplementairesFonctionsPairesEtFonctionsImpaires} que le \sev $\pc$ des fonctions paires de $\R$ dans $\R$ et le \sev $\ic$ des fonctions impaires de $\R$ dans $\R$ sont suppl\'ementaires.\\
Soient $a$ et $b$ deux r\'eels. Les applications $\defapp{\pc}{\R}{f}{f(a)}$ et $\defapp{\ic}{\R}{f}{f(b)}$ sont lin\'eaires, il existe\break\\[-0.5cm] donc une unique application lin\'eaire de $\R^\R$ dans $\R$ qui \`a toute\megasubline fonction paire associe sa valeur en $a$, mais qui \`a toute fonction impaire associe sa valeur en $b$. {\bf Pourquoi~? Et quelle est cette application~?}\\\\\\\\\\\\\\

\[
	\underbrace{\pc}_{E_1} \oplus \underbrace{\ic}_{E_2} = \underbrace{\R^\R}_{E}
\] 

$\varphi_1: \begin{cases}
	\pc &\to \R \\
	f &\mapsto f(a)
\end{cases}$ et $\varphi_2: \begin{cases}
	\ic &\to \R \\
	f &\mapsto f(b)
\end{cases}$ sont \emph{linéaires}  par linéarité de l'évaluation.

D'après le théorème, $\exists ! \varphi \in \lc(\R^\R, \R)$ tel que $\begin{cases}
	\varphi_{|\pc} &= \varphi_1 \\
	\varphi_{|\ic} &= \varphi_2 \\
\end{cases}$ 

\paragraph{Rappe}
Toute fonction $f\in \R^\R$ peut s'écrire de façon unique

\[
	f = \underbrace{\frac{f + f \circ (-\id)}{2}}_{\in \pc} + \underbrace{\frac{f - f\circ(-\id)}{2}}_{\in \ic}
\] 

D'où $\varphi: \begin{cases}
	\R^\R &\to \R \\
	f &\mapsto \varphi(f) \\
	  &= \varphi_1(f_p) + \varphi_2(f_i) \\
	  &= \frac{f(a) + f(-a)}{2} + \frac{f(b) - f(-b)}{2} \\
	  &= \frac{1}{2} (f(a) + f(b) + f(-a) - f(-b))\\
\end{cases}$



%Remarquons qu'en reprenant le d\'emontration p. \pageref{SupplementairesFonctionsPairesEtFonctionsImpaires} permettant d'expliciter la d\'ecomposition de toute fonction dans la somme directe $\pc+\ic=\R^\R$, on voit que cette application est $\defapp{\R^\R}{\R}{f}{f(0)+\dfrac{f(1)}{2}-\dfrac{f(-1)}{2}}$.
\xxe


\section{Noyau, image et rang}

Dans cette section on consid\`ere deux $\K$-espaces vectoriels $E$ et $F$.

\subsection{Image et noyau}

%On aura not\'e qu'une application lin\'eaire $f\in\L(E,F)$ est en particulier un morphisme de groupes de $(E,+)$ dans $(F,+)$~: elle a donc une image et un noyau. On redonne rapidement ici les d\'efinitions de la page \pageref{NoyauetImagecommeimagesreciproqueetdirecte}.
\Definition[Rappel]
Soit $f \in \L(E, F)$.
\begin{enumerate}[$\bullet$]
\item On appelle noyau de $f$ l'ensemble $\mathrm{Ker}(f) = f^{-1}\big(\{0_F\}\big) = \{ x \in E,\ f(x) = 0_F \}\subset E$.
\item On appelle image de $f$ l'ensemble $\mathrm{Im}(f)=f(E)=\{y \in F,\ \exists x \in E,\ y = f(x) \}\subset F$.
\end{enumerate}
\FinDefinition


%Enfin, le r\'esultat suivant a d\'ej\`a \'et\'e montr\'e p. \pageref{InjectiviteEtSurjectiviteDUnMDG}.
\Theoreme[Rappel]
Soit $f \in \L(E, F)$.
\begin{enumerate}[$\bullet$]
\item $f$ injective $\Leftrightarrow$ $\mathrm{Ker}(f) \subset \{ 0_E \}$ $\Leftrightarrow$ $\mathrm{Ker}(f) = \{ 0_E \}$ .
\item $f$ surjective $\Leftrightarrow$ $F \subset \mathrm{Im}(f)$ $\Leftrightarrow$ $\mathrm{Im}(f) = F$.
\end{enumerate}
\FinTheoreme

\ \\[-0.25cm]
\exx Calculons image et noyau de l'application $\defapp{\K^3}{\K^3}{x}{Ax}$ o\`u $A=\mattt{1&1&1\\1&1&1\\1&1&1}$.
Notons l'application $f : \begin{cases}
	\K^3&\to \K^3 \\
	\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} &\mapsto \begin{pmatrix} x_1 + x_2 + x_3 \\  x_1 + x_2 + x_3 \\  x_1 + x_2 + x_3 \end{pmatrix} 
\end{cases}$

Donc 
\begin{align*}
	\operatorname{Im}(f) &= \{f\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} , \begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} \in \K^3\}   \\
	&= \{\begin{pmatrix} x_1 + x_2 + x_3 \\ x_1 + x_2+x_3 \\ x_1 + x_2 + x_3 \end{pmatrix}, \begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} \in \K^3 \}  \\
	&= \{x_1\begin{pmatrix} 1\\1\\1 \end{pmatrix} + x_2\begin{pmatrix} 1\\1\\1 \end{pmatrix} +x_3\begin{pmatrix} 1\\1\\1 \end{pmatrix} , \begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} \in \K^3 \}  \\
	&= \Vect{\begin{pmatrix} 1\\1\\1 \end{pmatrix} , \begin{pmatrix} 1\\1\\1 \end{pmatrix} , \begin{pmatrix} 1\\1\\1 \end{pmatrix} } \\
	&= \Vect{\begin{pmatrix} 1\\1\\1 \end{pmatrix} } \\
	&= \text{Vect de ses colonnes} \\
\end{align*}

\begin{align*}
	\operatorname{Ker}(f) &= \{\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} \in \K^3, f\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} =0_{\K^3}\}  \\
	&= \{\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} \in \K^3, x_1 + x_2  + x_3 = 0 \}  \\
	&= \{\begin{pmatrix} x_1\\x_2\\x_3 \end{pmatrix} \in \K^3, x_1 = -x_2-x_3\}  \\
	&= \Vect{\begin{pmatrix} -1\\1\\0 \end{pmatrix} , \begin{pmatrix} -1\\0\\1 \end{pmatrix} } \\
	&= \text{Solutions des équations formées par ses lignes} \\
\end{align*}

\xxe

\rmq\ \\[-1.2cm]\phantom{Remarque 3~:~} On peut parler d'image ou noyau d'une matrice~; cela signifie image ou noyau de l'application lin\'eaire canoniquement associ\'ee.
(Voir juste au-dessus)

\qmr

\exx Calculons image et noyau de l'application %$\defapp{\K_n[X]}{\K_n[X]}{P}{P-P'}$ (je ne sais plus ce que j'avais en t\^ete)
$ \cdot ': \defapp{\K[X]}{\K[X]}{P}{P'}$.


Donc
\begin{itemize}
	\item  
		\begin{align*}
			\operatorname{Im}(f) &= f^{\to }(\K[X])   \\
					     &= \{(f(a_0+a_1X + \ldots + a_n X^n), n\in \N, a_i\in \K\}  \\
					     &= \{a_1 + 2a_2 X + \ldots + na_nX^n, n\in \N, a_i\in \K\}  \\
					     &= \Vect{0, 1, 2X, 3X^2, \ldots, nX^{n-1}, \ldots} \\
					     &= \Vect{1, X, X^2, \ldots, X^{n-1}, \ldots} \\
					     &= \K[X] \\
		\end{align*}
	\item  
		\begin{align*}
			\operatorname{Ker}(f) &= \{P\in \K[X], f(P) = 0\}  \\
					      &= \{P\in \K[X], P' = 0\}  \\
					      &= \Vect{1} \\
					      &= \K_0[X] \\
					      &= \K \\
		\end{align*}
\end{itemize}


\xxe

%\rmq\label{NoyauDUneRestriction}Soit $f\in\L(E,F)$, $G$ un \sev de $E$, et $H$ un \sev de $F$ tels que $f(G)\subset H$. Alors $\Ker\left(f_{{}_{|G}}^{{}^{|H}}\right)=\Ker(f)\cap G$.
%\qmr
%
%\Demonstration
%Soit $x\in E$. On a bien~:\\ $x\in \Ker\left(f_{{}_{|G}}^{{}^{|H}}\right) \Leftrightarrow x\in G \text{ et } f(x)=0_F \Leftrightarrow x\in G \text{ et } x\in\Ker(f) \Leftrightarrow x\in\Ker(f)\cap G$.
%\qed
%
%


%\subsection{Structure de sous-espace vectoriel}

\Theoreme
Soit $f \in \L(E, F)$. Alors $\mathrm{Ker}(f)$ est un \sev{$E$} et $\mathrm{Im}(f)$ est un \sev{$F$}.
\FinTheoreme


\demo 
 \begin{enumerate}
\item $\Ker f$ sev de $E$.
 \begin{itemize}
	 \item $0_E \in \Ker f$ car $f(O_E) = 0_F$ donc  $\Ker f \neq \emptyset$
	 \item Soient $u, v \in \Ker E \text{ie} f^{\to } \{u, v\} = \{0_E\}  $ et $\lambda, \mu \in \K$ 
		 Montrons que $\lambda u + \mu v \in \Ker f $
		\begin{align*}
			f(\lambda u + \mu v ) &= \lambda f(u) + \mu f(v) \quad&\text{par linéarité de $f$} \\
			&=\lambda 0_F + \mu 0_F \quad&\text{par hypothèse} \\
			&= 0_F \\
		\end{align*}
		Donc ok!
\end{itemize}
\item $\operatorname{Im} f$ sev de $E$
 \begin{itemize}
	 \item $0_E \in \operatorname{Im} f$ car $f(O_E) = 0_F$ donc  $\operatorname{Im} f \neq \emptyset$
	 \item Soient $u, v \in \operatorname{Im} E$ ie il existe $x, y\in E$ tel que $u, v = f(x), f(y)$ et $\lambda, \mu \in \K$ 
		 Montrons que $\lambda u + \mu v \in \operatorname{Im} f $
		\begin{align*}
			f(\lambda x + \mu y ) &= \lambda f(x) + \mu f(y) \quad&\text{par hypothèse} \\
					      &=f(\lambda x + \mu y) \quad&\text{par linéarité} \\
		\end{align*}
		Donc ok!
\end{itemize}
\end{enumerate}
\cqfd

\begin{appl}
On retrouve que~:\begin{enumerate}[$\bullet$]
\item l'ensemble des solutions d'un syst\`eme lin\'eaire homog\`ene \`a $p$ inconnues est un \sev{$\K^p$}~;
\item un sous-ensemble de $\K^q$ d\'efini par un param\'etrage lin\'eaire est un \sev{$\K^q$}.
\end{enumerate}
En effet~: $\left\{ \begin{pmatrix} x_1\\ \vdots \\ x_p \end{pmatrix} , \begin{cases}
	a_{11} x_1 + \ldots + a_{1p} x_p &= 0 \\
					 &\vdots \\
	a_{q1} x_1 + \ldots + a_{qp}x_p &= 0 \\
\end{cases} \right\} = \Ker \begin{pmatrix} x_1 \\ \vdots \\ x_p \end{pmatrix} \mapsto \begin{pmatrix} a_{11} \ldots a_{1p} \\ \vdots \\ a_{q 1} \ldots a_{qp} \end{pmatrix}  \times \begin{pmatrix} x_1 \\ \vdots \\ x_p \end{pmatrix}  $

\begin{align*}
	P &= \left\{ \begin{pmatrix} a_{11} x_1 + &\ldots + &a_{1p} x_p \\ \vdots & & \vdots \\ a_{q 1} x_1 + &\ldots+&a_{qp}x_p \end{pmatrix} , \begin{pmatrix} x_1\\ \vdots \\x_p \end{pmatrix} \in \K^p \right\} \\
	  &= \operatorname{Im} \begin{pmatrix} x_1 \\ \vdots \\ x_p \end{pmatrix} \mapsto \begin{pmatrix} a_{11} \ldots a_{1p} \\ \vdots \\ a_{q 1} \ldots a_{qp} \end{pmatrix}  \times \begin{pmatrix} x_1 \\ \vdots \\ x_p \end{pmatrix} 
\end{align*}

\end{appl}

\subsection{Rang}

\begin{notation}
Si $\fc$ est une famille de vecteurs $E$ et $f\in\L(E,F)$, on note $f(\fc)$ la famille obtenue en appliquant $f$ aux vecteurs de $\fc$. Ainsi, pour $\fc = (u_i)_{i \in I}$, on a $f(\fc) = \big(f(u_i)\big)_{i \in I}$.
\end{notation}

\newcommand{\rg}{\mathrm{rg}}
\Definition
Soit $f \in \L(E, F)$. On appelle \newdef{rang de $f$} et on note $\rg(f)$ 
 la quantit\'e $\rg(f) = \dim\big(\mathrm{Im}(f)\big)$.
\FinDefinition

\exx ~~Soit $n\geq 3$ et $\varphi :\defapp{\K_n[X]}{\K_n[X]}{P}{XP''(X)+X^2P(0).}$\\
$\bullet$ V\'erifions que $\varphi$ est lin\'eaire~:

\begin{align*}
	\varphi(\lambda P + \mu Q) &= \lambda \varphi(P) + \mu \varphi(Q) \quad&\text{par linéarité de $\text{eval}_0$, $ \cdot ''$ et $ \cdot $}\\
\end{align*}

$\bullet$ Calculons $\rg(\varphi)$~:

\begin{align*}
	\rg \varphi &= \dim \operatorname{Im} \varphi \\
	&= \dim \{\varphi^{\to } \{a_0 + a_1X + \ldots + a_n X^n\}, \begin{pmatrix} a_0\\ \vdots \\ a_n \end{pmatrix} \in \K^{n+1} \}  \\
	&= \dim \{a_0 \varphi(1) + a_1 \varphi(X) + \ldots + a_n \varphi(X^n), \begin{pmatrix} a_0\\ \vdots \\ a_n \end{pmatrix} \in \K^{n+1}\}  \\
	&= \dim \Vect{ \varphi(1) , \varphi(X) , \varphi(X^2) , \varphi(X^3),  \ldots, \varphi(X^n) } \\
	&= \dim \Vect{ X^2, 0, 2X,  6X^2, \ldots, n(n-1)X^{n-1}  } \\
	&= \dim \Vect{ X^2, X, X^2, X^3, \ldots, X^{n-1}} \\
	&= \dim (X\K_{n-2}[X]) \\
	&= n-1 \\
\end{align*}

\xxe

%Explicitons la raison de cette terminologie~: le rang est un rang~!
\Theoreme
Le rang de $f$ est un rang~! Plus pr\'ecis\'ement, pour $f \in \L(E, F)$ et pour toute base $\bc$ de $E$, on a $\rg(f) = \rg\big(f(\bc)\big)$.
\FinTheoreme

\demo


Soit $\bc = (\epsilon_i)_{i\in I}$ base de $E$

\begin{align*}
	\rg(f) &= \dim \operatorname{Im} f \\
	      &= \dim \{f(x), x\in E\}  \\
	      &= \dim \{f(\lambda_1 \epsilon_{i_1} + \lambda_2 \epsilon_{i_2} + \ldots + \lambda_n \epsilon_{i_n}), n\in \N, i_k \in I, \lambda_k \in \K\}  \\
	      &= \dim \{\lambda_1 f(\epsilon_{i_1})+\lambda_2 f(\epsilon_{i_2}) + \ldots + \lambda_n f(\epsilon_{i_n}), n\in \N, i_k\in I, \lambda_k\in \K\}  \\
	      &= \dim \Vect{(f(\epsilon_i)_{i\in I}} \\
	      &= \rg (f(\bc)) \\
\end{align*}

\cqfd
%
%\Demonstration
%Notons $\bc=(u_i)_{i \in I}$. On a~:\\[0.3cm]
%$\begin{array}{lcl}
%\rg(f) & = & \dim\big(\Im(f)\big) = \dim\Big(\big\{ f(u), u \in E \big\}\Big)\\[0.25cm]
%&=& \dim\biggl(\bigg\{ f\Big(\sum\limits_{i \in I} \lambda_i u_i\Big),\ (\lambda_i)_{i\in I} \text{ famille presque nulle de scalaires} \bigg\}\biggl)\\[0.3cm]
%&=& \dim\bigg(\Big\{ \sum\limits_{i \in I} \lambda_i f(u_i),\ (\lambda_i)_{i\in I} \text{ famille presque nulle de scalaires}\Big\}\bigg)\\[0.3cm]
%&=& \dim\Big(\text{Vect}\big( f(u_i)_{i \in I}\big) \Big)\\[0.25cm]
%&=& \dim\Big(\text{Vect}\big( f(\bc) \big)\Big) = \rg\big(f(\bc)\big).
%\end{array}$\ \\[0.3cm]
%D'o\`u le r\'esultat. \qed
%
%La proposition se reformule~:
%\Proposition
%Pour toute base $B_E$ de $E$, on a $\rg(f) = \rg(f(B_E))$. 
%\FinProposition
%
%\medskip
%
%Lorsqu'on a $E=\K^n$, ou plus g\'en\'eralement lorsque $E$ a une base canonique, on peut calculer agr\'eablement un rang en choisissant pour $\bc$ la base canonique.
%
%\newpage
%
%\begin{exemples}
%\begin{enumerate}[1.]
%\item \vspace{-0.5cm} Soit \`a calculer le rang de $f : \defapp{\K^3}{\K^3}{\vect{x\\y\\z}}{\vect{-2x -3y +z \\ x+2y \\ -x-2y}}$.
%On a~:\\[-0.1cm]
%$\begin{array}{lcl}
%\rg(f) & = & \dim(\Im(f))\\[0.3cm]
%& = & \dim\left(\left\{ \vect{-2x -3y +z \\ x+2y \\ -x-2y}, \vect{x\\y\\z} \in \K^3\right\} \right)\\[0.5cm]
%& = & \dim\left(\Vect{\vect{-2 \\ 1\\ -1}, \vect{-3\\2\\-2}, \vect{1\\ 0\\ 0}}\right)\\[0.5cm]
%& = & \dim\left(\Vect{\vect{-2 \\ 1\\ -1}, \vect{1 \\0\\ 0}}\right) \text{ car } \vect{-3\\2\\-2} = 2\vect{-2 \\ 1\\ -1} + \vect{1\\ 0\\ 0}\text{,}\\[0.5cm]
%& = & 2\  \text{ car } \vect{-2 \\ 1\\ -1} \text{ et } \vect{1\\ 0\\ 0}\  \text{sont non colin\'eaires.}
%\end{array}$\ \\[0.3cm]
%On a ici red\'emontr\'e le th\'eor\`eme sur l'exemple pour bien illustrer l'articulation permettant de se ramener au rang d'une famille, mais on aurait bien s\^ur pu directement \'ecrire %$\rg(f) = \rg\big(f(e_1),f(e_2),f(e_2)\big) = \rg\left(\vect{-2 \\ 1\\ -1}, \vect{-3\\2\\-2}, \vect{1\\ 0\\ 0}\right)$ puis \'echelonner la famille $\left(\vect{-2 \\ 1\\ -1}, \vect{-3\\2\\-2}, \vect{1\\ 0\\ 0}\right)$.
% $\rg(f) = \rg\big(f(e_1),f(e_2),f(e_3)\big) = \rg\big((-2,1,-1), (-3,2,-2), (1,0,0)\big)$ puis \'echelonner la famille $\big((-2,1,-1), (-3,2,-2), (1,0,0)\big)$.
%\item Consid\'erons, pour $n\geq 2$, l'application $\varphi :\defapp{\K_n[X]}{\K_n[X]}{P}{P''+P(0)}$.\\
%C'est une CL d'applications lin\'eaires donc $\varphi$ est bien une application lin\'eaire, et~:\\[0.15cm]
%$\begin{array}{lcl}
%\rg(\varphi) & = & \rg\big(\varphi(1),\varphi(X),\varphi(X^2),\varphi(X^3),\hdots,\varphi(X^n)\big)\\[0.15cm]
%& = &\rg\big(1,0,2,6X,\hdots,n(n-1)X^{n-2}\big)\\[0.15cm]
%& = & \rg\big(2,6X,\hdots,n(n-1)X^{n-2}\big) \text{ car $0$ et $1$ sont colin\'eaires \`a $2$.}
%\end{array}$\ \\[0.15cm]
%Et finalement $\rg(\varphi) = n-1$ car la famille pr\'ec\'edente est \'echelonn\'ee en degr\'es. \qed
%\end{enumerate}
%\end{exemples}
%
%
%\Proposition\label{propimagedunebasepariso}
%On suppose que $E$ est muni d'une base $\bc_E$. Soit $f \in \L(E, F)$.\\
%Soient $\bc_E$ une base de $E$ et $f \in \L(E, F)$.\\
%Supposons que $f$ soit un isomorphisme. Alors $f(\bc_E)$ est une base de $F$.\\
%En particulier on a $\rg(f)=\dim(E)=\dim(F)$.
%\FinProposition
%Remarquons que, dans le cas o\`u $E$ et $F$ sont de dimension finie, on retrouve que la dimension est pr\'eserv\'ee par isomorphisme. La d\'emonstration de cette proposition est exactement la m\^eme que celle de la remarque \ref{SiIsomorphesAlorsMemeDimension}, qui au fond ne n\'ecessite pas d'hypoth\`ese de dimension (on a juste besoin de disposer d'une base de $E$).
%\`a ceci pr\`es que $\bc_E$ n'est plus ici suppos\'ee finie, ce qui ne change rien.
%
%
%\Lemme\label{fFLibreImpliqueFlibre}
%Soient $f \in \L(E, F)$ et $\fc$ une famille de vecteurs de $E$.\\
%Si $f(\mathcal{F})$ est libre, alors $\mathcal{F}$ est libre.
%\FinLemme
%Bien \'evidemment, la r\'eciproque de cette proposition est fausse. Le rang permet justement de quantifier le \og d\'efaut de libert\'e \fg de $f(\mathcal{F})$ par rapport \`a $\fc$.
%
%\Demonstration
%Notons $\fc=(u_i)_{i\in I}$ et supposons $f(\fc)=\big(f(u_i)\big)_{i\in I}$ libre.\\
%Consid\'erons une CL nulle des vecteurs de $\fc$~: $\lambda_1 u_{i_1} +\cdots+ \lambda_n u_{i_n} = 0_E$.\\
%On en d\'eduit~: $f(\lambda_1 u_{i_1} +\cdots+ \lambda_n u_{i_n}) = f(0_E)$, \ie: $\lambda_1 f(u_{i_1}) +\cdots+ \lambda_n f(u_{i_n}) = 0_F$.\\
%Comme $\big(f(u_i)\big)_{i\in I}$ est libre, on d\'eduit $\lambda_1 = \cdots = \lambda_n = 0$.\\
%D'o\`u la libert\'e de $\fc$. \qed
%
%
%\Proposition
%Soient $f \in \L(E, F)$ et $\mathcal{F}$ une famille de $E$. On a~:
%\enumeration{\item $\rg\big(f(\mathcal{F})\big) \leq \rg(\mathcal{F}) \leq \dim(E)$~;
%\item $\rg(f)\leq \dim(E)$~;
%\item $\rg\big(f(\mathcal{F})\big) \leq \rg(f) \leq \dim(F)$.}
%\FinProposition
\Theoreme[Propri\'et\'es "imm\'ediates" du rang]
Soient $E$, $F$, $G$ trois $\K$-espaces vectoriels.
\begin{enumerate}
\item Pour $f \in \L(E, F)$, on a $\rg(f)\leq \min(\dim(E),\dim(F))$.
\item Pour  $f \in \L(E, F)$ et $g \in \L(F, G)$, on a $\rg(g\circ f)\leq \min(\rg(f),\rg(g))$, et, de plus~:
\item si $f$ est un isomorphisme alors $\rg(g\circ f)= \rg(g)$ et si $g$ est un isomorphisme alors $\rg(g\circ f)= \rg(f)$.
	\ie composer par un isomorphisme ne modifie pas le rang
\end{enumerate}
\FinTheoreme

\demo Exercice. Certains points sont vraiment \'evidents, d'autres plus p\'enibles. 


\cqfd
%
%\Demonstration
%\begin{enumerate}[1.]
%\item\begin{itemize}
%\item L'in\'egalit\'e $\rg(\mathcal{F}) \leq \dim(E)$ est claire par croissance de la dimension.
%\item Prouvons $\rg\big(f(\mathcal{F})\big) \leq \rg(\mathcal{F})$. Utilisons la caract\'erisation donn\'ee par le th\'eor\`eme \ref{CalculPratiqueDUnRang} du chapitre \ref{DimensionFinie}~: $\rg(\gc)$ est le cardinal maximal d'une famille libre de $\gc$. Pour \'etablir la premi\`ere in\'egalit\'e, il suffit donc de montrer~: s'il existe une sous-famille libre de $f(\mathcal{F})$ ayant $n\in\N\cup\{+\infty\}$ vecteurs, alors il existe une sous-famille libre de $\mathcal{F}$ ayant $n$ vecteurs. Soit $f(\gc)$ une sous-famille libre de $f(\mathcal{F})$ ayant $n$ vecteurs. D'apr\`es le lemme \ref{fFLibreImpliqueFlibre}, $\gc$ est libre. Comme elle a $n$ vecteurs, on en d\'eduit $\rg\big(f(\mathcal{F})\big) \leq \rg(\mathcal{F})$.
%\end{itemize}
%\item Soit $\bc$ une base de $E$. On a $\rg(f)= \rg\big(f(\bc)\big)$ par la proposition \ref{proplerangestunrang}, et le point pr\'ec\'edent donne $\rg\big(f(\bc)\big)\leq \dim(E)$. D'o\`u $\rg(f)\leq \dim(E)$.
%\item $f(\mathcal{F})$ est une famille de vecteurs de $\Im(f)$ donc on a~: $\Vetct\big(f(\mathcal{F})\big) \subset \Im(f) \subset \dim(F)\text{.}$\\ %\ddfrac{\Vetct\big(f(\mathcal{F})\big) \subset \Im(f) \subset \dim(F)\text{.}}
%Par croissance de la dimension, on trouve donc \ddfrac{\dim\Big(\Vetct\big(f(\mathcal{F})\big)\Big) \leq \dim\Big(\Im(f)\Big) \leq \dim(F)\text{,}}
%qui est le r\'esultat demand\'e.\qed
%\end{enumerate}
%
%
%\Corollaire
%Soient $\bc_E$ une base de $E$, $f \in \L(F, G)$ et $g \in \L(E, F)$.\\
%On suppose que $E$ est muni d'une base $\bc_E$. Soient $f \in \L(F, G)$ et $g \in \L(E, F)$.\\
%Alors on a $\rg(f \circ g) \leq \min\big(\rg(f), \rg(g)\big) \leq \min\big(\dim(E), \dim(F), \dim(G)\big)$.
%\FinCorollaire
%Autrement dit~: le rang ne peut que baisser par composition.
%
%\Demonstration
%\begin{itemize}
%\item[]$\bullet$ L'in\'egalit\'e de droite r\'esulte directement des in\'egalit\'es $\rg(f) \leq \min\big(\dim(F),\dim(G)\big)$ et $\rg(g) \leq \min\big(\dim(E),\dim(F)\big)$ d\'ej\`a vues.
%\item[]$\bullet$ Montrons $\rg(f \circ g) \leq \rg(g)$.\\
%On a $\rg(f \circ g) = \rg\Big(f\big(g(\bc_E)\big)\Big) \leq \rg\big(g(\bc_E)\big) = \rg (g)$ en utilisant la proposition \ref{propmajorationdurangdelimagedunefamille}.1.
%\item[]$\bullet$ Montrons $\rg(f \circ g) \leq \rg(f)$.\\
%On a $\rg(f \circ g) = \dim\big(\Im (f \circ g)\big) = \dim\Big(f\big(\Im(g)\big)\Big)$. Or on a $\Im(g) \subset F$. Par croissance de l'image directe par $f$, on a~: $f(\Im(g)) \subset f(F) = \Im (f)$, donc par croissance de $\dim$ on obtient bien $\dim\Big(f\big(\Im(g)\big)\Big) \subset \dim\big(\Im(f)\big)$. D'o\`u $\rg (f \circ g) \leq \rg(f)$.\qed
%\end{itemize}
%
%\attention{\ \\Toutes les in\'egalit\'es peuvent \^etre strictes.}
%Pour $f=g=\Phi : \defapp{\K^2}{\K^2}{\vect{x\\y}}{\vect{y\\0}}$ de l'exemple \ref{LeNilpotentGenerique}, on a~:
%\begin{itemize}
%\item[]$\bullet$ $f\circ g = 0_{\L(\K^2)}$ donc $\rg(f\circ g)=0$~;
%\item[]$\bullet$ $\rg(f)=\rg(g)=\dim\left(\Vect{\vect{1\\0}}\right)=1$ donc $\min\big(\rg(f), \rg(g)\big)=1$~;
%\item[]$\bullet$ $E=F=G=\K^2$ donc $\min\big(\dim(E), \dim(F), \dim(G)\big)=2$.
%\end{itemize}
%
%\bigskip
%
%Il est un cas o\`u le rang ne baisse pas~: lorsqu'on compose avec un isomorphisme.
%\Proposition
%Soient $\bc_E$ une base de $E$, $f \in \L(F, G)$ et $g \in \L(E, F)$.\\
%On suppose que $E$ est muni d'une base $\bc_E$. Soient $f \in \L(F, G)$ et $g \in \L(E, F)$.
%\enumeration{\item Si $g$ est un isomorphisme, alors $\rg(f\circ g)=\rg(f)$.
%\item Si $f$ est un isomorphisme, alors $\rg(f \circ g)=\rg(g)$.}
%\FinProposition
%
%\Demonstration
%\begin{enumerate}[1.]
%\item Supposons que $g$ soit un isomorphisme. D'apr\`es la proposition \ref{propimagedunebasepariso}, $g(\bc_E)$ est une base de $F$. D'apr\`es la proposition \ref{proplerangestunrang}, on a donc $\rg(f)=\rg\big(f(g(\bc_E))\big)$, \cad $\rg(f)=\rg\big((f\circ g)(\bc_E)\big)=\rg(f\circ g)$.
%\item Supposons que $f$ soit un isomorphisme.
% et notons $h\in\L(G,F)$ son isomorphisme r\'eciproque.
% On a $\rg(f\circ g)=\dim\Big(f\big(g(E)\big)\Big)=\dim\big(g(E)\big)$ en reprenant les m\^emes arguments que dans la remarque \ref{SiIsomorphesAlorsMemeDimension}, qui ne n\'ecessitent pas d'hypoth\`ese de dimension (on a juste besoin de disposer d'une base de $E$). On a donc bien $\rg(f\circ g)=\rg(g)$.\qed
%\end{enumerate}
%

%\medskip

\subsection{\'Equations d'un hyperplan}

\Theoreme\label{thmcaracterisationdeshyperplans}
Les hyperplans sont exactement les noyaux des formes lin\'eaires non nulles.
\FinTheoreme

\demo

	\fbox{$\subset $ } Soit $H$ un hyperplan 
	Par définition $H $ a pour supplémentaire une droite $D = \Vect u$ où  $u\neq 0_E$
	\[
		E = H \oplus D
	\] 

	D'après la propriété fondamentale, il existe une unique AL $\varphi_2 \in \lc(D, \K)$ tel que

	\begin{align*}
		\varphi_2(u) &= 1 \\
	\end{align*}

	Cette AL est $\varphi_2: \begin{cases}
		D = \Vect u &\to \K \\
		x = \lambda u &\mapsto \lambda
	\end{cases}$ 

	D'après la propriété fondamentale généralisée, il existe une unique AL $\varphi \in \lc(E, \K)$ tel que $\begin{cases}
		\varphi_{|H} &= 0_{\lc(H, \K)} \\
		\varphi_{|D} &= \varphi_2 \\
	\end{cases}$ 

	Cette AL est $\begin{cases}
		E = H \oplus \Vect u &\to \K \\
		x = h + \lambda u &\mapsto \lambda
	\end{cases}$ 

	On a bien $\varphi \in E^{\ast} \setminus \{0_E^{\ast}\} $ ($\varphi(u) = 1$ )

	\begin{align*}
		\Ker \varphi &= \left\{ x\in E, \varphi(x) = 0 \right\} \\
		&= \{h+\lambda u, \begin{cases}
				h&\in H \\
				\lambda &\in \K \\
				\varphi(H+\lambda u) &= 0 \\
		\end{cases}\}  \\
		&= \{h+\lambda u, \begin{cases}
				h&\in  H \\
				\lambda &=  0 \\
		\end{cases}\}  \\
		&=  \{h, h \in H\}  \\
		&=  H \\
	\end{align*}

\fbox{$\supset$}

Soit  $\phi \in E^{\ast} \setminus\{0_E^{\ast}\} $. Montrons que $\Ker \varphi$ est un hyperplan

$\phi$ n'est pas nulle donc il existe un vecteur $u \in E$ tel que $\phi(u)\neq 0$

Montrons qu'on a \[
	H \oplus \Vect u = E
\] par analyse synthèse

Soit $x\in E$

\paragraph{Analyse} Considérons une décomposition convenable, c'est-à-dire $x = h + \lambda u$ avec $\begin{cases}
	h &\in H \\
	\lambda &\in \K
\end{cases}$

On applique $\phi$ :

\begin{align*}
\phi(x) &= \underbrace{\phi(h)}_{= 0} + \lambda \underbrace{\phi(u)}_{\neq 0} \\
\end{align*}

Donc \begin{align*}
	\lambda &= \frac{\phi(x)}{\phi(u)} \\
	h &= x - \frac{\phi(x)}{\phi(u)}u \\
\end{align*}

\paragraph{Synthèse} Testons nos candidats

On veut $\begin{cases}
	\lambda u \in \Vect u &: \text{ok} \\
	x = h + \lambda u &: \text{ok par construction} \\
	h \in \Ker \phi &\text{faisons-le}
\end{cases}$ 

Montrons que $h \in \Ker \phi$

\begin{align*}
	\phi(h) &= \phi(x - \frac{\phi(x)}{\phi(u)}u) \\
		&= \phi(x) - \frac{\phi(x)}{\phi(u)}\phi(u) \quad&\text{par linéarité de $h$} \\
		&= 0_{\K} \\
\end{align*}


\cqfd

\begin{appl}
\begin{enumerate}
	\item On retrouve que l'ensemble des matrices de trace nulle forme un hyperplan de $\mnk$ car \\
		$\text{matrices de trace nulle} = \Ker \underbrace{\Tr}_{\text{forme linéaire non nulle car $\Tr I_n = n \neq 0$ (avec $n\ge 1$ )}}$
\item On retrouve que $\big\{f\in\cc(\R,\R),\ \int_0^1 f = 0\big\}$ est un hyperplan car \\
$\big\{f\in\cc(\R,\R),\ \int_0^1 f = 0\big\} = \Ker \int_0^1$ avec $\int_0^1$ qui est une forme linéaire non nulle car $\int_0^1 \id = \frac{1}{2} \neq  0$
\end{enumerate}
\end{appl}

\begin{appl}
\begin{enumerate}
\item Pour $E=\R^n$, on retrouve que les hyperplans 

	Une forme linéaire sur $KE$ est une AL $f\in \lc(\R^n, \R)$

	Donc de la forme \[
	\begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} \mapsto  (a_1 \ a_2 \ \ldots \ a_n)  \times  \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} 
	\] 

Le noyau d'une FL est de la forme \[
	\{\begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} \in \R^{n}, a_1x_1 + \ldots + a_n x_n = 0\} 
\] 

 \begin{align*}
	f\neq 0 \iff \begin{pmatrix} a_1 \\ \vdots \\ a_n \end{pmatrix} \neq \begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix} 
\end{align*}

\item En particulier, pour $E=\R^3$, on retrouve que\\[0.cm]
Un plan de $\R^3$ a une équation de la forme $ax + by +cz = 0$ avec $\begin{pmatrix} a \\ b\\c \end{pmatrix} \neq  \begin{pmatrix} 0\\0\\0 \end{pmatrix} $
\end{enumerate}
\end{appl}

\dfn
Soit $H$ un hyperplan de $E$. On appelle \newdef{\'equation de $H$} une expression de la forme $\phi(x) = 0$ o\`u $\phi$ est une forme lin\'eaire telle que $\mathrm{Ker}(\phi) = H$.
D'apr\`es le th\'eor\`eme \ref{thmcaracterisationdeshyperplans}, tout hyperplan a une \'equation.
\nfd


%Il n'y a aucune hypoth\`ese de dimension dans le th\'eor\`eme pr\'ec\'edent. 
%Nous avons d\'ej\`a vu deux cas particuliers illustrant ce th\'eor\`eme au chapitre \ref{EspacesVectoriels}, exemples \ref{SuitesDeLimiteNulle} et \ref{MatricesDeTraceNulleHyperplan}. On va d'ailleurs fortement s'inspirer de ces exemples pour traiter le sens r\'eciproque (le lecteur est encourag\'e \`a essayer par lui-m\^eme s'il a compris ces exemples~!)
%
%\Demonstration
%Rappelons qu'on note $E^*$ l'espace vectoriel des formes lin\'eaires sur $E$. On veut montrer~: $\Big\{ \text{hyperplans de }E \Big\} = \Big\{ \Ker(\Phi),\ \Phi \in E^* \setminus \{0\} \Big\}$.\\
%
%\fbox{$\subset$} Soit $H$ un hyperplan. Par d\'efinition, il existe un vecteur $u \in E \setminus \{0\}$ tel que $H \oplus \Vetct(u) = E$.\\
%Posons $\phi : \defapp{E = H \oplus \Vetct(u)}{\K}{x = x_h + \lambda u~~~~~}{\lambda}$.\\
%Montrons que $\phi$ est lin\'eaire.\\
%Soit $(x, y) \in E^2$ et $(\alpha, \beta) \in \K^2$. Comme on a $E = H \oplus \Vetct(u)$, on peut \'ecrire
%$\lect{\exists ! (x_h, \lambda) \in H \times \K,\ x =  x_h + \lambda u\\
%\exists ! (y_h, \mu) \in H \times \K,\ y =  y_h + \mu u}$.\\
%Ainsi~: $(\alpha x + \beta y ) = (\alpha x_h + \beta y_h) + (\alpha \lambda + \beta \mu) u$ avec $\lect{(\alpha x_h + \beta y_h) \in H \\ (\alpha \lambda + \beta \mu) u \in \Vetct(u)}$.\\
%Par unicit\'e d'une telle d\'ecomposition on a donc $\phi (\alpha x + \beta y) = \alpha \lambda + \beta \mu$.\\
%Par ailleurs, on a $\phi(x) = \lambda$ et $\phi (y) = \mu$, donc $\alpha \phi(x) + \beta \phi(y)= \alpha \lambda + \beta \mu$.\\
%Ainsi $\phi (\alpha x + \beta y) =\alpha \phi(x) + \beta \phi(y)$. 
%D'o\`u la lin\'earit\'e de $\phi$.\\
%De plus, $\phi$ est non nulle. C'est imm\'ediat car on a $\phi(u) = \phi( 0_H + 1 u) = 1 \neq 0$.\\
%Montrons maintenant $\Ker(\phi) = H$.\\
%Enfin, soit $x= x_h + \lambda u\in E$. On a $x \in \Ker(\phi) \Leftrightarrow \phi(x) = 0_E \Leftrightarrow \lambda=0 \Leftrightarrow x = x_h \Leftrightarrow x \in H$. D'o\`u $\Ker(\phi) = H$.\\
%Tout hyperplan est bien le noyau d'une forme lin\'eaire non nulle.\\
%
%\fbox{$\supset$} Soit $\Phi$ une forme lin\'eaire non nulle. Ainsi $\Phi \in \L(E, \K)$ et $\exists x_0 \in E$ tel que $\Phi(x_0) \neq 0_E$. On veut montrer que $\Ker(\Phi)$ est un hyperplan, \cad qu'il existe une droite suppl\'ementaire de $\Ker(\Phi)$.\\
%Posons $D = \Vetct(x_0)$~; c'est une droite car $x_0 \neq 0_E$.\\
%Montrons qu'on a $ \Ker(\Phi)\oplus D = E$. %, \ie $\Ker(\Phi)+ D = E$ et $\Ker(\Phi)\cap D = \{ 0_E\}$.\\
%Soit $x \in E$. Montrons qu'il existe un unique couple $(y, z) \in \Ker(\Phi)\times D$ tel que $x = y + z$ en proc\'edant par analyse-synth\`ese.\\
%\analysesynthese{Soit $x=y+z$ une d\'ecomposition convenable avec $y\in \Ker(\Phi)$ et $z\in D$. En particulier $z$ s'\'ecrit $z=\lambda x_0$ pour un certain $\lambda\in\K$. En appliquant $\Phi$, on trouve $\Phi(x)=\underbrace{\Phi(y)}_{=0}+\Phi(\lambda x_0) = \lambda \underbrace{\Phi(x_0)}_{\neq 0}$ et donc $\lambda=\dfrac{\Phi(x)}{\Phi(x_0)}$ et par suite $z=\dfrac{\Phi(x)}{\Phi(x_0)}x_0$ et $y=x-\dfrac{\Phi(x)}{\Phi(x_0)}x_0$. On a un unique candidat pour le couple $(y,z)$.\\[-0.4cm]}{V\'erifions que ce candidat convient. \begin{itemize}
%\item[]$\bullet$ On a bien $z\in D$, par construction~!
%\item[]$\bullet$ On a $\Phi(y)=\Phi\left(x-\dfrac{\Phi(x)}{\Phi(x_0)}x_0\right)=\Phi(x)-\dfrac{\Phi(x)}{\Phi(x_0)}\Phi(x_0)=0$. On a donc bien $y\in\Ker(\Phi)$.
%\item[]$\bullet$ On a bien $y+z=x$, par construction~!
%\end{itemize}
%L'unique candidat trouv\'e convient bien.}{On a montr\'e $ \Ker(\Phi)\oplus D = E$.}\\
%Et finalement, toute forme lin\'eaire non nulle a bien pour noyau un hyperplan.\qed
%
%\medskip
%\newpage
%
%\begin{appls}
%\begin{enumerate}[1.]
%\item Comme la trace est une forme lin\'eaire non nulle, on retrouve le r\'esultat vu dans le chapitre \ref{EspacesVectoriels}, p.\pageref{MatricesDeTraceNulle}~: $\big\{ M \in M_n(\K),\ \tr(M) = 0 \big\} $ est un hyperplan de $\mnk$.
%\item Comme la limite est une forme lin\'eaire non nulle sur l'espace des suites convergentes, on retrouve que le sous-espace des suites de limite nulle en forme un hyperplan.
%\item De m\^eme, $\big\{ f \in \cc([0, 1], \R),\ \int_0^1 f = 0 \big\}$ est un hyperplan de $\cc([0, 1], \R)$.
%\item De m\^eme, pour tout $\alpha\in \K$, $\big\{ P \in \K[X],\ P(\alpha) = 0 \big\}$ est un hyperplan de $\K[X]$.\qed
%\end{enumerate}
%\end{appls}
%
%\medskip
%
%\Definition
%Soit $H$ un hyperplan de $E$. On appelle \newdef{\'equation}\index{equation@\'equation!d'un hyperplan}\index{hyperplan!\'equation d'un --} de $H$ une expression de la forme $\phi(x) = 0$ o\`u $\phi$ est une forme lin\'eaire telle que $\Ker(\phi) = H$.
%D'apr\`es le th\'eor\`eme \ref{thmcaracterisationdeshyperplans}, tout hyperplan a une \'equation.
%\FinDefinition
%
%\begin{exemple}\label{UneEquationDHyperplanK3}Pour %$E=\R^3$
% $E = \K^3$, le sous-espace vectoriel $H = \Vect{\vect{1 \\2\\3}, \vect{4\\5\\6}}$ est un plan, car les deux vecteurs ne sont pas colin\'eaires. Donc $H$ est un hyperplan, puisqu'on a $\dim(E) = 3$.
%Une \'equation de $H$ est donn\'ee par le vecteur normal $ \vect{1 \\2\\3} \wedge \vect{4\\5\\6} = \vect{-3\\6\\-3} $ ou encore $\vect{1\\-2\\1}$ qui lui est colin\'eaire.
%Cherchons une \'equation de $H$. On a~:\\[0.3cm]
%$\begin{array}{lcl}
%\vect{x\\y\\z}\in H & \Longleftrightarrow & \exists a\in\K,\ \exists b\in\K,\ \vect{x\\y\\z}=a\vect{1 \\2\\3}+b\vect{4\\5\\6}\\[0.4cm]
%& \Longleftrightarrow & \exists a\in\K,\ \exists b\in\K,\ {\footnotesize\lect{x=a+4b\\y=2a+5b\\z=3a+6b}}\\[0.4cm]
%& \Longleftrightarrow & \exists a\in\K,\ \exists b\in\K,\ {\footnotesize\lect{a=x-4b\\y=2(x-4b)+5b\\z=3(x-4b)+6b}}\\[0.3cm]
%& \Longleftrightarrow & \exists b\in\K,\ {\footnotesize\lect{y=2x-8b+5b\\z=3x-12b+6b}}\\[0.3cm]
%& \Longleftrightarrow & \exists b\in\K,\ {\footnotesize\lect{b=\dfrac{2x-y}{3}\\z=3x-2(2x-y)}}\\[0.3cm]
%& \Longleftrightarrow & z=3x-2(2x-y)%\\%[0.3cm]
%& \Longleftrightarrow & x-2y+z = 0.
%\end{array}$\ \\[0.3cm]
%Apr\`es calcul, on en d\'eduit que $H$ a pour \'equation $x -2y+z = 0$.
%$ H = \{ \vect{x\\y\\z}, x -2y+z = 0\}$
%\end{exemple}
%
%\attention{Une \'equation d'hyperplan n'est jamais unique. Si on a $H=\big\{x\in E,\ \phi(x)=0\big\}$, alors on a aussi $H=\big\{x\in E,\ (9\phi)(x)=0\big\}$.}
%
%\bigskip
%
%Plus pr\'ecis\'ement~:
%\Proposition
%Soit $H$ un hyperplan de $E$. Toutes les \'equations de $H$ sont de la forme $\lambda\phi(x)=0$, o\`u $\lambda$ est un scalaire non nul et $\phi(x)=0$ une \'equation de $H$.
%\FinProposition
%
%\Demonstration
%Soit $H$ un hyperplan de $E$ et $\phi(x)=0$ une \'equation de $H$. Par d\'efinition il existe une droite $D=\Vect{x_0}$ telle que $H\oplus D = E$. On veut montrer que toute \'equation de $H$ est de la forme $\lambda\phi(x)=0$. Soit $\psi(x)=0$ une autre \'equation de $H$~; montrons qu'il existe $\lambda\in\K\setminus\{0\}$ tel que $\psi=\lambda\phi$. On a $x_0\notin H$ donc $\phi(x_0)\neq 0$. Notons $\lambda=\dfrac{\psi(x_0)}{\phi(x_0)}$.\\ Soit $x\in E$. Comme on a $H\oplus D = E$, il existe $x_H\in H$ et $a\in\K$ tels que $x=x_H+ax_0$. On a donc $\lambda\phi(x)=\lambda\phi(x_H+ax_0)=a\lambda\phi(x_0)$ par lin\'earit\'e et car $x_H\in H$. Comme on a $\lambda=\dfrac{\psi(x_0)}{\phi(x_0)}$, on trouve bien $\lambda\phi(x)=\psi(x)$. Ceci \'etant vrai pour tout $x\in E$, on a donc $\psi=\lambda \phi$.
%\qed
%
%
%
%
\subsection{Th\'eor\`eme d'isomorphisme}

%La sous-section pr\'ec\'edente montre comment reconstituer une application lin\'eaire \`a l'aide d'applications lin\'eaires plus atomiques. \`A l'inverse, on peut toujours ramener l'\'etude d'une application lin\'eaire $f$ \`a l'\'etude d'applications lin\'eaires plus \'el\'ementaires obtenues par restriction sur les termes d'une somme directe. Un cas int\'eressant est obtenu en d\'ecomposant $E$ sous la forme $E=\Ker(f)\oplus S$.


\Theoreme[Th\'eor\`eme d'isomorphisme]\label{TheoremedIsomorphismeSupplementaireduNoyauetImagechapApplLin}
Soient $E$ et $F$ deux $\K$-espaces vectoriels et $f\in \L(E,F)$.\\
Soit $S$ un suppl\'ementaire de $\mathrm{Ker}(f)$ dans $E$. Alors $f_{{}_{|S}}^{{}^{|\mathrm{Im}(f)}}$ est bien d\'efinie et c'est un isomorphisme. \\
 On dit que \newdef{$f$ induit un isomorphisme de $S$ sur $\mathrm{Im}(f)$}.
\FinTheoreme

\demo
Soit $f\in \lc(E, F)$
$\Ker f \text{ sev } E$
$\Ker f \oplus S = E$
 \[
	f_{|S}^{|\operatorname{Im} f} : \begin{cases}
		S &\to  \operatorname{Im} f \\
		x &\mapsto f(x)
	\end{cases}
\] 

\begin{itemize}
	\item $f_{|S}^{|\operatorname{Im} f}$ est bien défini car $\begin{cases}
			S &\subset E \\
			\operatorname{Im} f &\subset \\
			f^{\to }(A) &\subset B
		\end{cases}$ par définition et car  
		\begin{align*}
			f^{\to }(S) &= \{f(x), x \in S\}  \\
				    &\subset \{f(x), x \in E\}  \quad&\text{car $S\subset E$}
				    &= \operatorname{Im} f \\
		\end{align*}
	\item $f_{|S}^{|\operatorname{Im} f}$ est linéaire comme {co,}restriction d'AL.
	\item $f_{|S}^{|\operatorname{Im} f}$ est surjective :
		\begin{align*}
			\operatorname{Im} f &= \{f(x), x\in E\}  \\
					    &= \{f(k+s), (k, s)\in \Ker f  \times S\} \quad&\text{car $\ker f \oplus S = E$} \\
					    &= \{\cancel{f(k)} + f(s), (k, s) \in \Ker f  \times S \}  \\
					    &= \{f(s), s\in S\}  \\
					    &= f^{\to }(S) \\
		\end{align*} 

		On a $f^{\to }(S) = \operatorname{Im} f $ donc $f_{|S}^{|\operatorname{S}}$ est bien surjective
	\item $f_{|S}^{|\operatorname{Im} f}$ est injective
		\begin{align*}
			\Ker\left( f_{|S}^{|\operatorname{Im} f} \right) &= \Ker f_{|S} \\
			&= \Ker f \cap S \\
			&= \{0_E\} \quad&\text{car $\Ker f \oplus S = E$} \\
		\end{align*}

\end{itemize}
\cqfd


Le th\'eor\`eme d'isomorphisme g\'en\'eralise le sens r\'eciproque du th\'eor\`eme de caract\'erisation des hyperplans. Pourquoi~?\\\\\\
%
%\Demonstration
%\begin{itemize}
%\item[]$\bullet$ Voyons d\'ej\`a que $f_{{}_{|S}}^{{}^{|\Im(f)}}$ est bien d\'efinie. On l'a vu, cela revient \`a voir qu'on a\\ $f(S)\subset\Im(f)$. Mais ceci est \'evident par d\'efinition de l'image.
%\item[]$\bullet$ Voyons que $f_{{}_{|S}}^{{}^{|\Im(f)}}$ est injective~: d'apr\`es la remarque \ref{NoyauDUneRestriction}, on a\\
%$\Ker\left(f_{{}_{|S}}^{{}^{|\Im(f)}}\right)=\Ker(f)\cap S=\{0_E\}$ puisque $\Ker(f)$ et $S$ sont suppl\'ementaires.\\ D'o\`u l'injectivit\'e.
%\item[]$\bullet$ Voyons que $f_{{}_{|S}}^{{}^{|\Im(f)}}$ est surjective, \cad que tout \'el\'ement de $\Im(f)$ a un ant\'ec\'edent \textbf{dans {\mathversion{bold}{$S$}}} par $f$. Soit $y\in \Im(f)$. Par d\'efinition de $\Im(f)$, $y$ a un ant\'ec\'edent \textbf{dans {\mathversion{bold}{$E$}}} par $f$. Notons $x$ un tel ant\'ec\'edent. Par d\'efinition d'une somme directe, il existe un unique couple $(x_{\Ker(f)},x_{S})\in\Ker(f)\times S$ tel que $x=x_{\Ker(f)}+x_{S}$. En appliquant $f$ on trouve $f(x_{\Ker(f)}+x_S)=f(x)$, \cad $f(x_S)=y$. \\Ainsi $y$ a bien un ant\'ec\'edent dans $S$~: $x_S$. %Ceci \{etant vrai pour tout $y\in Im(f)$, ...
% D'o\`u la surjectivit\'e.\qed
%\end{itemize}
%
%
\exx

 \[
	\begin{cases}
		\K[X] &\to \K[X] \\
		P &\mapsto X^2 P'
	\end{cases}
\] 

\begin{align*}
	f_{|S}^{|\operatorname{Im} f} \begin{cases}
		X\K[X] &\to X^2\K[X] \\
		P(X) = a_1 X + a_2 X^2 + \ldots + a_n X^n &\mapsto X^2 P'(X) = a_1 X^2 + \ldots + n a_n X^{n+1}
	\end{cases} \text{ est un isomorphisme}
\end{align*}

D'ailleurs \begin{align*}
	\left( f_{|S}^{|\operatorname{Im} f} \right) ^{-1}: \begin{cases}
		X^2\K[X] &\to \K[X] \\
		P(X) = \alpha_2 X^2 + \ldots. + \alpha_n X^n &\mapsto \alpha_2 X + \frac{\alpha_3}{2} X^2 + \ldots + \alpha_\frac{n}{n_1}X^{n-1} = \int_0^X \frac{P(t)}{t^2} \dt
	\end{cases}
\end{align*}

En particulier $X \K[X] \simeq X^2 \K[X]$

\begin{align*}
	\Ker f &= \K_0[X] = \K  \\
	\operatorname{Im} f &= X^2 \K[X] \\
\end{align*}

Un supplémentaire de $\Ker f$ est $S = X \K[X]$

\xxe

\section{Applications lin\'eaires en dimension finie}

\subsection{Th\'eor\`eme du rang}

\Theoreme[formule du rang]
Soit $E$ et $F$ deux $\K$-espaces vectoriels et $f\in\lc(E,F)$. {\bf On suppose que $E$ est de dimension finie.}\subline\break Alors $\dim\big(\mathrm{Ker}(f)\big) +\dim\big(\mathrm{Im}(f)\big) = \dim(E)$ \ie $\rg(f) = \dim(E)- \dim(\mathrm{Ker}(f))$.
\FinTheoreme


\demo C'est un corollaire assez imm\'ediat du th\'eor\`eme d'isomorphisme.
Soit $S$ un supplémentaire de $\Ker f$ qui existe car $\dim E \in \N$

On a $S \simeq \operatorname{Im} f$ car $f_{|S}^{|\operatorname{Im} f}$ est un isomorphisme donc $\dim \operatorname{Im} f = \dim S$ ie $\rg f = \dim E - \dim \Ker f$ car  $E = \Ker f \oplus S$
\cqfd

\begin{appl}
Calcul rapide de noyau avec le th\'eor\`eme du rang~: d\'eterminons $\mathrm{Ker}\left(\begin{array}{ccc}1&2&3\\1&2&3\\1&2&3\\1&2&3\end{array}\right)$.

\begin{align*}
	f_M : \begin{cases}
		\K^{3} &\to \K^{4} \\
		x &\mapsto M \times x
	\end{cases}
\end{align*}

D'après le théorème du rang, 

\begin{align*}
	\dim \Ker M &= 3 -\rg M \\
		    &= 3 - \dim \Vect{\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix} , \begin{pmatrix} 2\\2\\2\\2 \end{pmatrix} , \begin{pmatrix} 3\\3\\3\\3 \end{pmatrix} } \\
		    &= 3 - \dim \Vect{\begin{pmatrix} 1\\1\\1\\1 \end{pmatrix}} \\
		    &= 3 - 2 \\
		&= 2
\end{align*}

Or $\left( \begin{pmatrix} 2\\-1\\0 \end{pmatrix} , \begin{pmatrix} 3\\0\\-1 \end{pmatrix}  \right)$ forme une famille libre de $\Ker M$,  \emph{c'est donc une base de $\Ker M$} 


\end{appl}

\subsection{Applications imm\'ediates du th\'eor\`eme du rang}

\begin{appl}
On retrouve que pour $E$ un $\K$-espace vectoriel de dimension finie $n$, un hyperplan est exactement un \sev de dimension $n-1$.
\begin{align*}
	H &\text{ hyperplan} \\
	\iff H &\text{ est le noyau d'une forme linéaire non-nulle}
\end{align*}

Il suffit de montrer que les sevs dimension $n-1$ sont exactement les noyaux de formes linéaires non-nulles

\begin{itemize}
	\item Si $H = \Ker \phi$ avec $\phi\in \lc(E, \K)\setminus \{0_E\} $ 

		Alors \begin{align*}
			\dim H &= \dim \Ker \phi \\
			       &= n - \dim \operatorname{Im} \phi \\
			       &= n-1 \quad&\text{car $\phi\neq 0_{E^{\ast}}$} \\
		\end{align*}
	
	\item Si $\dim H = n-1$

		$H$ a un supplémentaire $S$ et $\dim S = n - (n-1) = 1$
		donc  $H$ hyperplan
\end{itemize}

\end{appl}

\begin{appl}
On retrouve la formule de Grassmann.

\[
	\dim(F+G) = \dim F + \dim G - \dim(F \cap G)
\] 

Considérons $\phi : \begin{cases}
	F \times G &\to F+G \\
	(f, g) &\mapsto f+g
\end{cases}$ et $ \psi : \begin{cases}
	F\cap G &\to F \times G \\
	x &\mapsto (x, -x)
\end{cases}$

On a donc
\begin{align*}
	\operatorname{Im} \phi &= F + G \implies \phi \in \surjections \\
	\Ker \phi &= \{(f, g) \in F \times G, f+g = 0\}  \\
		  &= \{(f, g) \in F \times G, g = -f\}  \\
		  &= \{(x,-x), x\in F\cap G\}  \\
		  &= \operatorname{Im} \psi \\
	\Ker \psi &= \{0_{F \times G}\}  \\
\end{align*}

Donc $F\cap G \simeq \operatorname{Im} \psi = \Ker \phi$

\begin{align*}
	\dim(F\cap G) &= \dim \Ker \phi \\
		      &= \dim (F \times G) - \dim \operatorname{Im} \phi \quad&\text{d'après théorème du rang} \\
		      &= \dim F + \dim G - \dim(F+G) \\
\end{align*}

\end{appl}

\begin{appl}
On peut enfin montrer le r\'esultat vu en \textsc{Tacmas} (essentiellement \'equivalent au th\'eor\`eme du rang)~: le rang par lignes d'une matrice est le m\^eme que son rang par colonnes.


\begin{itemize}
	\item 
Effectuer des OEs\footnote{opérations éléméntaires} sur les colonnes de $A$ :

\begin{itemize}
	\item ne modifie pas $\operatorname{Im} A$ 
	\item mais modifie $\Ker A$
\end{itemize}

\begin{align*}
	A &= \left( \decomp{c_1}{}, \ldots, \decomp{C_q}{} \right)  \\
	\operatorname{Im} A &= \Vect{\decomp{c_1}{}, \ldots, \decomp{C_q}{}} \\
\end{align*}

\[
	\left( \operatorname{Im} f = \Vect f(\bc) \text{ où $\bc$ une base}  \right)  \\
\] 

\item Effectuer des OEs sur les lignes de $A$ :
	\begin{itemize}
		\item modifie $\operatorname{Im} A$ 
		\item ne modifie pas $\Ker A$
	\end{itemize}
\end{itemize}

Notons $r_c$ le rang par colonnes de $A$ et $r_l$ le rang par lignes de $A$

On a \begin{align*}
	\rg A &= \rg(f_A) \\
	      &= \rg (f_A(e_1), \ldots, f_A(e_q)) \\
	      &= rg\left( \decomp{c_1}{}, \ldots, \decomp{c_q}{} \right)  \\
\end{align*}

$r_c$ est le nombre de colonnes non nulles  la fin de l'alogirthme de Fauss ru les colonnes

\begin{align*}
	A &\sim_C E_c \quad&\text{ avec $E_c$ échelonnés par colonnes} \\
\iff	E_c &= \begin{pmatrix} voir la photo lol  \end{pmatrix}  \\
	\implies r_c &= \rg E_c \\
	&= \rg A \\
\end{align*}

$r_l$ est le nombre de lignes non-nulles à la fin de Gauss sur les lignes

\begin{align*}
	A &\sim_L E_l \quad&\text{échelonnée par lignes} \\
	\iff E_l &= \begin{pmatrix} voir photo lol \end{pmatrix}  \\
	\dim \Ker A &=  \dim \Ker E_l \\
	&= n-r_L \\
\end{align*}

\begin{align*}
	r_L &= n-\dim \Ker A \\
	&= \rg A  \\
	&= r_C \\
\end{align*}

\end{appl}


\subsection{Th\'eor\`eme du rang et *jectivit\'e}

\Theoreme[Caract\'erisation par le rang]
Soient $E$ et $F$ deux $K$-espaces vectoriels de dimensions finies. % $\dim(E)=n$ et $\dim(F)=m$. 
 Soit $f\in\lc(E,F)$. Alors on a~:
\begin{enumerate}[i/]
\item $f$ est surjective \ssi $\rg(f)=\dim(F)$~;
\item $f$ est injective \ssi $\rg(f)=\dim(E)$~;
\item $f$ est bijective \ssi $\rg(f)=\dim(E)=\dim(F)$.
\end{enumerate}
\FinTheoreme
On retrouve en particulier que la dimension est invariante par isomorphisme.

\demo

\begin{enumerate}[i/]
	\item \begin{align*}
			f \in \surjections &\iff \operatorname{Im} f = F
	\end{align*}

	\emph{Or on sait que} $\operatorname{Im} f \subset F$ donc

	\begin{align*}
		\operatorname{Im} f &= F \\
		\iff \underbrace{\dim \operatorname{Im} f}_{\rg f} &= \dim F \quad&\text{propriété fondamentale sur les sevs ddf}\\
	\end{align*}

	\item \begin{align*}
			f \in \injections &\iff \Ker f = \{0_E\}  \\
					  &\iff \dim \Ker f = 0
					&\iff \dim E = \rg f \quad&\text{d'après le théorème du rang}
	\end{align*}

	\item $i/ \land ii/$

\end{enumerate}

\cqfd


\Theoreme[Caract\'erisation des isomorphismes]
Soient $E$ et $F$ deux $K$-espaces vectoriels \underline{de m\^eme dimension finie} $n$. % $\dim(E)=n$ et $\dim(F)=m$. 
 Soit $f\in\lc(E,F)$. %Alors les propositions suivantes s
 Sont \'equivalentes~:
\begin{enumerate}[i/]
\item $f$ est injective~;
\item $f$ est surjective~;
\item $f$ est un isomorphisme.
\end{enumerate}
\FinTheoreme

\demo
\begin{align*}
	f \in \injections &\iff\rg f = \dim E \\
			  &\iff\rg f = n \\
			  &\iff \rg f = \dim F \\
			  &\iff f \in \surjections
\end{align*}
\cqfd


\rmq
On a un analogue ensembliste~: Soit $A, B$ deux ensembles tels que $\#A = \#B := n \in \N$.

Alors

\begin{align*}
	f : A\to B &\in \injections \\
	\iff f &\in \surjections \\
		\iff f & \in \bijections
\end{align*}
\qmr

\bigskip

\begin{appl}
On peut reprendre CCP $n^\circ$ 87 avec la m\'ethode du corrig\'e.\\
\end{appl}

\bigskip

En corollaire imm\'ediat~:
\Theoreme[Caract\'erisation des automorphismes]
Soient $E$ un $K$-espace vectoriel de dimension finie.
Soit $f\in\lc(E)$.
Sont \'equivalentes~:
\begin{enumerate}[i/]
\item $f$ est inversible \`a gauche~;
\item $f$ est inversible \`a droite~;
\item $f$ est un automorphisme.
\end{enumerate}
\FinTheoreme

\subsection{Deux applications de la th\'eorie au calcul matriciel}

\begin{appl}
Soit $A\in\mnk$, nilpotente. Alors l'indice de nilpotence de $A$ est inf\'erieur ou \'egal \`a $n$.
\end{appl}

\demo On peut le faire sans application lin\'eaire avec la m\'ethode du DS $n^\circ$ 11 version normale, ou avec application lin\'eaire avec la m\'ethode des noyaux it\'er\'es.
\cqfd

\begin{appl}
Soit $A\in\mnk$. 
Sont \'equivalentes~:
\begin{enumerate}[i/]
\item $A$ est inversible \`a gauche~;
\item $A$ est inversible \`a droite~;
\item $A$ est inversible.
\end{enumerate}
\end{appl}

\demo

\begin{itemize}

	\item[ i/ $\implies$ ii/] Supposons $A$ inversible à gauche ie il existe $B\in \mc_4(\K)$ tel que $BA = I_n$

	Pour $\begin{cases}
		f_A &: \begin{cases}
			\K^n &\to \K^n \\
			x &\mapsto Ax
		\end{cases} \\
		f_B &: \begin{cases}
			\K^n &\to \K^n \\
			x &\mapsto Bx
		\end{cases}
	\end{cases}$ 

	Or $f_B\circ f_A : \begin{cases}
		\K^n &\to \K^n \\
		x &\mapsto \underbrace{B \times A}_{I_n} \times x
	\end{cases} = \id$

	donc $f_A$ a un inverse à gauche

	donc $f_A$ est injective

	donc $f_A$ est un isomorphisme

	donc $f_B = \left( f_A \right)^{-1}$ 

	donc $\underbrace{f_A\circ f_B}_{f_{A \times B}} = \id_{\K^n}$ 

	donc $A \times B = I_n$
	
	\item[ii/ $\implies$ iii/] ok
	\item[i/ $\implies$ iii/] ok

\end{itemize}

\cqfd


\section{Endomorphismes remarquables}

Dans toute la section, $E$ d\'esigne un $\K$-espace vectoriel.% On va s'int\'eresser \`a plusieurs familles d'endomorphismes remarquables de $E$.

\subsection{Endomorphismes nilpotents}

\Definition
Un endomorphisme $f \in \L(E)$ est dit \newdef{nilpotent} lorsque c'est un \'el\'ement nilpotent de l'anneau $(\L(E), +, \circ)$.\\[0.1cm]%, c'est \`a lorsqu'il existe $k \in \N$ tel que $f^k = 0_{\L(E)}$.\\
L'unique entier $p$ tel que $f^{p-1} \neq 0_{\L(E)}$ et $f^p = 0_{\L(E)}$ s'appelle \newdef{l'indice de nilpotence} de $f$.
\FinDefinition

\exx
\begin{itemize}
	\item 
Considérons $\begin{cases}
	\K^2 &\to  \K^2 \\
	\begin{pmatrix} x\\y \end{pmatrix} &\mapsto \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}  \times \begin{pmatrix} x\\y \end{pmatrix} = \begin{pmatrix} y\\0 \end{pmatrix} 
\end{cases}$ est nilpotente d'indice de nilpotence 

\begin{align*}
	f \begin{pmatrix} x\\y \end{pmatrix} &= \begin{pmatrix} y\\0 \end{pmatrix}  \\
	f^2 \begin{pmatrix} x\\y \end{pmatrix} &= f \begin{pmatrix} y\\0 \end{pmatrix} = \begin{pmatrix} 0\\0 \end{pmatrix}  \\
\end{align*}

\item $f: \begin{cases}
		\K_n[X] &\to \K_n[X] \\
		P &\mapsto P'
\end{cases}$ est nilpotent d'indice $n+1$ mais $\begin{cases}
	\K[X]&\to \K[X] \\
	P &\mapsto P'
\end{cases}$ n'est \emph{pas nilpotent} 

\item L'application $\begin{cases}
		\C &\to \C \\
		z &\mapsto \operatorname{Im} z
\end{cases}$ est nilpotente d'indice 2

\end{itemize}

\xxe

\Proposition
Si $\dim(E)<+\infty$ et $f\in\lc(E)$ est nilpotent, alors l'indice de nilpotence de $f$ est plus petit que $\dim(E)$.
\FinProposition

\demo La preuve est la m\^eme dans le cas g\'en\'eral que dans le cas des $f_A$ avec $A$ une matrice nilpotente. \cqfd


\subsection{Projections}

On veut {\bf g\'en\'eraliser} la notion de projection orthogonale. Faisons un dessin dans $\R^3$.\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\

\begin{figure}[h]
	\centering
	\includegraphics[width=0.8\textwidth]{./fig_projections.png}
\end{figure}

\begin{align*}
	P^G_F &\begin{cases}
		E = F\oplus G &\to E \\
		x = x_F + x_G &\mapsto x_F
	\end{cases} \\
	P^F_G &\begin{cases}
		E = F \oplus G &\to E \\
		x = x_F + x_G &\mapsto x_G
	\end{cases}
\end{align*}

\Propdef
Soient $F$ et $G$ deux sous-espaces suppl\'ementaires de $E$.\\[0.2cm]
Il existe un unique endomorphisme $p=p_F^G$ de $E$ tel que $p_{{}_{|F}}=\id_F$ et $p_{{}_{|G}}=0_{\lc(G)}$.\\[0.2cm]
On l'appelle {\bf projection (vectorielle) sur $F$ parall\`element \`a $G$}.\\[0.2cm]
Dit plus simplement~: $p_F^G : \defapp{E=F \oplus G}{E}{x=x_F+x_G}{x_F}$.
\FinPropdef
Remarque~: pour plus de clart\'e, j'ai \'ecrit $\id_F$ l'application $\defapp{F}{E}{x}{x}$ qui plus rigoureusement est l'injection canonique de $F$ dans $E$.\\[0.2cm]
Remarque terminologique~: on peut aussi dire projecteur au lieu de projection.\\[-0.25cm]

\demo C'est un cas particulier de la propriété fondamentale généralisée \cqfd

\exx
Consid\'erons $E=\K^2$. On sait qu'on a $\Delta\oplus (Ox)=\K^2$, o\`u $\Delta=\Vect{\mvect{1\\1}}$ et $(Ox)=\Vect{\mvect{1\\0}}$.\\[0.3cm]
Cherchons l'expression analytique de la projection sur $\Delta$ parall\`element \`a $(Ox)$.

\begin{figure}[h]
	\centering
	\includegraphics[width=0.8\textwidth]{./fig_projections_R2.png}
\end{figure}

Décomposons $\begin{pmatrix} x\\y \end{pmatrix} $ dans la somme directe $\Delta \oplus (Ox) = \K^2$
On cherche $\begin{pmatrix} t\\t \end{pmatrix} \in \Delta$ et $\begin{pmatrix} \mu \\ 0 \end{pmatrix} \in (Ox)$ tels que

\begin{align*}
	\begin{pmatrix} x\\y \end{pmatrix} &= \begin{pmatrix} t\\t \end{pmatrix}  + \begin{pmatrix} \mu\\0 \end{pmatrix} \\
					   &\iff \begin{cases}
		x&= t+\mu \\
		y&= t \\
	\end{cases} \\
					   &\iff \begin{cases}
		\mu &= x-y \\
		t&= y \\
	\end{cases}
\end{align*}

\xxe

\exx
Consid\'erons $\K=\R$ et  $E = \R^{\R}$.\\ 
L'application \og partie paire \fg $f \mapsto P(f) = x \mapsto \frac{f(x) + f(-x)}{2}$ est la projection sur l'espace des fonctions paires $\pc$ parall\`element \`a l'espace des fonctions impaires $\ic$.\\

$f\in \R\\R$ s'écrit $f = \underbrace{f_p}_{\in \pc} + \underbrace{f_i}_{\in \ic}$

où \begin{align*}
	f_p &= x\mapsto \frac{f(x)+f(-x)}{2} \\
	f_i &= x\mapsto \frac{f(x)-f(-x)}{2} \\
\end{align*}

\xxe

\rmq
Soient $F$ et $G$ deux sous-espaces suppl\'ementaires de $E$. Alors on a~:
\begin{enumerate}[i/]
\item $p_G^F = \id_E - p_F^G$~;
\item $p_G^F \circ p_F^G = p_F^G \circ p_G^F = 0_{\L(E)}$.
\end{enumerate}
\qmr

\demo

Pour $x\in E$ notons $x=\underbrace{x_F}_{\in F} + \underbrace{x_G}_{\in G}$ 

\begin{itemize}
	\item $P_G^F(x) + P_G^F(x_F + x_G) = x_G = x_F + x_G - x_F = x-x_F = \id_E(x) - P_F^G(x)$
	\item 
		 \begin{align*}
			 P_G^F \circ P_F^G(x) 	&= P_G^F(P_F^G(x_F + x_G)) \\
						&= P_G^F(\underbrace{x_F}_{\in F} + \underbrace{0_E}_{\in G}) \\
						&= 0_E \\
		\end{align*}
		 et de même dans l'autre sens.
\end{itemize}

\cqfd

\Proposition[Propri\'et\'es imm\'ediates des projections]
Soient $F$ et $G$ deux sous-espaces suppl\'ementaires de $E$. Alors on a~:
\begin{enumerate}[i/]
\item $\mathrm{Ker}(p_F^G)=G$~;
\item $\mathrm{Im}(p_F^G)=F$~;
\item $p_F^G \circ p_F^G = p_F^G$.
\end{enumerate}
\FinProposition

\demo
\begin{enumerate}[i/]
	\item 
		\begin{align*}
			\Ker p_F^G &= \{x_F + x_G \in E, p_F^G(x_F + x_G) = 0_F\} \\
			&= \{x_F + x_G \in E, x_F = 0_F\}  \\
			&= G  \\
		\end{align*}
	\item 
		\begin{align*}
			\operatorname{Im} p_F^G &= \{x_F + x_G \in E, p_F^G(x_F + x_G) = 0_G\}  \\
						&= \{p_F^G(x_F + x_G), x_F +x_G \in E\}  \\
						&= \{x_F, x_F \in F\}  \\
						&= F \\
		\end{align*}
	\item 
		\begin{align*}
			p_F^G \circ p_F^G (x) &= p_F^G(p_F^G(x_F+x_G)) \\
					  &= p_F^G(x_F) \\
					  &= p_F^G(x_F + 0_G) \\
					  &= x_F \\
					  &= p_F^G(x_F + x_G) \\
		\end{align*}
\end{enumerate}

\cqfd

En particulier, il r\'esulte de ces trois propri\'et\'es que, si $p$ est une projection, alors c'est la projection sur $\mathrm(Im(p))=\mathrm(Ker(\id_E-p))$ parall\`element \`a $\mathrm(Ker(p))=\mathrm(Im(\id_E-p))$, et c'est aussi un endomorphisme idempotent.

Spectaculairement, la r\'eciproque est vraie~:
\Theoreme[:mind\_blown:]
Si $p$ est un endomorphisme idempotent, alors $p$ est une projection.\\[0.2cm]
C'est la projection sur $\mathrm{Im}(p)$ parall\`element \`a $\mathrm{Ker}(p)$.
\FinTheoreme

\demo
On suppose $\begin{cases}
	p&\in \lc(E) \\
	p\circ p &= p \\
\end{cases}$.

Montrons que $\operatorname{Im} p \oplus \Ker g = E$

Soit  $x\in E$ 

\paragraph{Analyse}
Considérons une décomposition convenable $x = x_I + x_K$ avec  $\begin{cases}
	x_I &\in \operatorname{Im} p \\
	x_K &\in \Ker p
\end{cases}$


Ainsi, $
	\begin{cases}
		\stackrel{\text{def}}{\exists } a\in E, x_I &= p(a) \\
		p(x_K) &= 0_E \\
	\end{cases}$

\begin{align*}
	x &= x_I + x_K = p(a) + x_K \\
	\implies p(x) &= p(x_I) + p(x_K) = p(p(a)) + 0_E \quad&\text{en composant par $p$} \\
	\implies p(x) &= (p\circ p)(a) = p(a) = x_I \\
	\implies &\begin{cases}
		x_I &= p(x) \\
		x_K &= x-p(x) \\
	\end{cases}
\end{align*}


\paragraph{Synthèse}

\begin{itemize}
	\item $x_I + x_K = p(x) + (x-p(x)) = x$
	\item $x_I = p(x) \in \operatorname{Im} p$
	\item $x_K \in \Ker p$ car:

		\begin{align*}
			p(x_K) &= p(x-p(x)) \\
			       &= p(x) - (p\circ p)(x) \\
			       &= p(x)-p(x) \\
			       &= 0_E \\
		\end{align*}
\end{itemize}

Notons  $\begin{cases}
	I &= \operatorname{Im} p \\
	K &= \Ker p \\
\end{cases}$ et montrons $p = p_I^K$ 

Soit $x\in E$.
On a vu que sa décomposition dans $I\oplus K$ est  $x = \underbrace{p(x)}_{\in I} + \underbrace{x-p(x)}_{\in K}$ 

Donc $p_I^K(x) = p(x)$, d'où $p_I^K = p$ 

\cqfd


\begin{appl}
Voici un exercice classique~: soient $E$, $F$ deux $K$-espaces vectoriels, $f\in\lc(E,F)$ et $g\in\lc(F,E)$ tels que $g\circ f = \id_E$. Alors on a $\mathrm{Im}(f) \oplus \mathrm{Ker}(g) = F$.

\paragraph{En dimension finie, \emph{et si $\dim E = \dim F$}}

$g\circ f = \id_E \iff f \text{inversible à gauche d'inverse à gauche $g$} \iff f \text{ iso et } g = f^{-1}$

et $\begin{cases}
	\Ker g &= \{0\}  \\
	\operatorname{Im} f &= F \\
\end{cases}$

$g\circ f = \id_{\K^2}$
Mais $f\circ g : \begin{pmatrix} x\\y\\z \end{pmatrix} \mapsto \begin{pmatrix} x\\y\\x+y \end{pmatrix} $

\paragraph{En général}


Montrons qu'\emph{en général}, {\bf $f\circ g$ est une projection}

\begin{align*}
	(f\circ g)\circ(f\circ g) &= f\circ(g\circ f)\circ g \\
	&= f\circ g \\
\end{align*}

Donc $f$ est bien une projection, donc

\begin{align*}
	\operatorname{Im}(f\circ g)\oplus \Ker(f\circ g) &= F \\
\end{align*}

Montrons $\operatorname{Im}(f\circ g) = \operatorname{Im} f$

\fbox{ $\subset $ } ok

\fbox{$\supset$ } Soit $x\in \operatorname{Im} f$ ie il existe $y\in E$ tel que 
 \begin{align*}
	 x&=f(y) \\
	  &= f(g(f(y))) \quad&\text{car $g\circ f=\id_E$} \\
	  &= (f\circ g)(z) \quad&\text{en notant $z=f(y)$} \\
	  &\in \operatorname{Im }(f\circ g)
\end{align*}

Montrons que $\Ker(f\circ g) = \Ker g$

\fbox{ $\subset $ } ok!

\fbox{$\supset$ } Soit $x \in \Ker(f\circ g)$ ie $f(g(x)) = 0_E$

Donc $g(f(g(x))) = g(0_F) = 0_E$ ie  $g(x) = 0_E$


\end{appl}




\subsection{Sym\'etries}


On veut {\bf g\'en\'eraliser} la notion de sym\'etrie par rapport \`a une droite ou \`a un point. Faisons un dessin dans $\R^3$.\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\

\begin{figure}[h]
	\centering
	\includegraphics[width=0.8\textwidth]{./fig_projections_R3_2.png}
\end{figure}

\begin{align*}
	s_F^G(x_F + x_G) &= x_F - x_G \\
\end{align*}

\Propdef
Soient $F$ et $G$ deux sous-espaces suppl\'ementaires de $E$.\\[0.2cm]
Il existe un unique endomorphisme $s=s_F^G$ de $E$ tel que $s_{{}_{|F}}=\id_F$ et $s_{{}_{|G}}=-\id_G$.\\[0.2cm]
On l'appelle {\bf sym\'etrie (vectorielle) par rapport \`a $F$ parall\`element \`a $G$}.\\[0.2cm]
Dit plus simplement~: $s_F^G : \defapp{E=F \oplus G}{E}{x=x_F+x_G}{x_F-x_G}$.
\FinPropdef
Remarque~: pour plus de clart\'e, j'ai encore \'ecrit $\id_F$ l'application $\defapp{F}{E}{x}{x}$ qui plus rigoureusement est l'injection canonique de $F$ dans $E$.\\[-0.25cm]

\demo C'est un cas particulier de \cqfd

\exx
Consid\'erons $\K=\R$ et $E=\C$, vu comme $\R$-espace vectoriel.
La conjugaison est la sym\'etrie par rapport \`a $\R$ parall\`element \`a $i\R$.
\xxe


\Proposition[Propri\'et\'es imm\'ediates des projections]
Soient $F$ et $G$ deux sous-espaces suppl\'ementaires de $E$. Alors on a~:
\begin{enumerate}[i/]
\item $\mathrm{Ker}(s_F^G-\id_E)=\mathrm{Im}(s_F^G+\id_E)=F$~;
\item $\mathrm{Ker}(s_F^G+\id_E)=\mathrm{Im}(s_F^G-\id_E)=G$~;
\item $s_G^F = - s_F^G$~;
\item $s_F^G=p_F^G-p_G^F$~;
%\item $p_F^G=\dfrac{s_F^G+\id_E}{2}$~;
\item $s_F^G \circ s_F^G = \id_E$.
\end{enumerate}
\FinProposition

\demo Exercice. Tout est facile.

$\Ker (s_F^G - \id_E)$ sont les points fixes de la symmétrie, \ie les gens qui n'ont pas de composante en $G$, \ie c'est $F$

\cqfd

%En particulier, il r\'esulte de ces trois propri\'et\'es que, si $s$ est une sym\'etrie, alors c'est la sym\'etrie par rapport \`a $\mathrm(\mathrm{Ker}(s-\id_E))$ parall\`element \`a $\mathrm(Ker(s+\id_E))$, et c'est aussi un endomorphisme involutif.

%La r\'eciproque est vraie~!
L\`a encore on a une r\'eciproque~!
\Theoreme
Si $s$ est un endomorphisme involutif, alors $s$ est une sym\'etrie.\\[0.2cm]
C'est la sym\'etrie par rapport \`a $\mathrm{Ker}(s-\id_E)$ parall\`element \`a $\mathrm{Ker}(s+\id_E)$.
\FinTheoreme

\demo
Soit $\begin{cases}
	s&\in \lc(E) \\
	s\circ s &= \id_E \\
\end{cases}$ 

Soir $x\in E$ 
\paragraph{Analyse} Considérons une décomposition convenable $x = x_{-} + x_{+}$ où $\begin{cases}
	x_+ &\in \Ker(s + \id) \\
	x_- &\in \Ker(s - \id)
\end{cases}$ 

ie:

\begin{align*}
	\begin{cases}
		s(x_+) &= -x_+ \\
		s(x_-) &= x_- \\
	\end{cases} \\
	x&= x_- + x_+ \\
	s(x) &= x_- - x_+ \\
	\begin{cases}
		\frac{x+s(x)}{2}&= x_- \\
		\frac{x-s(x)}{2}&= x_+ \\
	\end{cases}
\end{align*}

\paragraph{Synthèse}
\begin{itemize}
	\item $x = x_- + x_+$ ok
	\item $x_- \in \Ker(s-\id)$ car

		\begin{align*}
			(x-\id)(x_-) &= s\left(\frac{x+s(x)}{2}\right) - \left( \frac{x+s(x)}{2} \right) \\
				     &= \frac{s(x)+x}{2}-\left( \frac{x+s(x)}{2} \right) \\
				     &= 0_E \quad&\text{par linéarité}\\
			x_+ &\in \Ker(s+\id) \quad&\text{idem}
		\end{align*}

		Notons $\begin{cases}
			F &= \Ker(s-\id_E) \\
			G&= \Ker(s+\id_E) \\
		\end{cases}$ 

		\begin{align*}
			\forall x\in E, x_F^G(x) &= x_F - x_G \\
						 &= \frac{s(x)+x}{2}-\left( \frac{x-s(x)}{2} \right)  \\
						 &= s(x) \\
		\end{align*}
\end{itemize}

\cqfd

%\Demonstration
%Soit $s\in \L(E)$ tel que $s\circ s= \id_E$. Montrons que $s$ est une sym\'etrie. Vu la remarque \ref{UneSymetrieProjetteEtc}, on veut d\'emontrer que $s$ est la projection sur $\Ker(s-\id_E)$ parall\`element \`a $\Ker(s+\id_E)$.\\
%Il y a donc trois choses \`a montrer~: $\lect{\Ker(s-\id_E)\oplus\Ker(s+\id_E)=E\\s_{{}_{|\Ker(s-\id_E)}}=\id_{\Ker(s-\id_E)}\\s_{{}_{|\Ker(s+\id_E)}}=-\id_{\Ker(s+\id_E)}}.$\\[0.2cm]
%Montrons qu'on a $\Ker(s-\id_E)\oplus\Ker(s+\id_E)=E$. Soit $x\in E$. Il s'agit de montrer qu'il existe un unique couple $(y,z)\in\Ker(s-\id_E)\times\Ker(s+\id_E)=E$ tel que $x=y+z$. Proc\'edons par analyse-synth\`ese.\\[0.2cm]
%\analysesynthese{Soit $(y,z)$ un couple convenable. Par d\'efinition d'un noyau on a $(s-\id_E)(y)=0$, \ie $s(y)=y$, et de m\^eme $(s+\id_E)(z)=0$, \ie $s(z)=-z$. En appliquant $s$ \`a l'\'egalit\'e $x=y+z$, on trouve $s(x)=y-z$. Par somme et diff\'erence il vient $y=\dfrac{x+s(x)}{2}$ et $z=\dfrac{x-s(x)}{2}$.\\[-0.4cm]}{V\'erifions que ce candidat convient bien. On a bien $y+z=x$ par d\'efinition.
%\ddfrac{\text{On a~: }s(y)=s\left(\dfrac{x+s(x)}{2}\right)\underbrace{=}_{\text{lin\'earit\'e}}\dfrac{1}{2}\Big(s(x)+s\big(s(x)\big)\Big)\underbrace{=}_{\text{hypoth\`ese}}\dfrac{1}{2}\big(s(x)+x\big)=y,} \cad $y\in\Ker(s-\id_E)$, et on a aussi~:
%\ddfrac{s(z)=s\left(\dfrac{x-s(x)}{2}\right)\underbrace{=}_{\text{lin\'earit\'e}}\dfrac{1}{2}(s(x)-s(s(x)))\underbrace{=}_{\text{hypoth\`ese}}\dfrac{1}{2}(s(x)-x)=-z,} \cad $z\in\Ker(s+\id_E)$. L'unique candidat trouv\'e convient bien.\\[-0.4cm]}{On a bien $\Ker(s-\id_E)\oplus\Ker(s+\id_E)=E$.}\\[0.2cm]
%Les deux \'egalit\'es restantes sont tautologiques.\qed

\begin{appl}
On retrouve toute une famille de r\'esultats qu'on s'est donc inutilement fatigu\'es \`a \'etablir au cas par cas dans le pass\'e.\\\\\\\\\\\\\\\\\\\\\\
\end{appl}

\end{document}


%%% Attention : UNE endomorphisme dans le livre

