## Exercice 1
Soit $A = (a_{ij})_{1 \leq i,j \leq n} \in \mathrm{M}(n,\mathbf{R})$, on rappelle que $\mathrm{tr}(A)=\sum_{i=1}^n a_{ii}$.
### 1.1
Montrer que l'application (.∣.) de $M(n,\mathbb{R})\times M(n,\mathbb{R})$ dans $\mathbb{R}$ définie par $$ (X|Y) = \mathrm{tr}(\,^t XY) $$ définit un produit scalaire qui fait de $M(n,\mathbb{R})$ un espace euclidien. La norme matricielle associée s'appelle la norme de Frobenius.
#### Correction
Montrons que $(. |.)$ est un produit scalaire :
- forme bilinéaire
- symétrique
- définie positive
**Bilinéaire**
La bilinéarité provient de la linéarité du produit et de la linéarité de la trace.
Soit $\lambda$ et $\mu\in\mathbb{R}$, soient $X_1$ et $X_2\in M(n,\mathbb{R})$.
\begin{align}
(\lambda X_1+\mu X_2|Y) &= \mathrm{tr}(^t(\lambda X_1+\mu X_2)Y) = \mathrm{tr}(\lambda^t X_1Y + \mu^t X_2 Y) \\
&= \lambda\mathrm{tr}(^tX_1Y)+\mu\mathrm{tr}(^tX_2Y) = \lambda (X_1|Y) + \mu(X_2|Y)
\end{align}
On finit la bilinéarité par la linéarité à droite, qui peut se déduire de la symétrie.
**Symétrie**
Soient $X$ et $Y\in M(n,\mathbb{R})$.
\begin{align}
(X|Y) &= \mathrm{tr}(^tXY) = \mathrm{tr}(^tY X) = (Y|X)
\end{align}
car la trace de la transposée est la trace de la matrice.
**Définie positive**
Si $X\in M(n,\mathbb{R})$ de coefficients $x_{ij}$, alors
\begin{align}
(X|X) &= \mathrm{tr}(^tX X) = \sum_{i=1}^n (^tX X)_{ii} = \sum_{i=1}^n \sum_{j=1}^n x_{ji}^2
\end{align}
La positivité est immédiate (somme de termes positifs).
Pour la définition, si $X$ vérifie $(X|X)=0$, alors comme tous les termes $x_{ij}^2$ sont positifs, ils sont nécessairement tous nuls. Donc pour tout $i,j\in\{1,\dots,n\}$, $x_{ij}=0$, et donc $X=0$.
Donc $(.|.)$ est bien un produit scalaire.
### 1.2
Soient $X$, $Y$ et $A$ dans $M(n,\mathbb{R})$, montrer que ce produit scalaire possède les propriétés suivantes :
$(\,^t X|\,^t Y) = (X|Y)$
$(AX|Y) = (X|\,^t AY).$
Soit $O∈\mathrm{O}(n,\mathbb{R})$ une matrice orthogonale, montrer que l'application $\varphi:X\mapsto OX$ est une isométrie de $M(n,\mathbb{R})$.
#### Correction
Première propriété :
\begin{align}
(^tX|^tY) &= \mathrm{tr}(^t(^tX)^tY) = \mathrm{tr}(X^tY) = \mathrm{tr}(^tY X) = (Y|X) = (X|Y)
\end{align}
car $\mathrm{tr}(AB) = \mathrm{tr}(BA)$, puis en utilisant la symétrie du produit scalaire.
Deuxième propriété :
\begin{align}
(AX|Y) &= \mathrm{tr}(^t(AX)Y) = \mathrm{tr}(^tX^tAY) = (X|^tAY)
\end{align}
\begin{align}
(\varphi(X)|\varphi(Y)) &= \mathrm{tr}(^t(OX)OY) = \mathrm{tr}(^tX^tOOY) = \mathrm{tr}(^tXY) = (X|Y)
\end{align}
car $O$ est une matrice orthogonale, $^tOO = \mathbb{I}$.
## Exercice 2
On rappelle que $L^2([0,2\pi],\mathbb{R})$ muni du produit scalaire $$ (x|y) = \int_{[0,2\pi]} xy\,\mathrm{d}t $$ est un espace de Hilbert. Soit $F=\mathrm{Vect}({\sin,\cos})$, et soit $x_0$ défini par $x_0(t)=e^t$. Justifier que $x_0$ possède un unique projeté orthogonal sur $F$ et le calculer.
#### Correction
On utilise le théorème de la projection orthogonale : hypothèses à vérifier :
- $L^2([0,2\pi],\mathbb{R})$ muni de son produit scalaire est un espace de Hilbert (rappelé)
- $F$ est un sous-espace vectoriel de $L^2([0,2\pi],\mathbb{R})$ non vide (car il contient $\cos$ et $\sin$) et fermé (car de dimension finie).
- Un sev est toujours convexe, car il est stable par combinaison linéaire (donc par combinaison linéaire convexe).
Remarque : on peut construire des sous-espaces vectoriels de $L^2([0,2\pi],\mathbb{R})$ qui ne sont pas fermés. Par exemple, $\mathcal{C}^0$ l'ensemble des fonctions continues sur $[0,2\pi]$ est un sev de $L^2$. Mais si on prend la suite de fonctions
$$f_n(x) = \left\{\begin{array}{l}
0 \text{ si } x<\pi-\frac{1}{n}\\
\frac{1}{2}+\frac{n}{2}(x-\pi) \text{ si } \pi-\frac{1}{n}\leq x\leq \pi+\frac{1}{n}\\
1 \text{ si } x>\pi+\frac{1}{n}\\\end{array}\right.$$
cette suite de fonctions est bien continue, et elle converge dans $L^2$ vers la fonction
$$f(x) = \left\{\begin{array}{l}
0 \text{ si } x<\pi\\
1 \text{ si } x>\pi\\\end{array}\right.$$
La fonction $f$ n'est pas continue, donc $\mathcal{C}^0$ n'est pas fermé.
Donc on a existence et unicité du projeté orthogonal $\Pi(x_0)$ de $x_0$ sur $F$.
**Calcul du projeté orthogonal**
On pose les coordonnées de $\Pi(x_0)$ dans la base $(\cos,\sin)$ :
$$\Pi(x_0) = a\cos + b\sin$$
avec $a$ et $b$ des réels à déterminer.
La projection orthogonale vérifie la propriété suivante :
$$\forall v\in F,\quad (\Pi(x_0)-x_0|v) = 0.$$
En pratique, comme $F=\mathrm{Vect}(\cos,\sin)$, il suffit de vérifier
\begin{align}
(\Pi(x_0)|\cos) &= (x_0|\cos)\\
(\Pi(x_0)|\sin) &= (x_0|\sin).
\end{align}
Si on le traduit avec les coefficients $a$ et $b$,
\begin{align}
(\cos|\cos) a + (\sin|\cos) b &= (x_0|\cos)\\
(\cos|\sin) a + (\sin|\sin) b &= (x_0|\sin).
\end{align}
On calcule les produits scalaires.
$(\cos|\cos) = \int_{0}^{2\pi}\cos(x)^2\mathrm{d}x = \int_0^{2\pi} \frac{1+\cos(2x)}{2}\mathrm{d}x = \pi$
$(\sin|\sin) = \int_{0}^{2\pi}\sin(x)^2\mathrm{d}x = \int_0^{2\pi} \frac{1-\cos(2x)}{2}\mathrm{d}x = \pi$
$(\cos|\sin) = \int_{0}^{2\pi}\cos(x)\sin(x)\mathrm{d}x = \int_0^{2\pi} \frac{\sin(2x)}{2}\mathrm{d}x = 0$
$(x_0|\cos) = \int_0^{2\pi}e^x\cos(x)\mathrm{d}x$
$(x_0|\sin) = \int_0^{2\pi}e^x\sin(x)\mathrm{d}x$
$\int_0^{2\pi}e^xe^{ix}\mathrm{d}x = \left[\frac{1}{1+i}e^{(1+i)x}\right]_0^{2\pi} = \frac{1}{1+i}(e^{2\pi}-1)$
donc en prenant les parties réelles et imaginaires,
$\frac{1}{1+i} = \frac{1-i}{2},$
$(x_0|\cos) = \int_0^{2\pi}e^x\cos(x)\mathrm{d}x = \frac{1}{2}(e^{2\pi}-1)$
$(x_0|\sin) = \int_0^{2\pi}e^x\sin(x)\mathrm{d}x = -\frac{1}{2}(e^{2\pi}-1)$
La base est orthogonale (ce qui simplifie le calcul).
Finalement,
\begin{align}
a &= \frac{1}{2\pi}(e^{2\pi}-1)\\
b &= -\frac{1}{2\pi}(e^{2\pi}-1)
\end{align}
Donc le projeté orthogonal de $x_0$ est la fonction suivante :
$$\Pi(x_0) = \frac{1}{2\pi}(e^{2\pi}-1)(\cos-\sin).$$
## Exercice 3
### 3.1
Montrer que l'espace $$ \ell^2=\{X=(x_n)_n \in \mathbf{R}^\mathbf{N}\ |\ \sum_n |x_n|^2<\infty\} $$ muni du produit scalaire $(X∣Y)=\sum_n x_n y_n$ est un espace de Hilbert.
#### Correction
1) Il faut montrer que $(.|.)$ est bien un produit scalaire.
**Bilinéaire**
Immédiat par linéarité du produit et linéarité de la sommation.
**Symétrie**
Immédiat par symétrie du produit dans $\mathbb{R}$.
**Définie positive**
$$(X|X) = \sum_n x_n^2\geq 0$$
Comme tous les termes sont positifs, $(X|X)=0$ ssi tous les $x_n$ sont nuls, ce qui signifie que la suite $X$ est nulle.
2) La norme associée au produit scalaire est
$$\|X\| = \left(\sum_n x_n^2\right)^{1/2}.$$
Il faut montrer que pour cette norme, l'espace $\ell^2$ est bien complet. C'est ce qu'on a montré pour les espaces $\ell^p$, $1\leq p\leq\infty$.
### 3.2
Soit $G_k=\left\{X∈\ell^2 ∣ \sum_{n=0}^{k−1} x_n =0\right\}$ (où $k\geq 1$ est fixé). Justifier que $G_k$ est un sev fermé de $\ell^2$.
#### Correction
On pourrait appliquer la caractérisation séquentielle de la fermeture. C'est un peu pénible (suites de suites).
Autre méthode : $G_k$ est le noyau d'une application linéaire continue. Attention, $G_k$ est de dimension infinie !
On définit $\varphi:\ell^2\to \mathbb{R}$ telle que pour tout $X\in\ell^2$, $\varphi(X) = \sum_{n=0}^{k-1}x_n$. L'application $\varphi$ est évidemment linéaire et son noyau est $G_k$. Montrons que $\varphi$ est continue :
$$|\varphi(X)|\leq \sum_{n=0}^{k-1}|x_n| \leq \left(\sum_{n=0}^{k-1}x_n^2\right)^{1/2}\left(\sum_{n=0}^{k-1}1\right)^{1/2} \leq \sqrt{k}\|X\|_{\ell^2}$$
où on a utilisé l'inégalité de Cauchy-Schwarz, d'où la continuité.
Donc $G_k$ est un sev fermé comme noyau d'une application linéaire continue.
### 3.3
Soit $X=(1,0,\dots,0,\dots)\in\ell^2$, évaluer $d(X,G_k)$, la distance de $X$ à $G_k$.
#### Correction
$X$ n'appartient pas à $G_k$ donc $d(X,G_k)\neq 0$.
Si $\Pi(X)$ est le projeté orthogonal de $X$ sur $G_k$ (qui existe et est unique car $\ell^2$ est un espace de Hilbert et $G_k$ est un sev fermé de $\ell^2$), alors
$$d(X,G_k) = \|X-\Pi(X)\|_{\ell^2}.$$
On n'a pas de base pour $G_{k}$ (qui est de dimension infinie, en plus), donc ce n'est pas pratique de décomposer $\Pi(X)$ sur une base (hilbertienne) de $G_k$.
On va utiliser la propriété : $X-\Pi(X)$ est orthogonal à tous les éléments de $G_k$. Maintenant, on remarque si on pose $$X_k=(\underbrace{1,1,\dots,1}_{k\text{ fois}},0,0,\dots),$$
on se rend compte que $v\in G_k$ ssi $(v|X_k)=0$ (par définition du produit scalaire et de $G_k$). Donc cela veut dire que toute suite orthogonale à $G_k$ est proportionnelle à $X_k$.
En particulier, il existe $\lambda\in\mathbb{R}$ tel que $X-\Pi(X)=\lambda X_k$. Il reste uniquement à déterminer ce $\lambda$. Il vérifie : $\Pi(X) = X-\lambda X_k\in G_k$, donc
$$(1-\lambda)-\sum_{n=1}^{k-1}\lambda = 0 = 1-k\lambda$$
Donc $\lambda = \frac{1}{k}$.
Finalement, $\Pi(X) = X-\frac{1}{k}X_k$, et donc
$$d(X,G_k) = \|X-\Pi(X)\| = \frac{1}{k}\|X_k\| = \frac{1}{\sqrt{k}}.$$
## Exercice 4
Résoudre le problème d'optimisation $$ \left\{ \begin{array}{l} \min \int_{[-1,1]} |x^5-a_4 x^4-a_3 x^3-a_2 x^2-a_1 x-a_0|^2\,\mathrm{d}x\\ a=(a_0,\dots,a_4) \in \mathbf{R}^5. \end{array} \right. $$
#### Correction
On considère l'espace $L^2([-1,1],\mathbb{R})$ (espace de Hilbert muni du produit scalaire $(f|g) = \int_{-1}^1fg$) et son sev de dimension finie (donc fermé) $F=\mathrm{Vect}(1,x,x^2,x^3,x^4)$.
On pose $f_0(x) = x^5$ et on cherche le projeté orthogonal de $f_0$ sur $F$. Si on pose
$$\Pi(f_0)(x) = a_0+a_1x+a_2x^2+a_3x^3+a_4x^4,$$
on réalise le minimum de la fonctionnelle donnée pour $a_0$, $a_1$, $a_2$, $a_3$ et $a_4$ donnés par la projection orthogonale, et le minimum est $\|f_0-\Pi(f_0)\|_{L^2}^2$.