## Exercice 1 Soit $A = (a_{ij})_{1 \leq i,j \leq n} \in \mathrm{M}(n,\mathbf{R})$, on rappelle que $\mathrm{tr}(A)=\sum_{i=1}^n a_{ii}$. ### 1.1 Montrer que l'application (.∣.) de $M(n,\mathbb{R})\times M(n,\mathbb{R})$ dans $\mathbb{R}$ définie par $$ (X|Y) = \mathrm{tr}(\,^t XY) $$ définit un produit scalaire qui fait de $M(n,\mathbb{R})$ un espace euclidien. La norme matricielle associée s'appelle la norme de Frobenius. #### Correction Montrons que $(. |.)$ est un produit scalaire : - forme bilinéaire - symétrique - définie positive **Bilinéaire** La bilinéarité provient de la linéarité du produit et de la linéarité de la trace. Soit $\lambda$ et $\mu\in\mathbb{R}$, soient $X_1$ et $X_2\in M(n,\mathbb{R})$. \begin{align} (\lambda X_1+\mu X_2|Y) &= \mathrm{tr}(^t(\lambda X_1+\mu X_2)Y) = \mathrm{tr}(\lambda^t X_1Y + \mu^t X_2 Y) \\ &= \lambda\mathrm{tr}(^tX_1Y)+\mu\mathrm{tr}(^tX_2Y) = \lambda (X_1|Y) + \mu(X_2|Y) \end{align} On finit la bilinéarité par la linéarité à droite, qui peut se déduire de la symétrie. **Symétrie** Soient $X$ et $Y\in M(n,\mathbb{R})$. \begin{align} (X|Y) &= \mathrm{tr}(^tXY) = \mathrm{tr}(^tY X) = (Y|X) \end{align} car la trace de la transposée est la trace de la matrice. **Définie positive** Si $X\in M(n,\mathbb{R})$ de coefficients $x_{ij}$, alors \begin{align} (X|X) &= \mathrm{tr}(^tX X) = \sum_{i=1}^n (^tX X)_{ii} = \sum_{i=1}^n \sum_{j=1}^n x_{ji}^2 \end{align} La positivité est immédiate (somme de termes positifs). Pour la définition, si $X$ vérifie $(X|X)=0$, alors comme tous les termes $x_{ij}^2$ sont positifs, ils sont nécessairement tous nuls. Donc pour tout $i,j\in\{1,\dots,n\}$, $x_{ij}=0$, et donc $X=0$. Donc $(.|.)$ est bien un produit scalaire. ### 1.2 Soient $X$, $Y$ et $A$ dans $M(n,\mathbb{R})$, montrer que ce produit scalaire possède les propriétés suivantes : $(\,^t X|\,^t Y) = (X|Y)$ $(AX|Y) = (X|\,^t AY).$ Soit $O∈\mathrm{O}(n,\mathbb{R})$ une matrice orthogonale, montrer que l'application $\varphi:X\mapsto OX$ est une isométrie de $M(n,\mathbb{R})$. #### Correction Première propriété : \begin{align} (^tX|^tY) &= \mathrm{tr}(^t(^tX)^tY) = \mathrm{tr}(X^tY) = \mathrm{tr}(^tY X) = (Y|X) = (X|Y) \end{align} car $\mathrm{tr}(AB) = \mathrm{tr}(BA)$, puis en utilisant la symétrie du produit scalaire. Deuxième propriété : \begin{align} (AX|Y) &= \mathrm{tr}(^t(AX)Y) = \mathrm{tr}(^tX^tAY) = (X|^tAY) \end{align} \begin{align} (\varphi(X)|\varphi(Y)) &= \mathrm{tr}(^t(OX)OY) = \mathrm{tr}(^tX^tOOY) = \mathrm{tr}(^tXY) = (X|Y) \end{align} car $O$ est une matrice orthogonale, $^tOO = \mathbb{I}$. ## Exercice 2 On rappelle que $L^2([0,2\pi],\mathbb{R})$ muni du produit scalaire $$ (x|y) = \int_{[0,2\pi]} xy\,\mathrm{d}t $$ est un espace de Hilbert. Soit $F=\mathrm{Vect}({\sin,\cos})$, et soit $x_0$ défini par $x_0(t)=e^t$. Justifier que $x_0$ possède un unique projeté orthogonal sur $F$ et le calculer. #### Correction On utilise le théorème de la projection orthogonale : hypothèses à vérifier : - $L^2([0,2\pi],\mathbb{R})$ muni de son produit scalaire est un espace de Hilbert (rappelé) - $F$ est un sous-espace vectoriel de $L^2([0,2\pi],\mathbb{R})$ non vide (car il contient $\cos$ et $\sin$) et fermé (car de dimension finie). - Un sev est toujours convexe, car il est stable par combinaison linéaire (donc par combinaison linéaire convexe). Remarque : on peut construire des sous-espaces vectoriels de $L^2([0,2\pi],\mathbb{R})$ qui ne sont pas fermés. Par exemple, $\mathcal{C}^0$ l'ensemble des fonctions continues sur $[0,2\pi]$ est un sev de $L^2$. Mais si on prend la suite de fonctions $$f_n(x) = \left\{\begin{array}{l} 0 \text{ si } x<\pi-\frac{1}{n}\\ \frac{1}{2}+\frac{n}{2}(x-\pi) \text{ si } \pi-\frac{1}{n}\leq x\leq \pi+\frac{1}{n}\\ 1 \text{ si } x>\pi+\frac{1}{n}\\\end{array}\right.$$ cette suite de fonctions est bien continue, et elle converge dans $L^2$ vers la fonction $$f(x) = \left\{\begin{array}{l} 0 \text{ si } x<\pi\\ 1 \text{ si } x>\pi\\\end{array}\right.$$ La fonction $f$ n'est pas continue, donc $\mathcal{C}^0$ n'est pas fermé. Donc on a existence et unicité du projeté orthogonal $\Pi(x_0)$ de $x_0$ sur $F$. **Calcul du projeté orthogonal** On pose les coordonnées de $\Pi(x_0)$ dans la base $(\cos,\sin)$ : $$\Pi(x_0) = a\cos + b\sin$$ avec $a$ et $b$ des réels à déterminer. La projection orthogonale vérifie la propriété suivante : $$\forall v\in F,\quad (\Pi(x_0)-x_0|v) = 0.$$ En pratique, comme $F=\mathrm{Vect}(\cos,\sin)$, il suffit de vérifier \begin{align} (\Pi(x_0)|\cos) &= (x_0|\cos)\\ (\Pi(x_0)|\sin) &= (x_0|\sin). \end{align} Si on le traduit avec les coefficients $a$ et $b$, \begin{align} (\cos|\cos) a + (\sin|\cos) b &= (x_0|\cos)\\ (\cos|\sin) a + (\sin|\sin) b &= (x_0|\sin). \end{align} On calcule les produits scalaires. $(\cos|\cos) = \int_{0}^{2\pi}\cos(x)^2\mathrm{d}x = \int_0^{2\pi} \frac{1+\cos(2x)}{2}\mathrm{d}x = \pi$ $(\sin|\sin) = \int_{0}^{2\pi}\sin(x)^2\mathrm{d}x = \int_0^{2\pi} \frac{1-\cos(2x)}{2}\mathrm{d}x = \pi$ $(\cos|\sin) = \int_{0}^{2\pi}\cos(x)\sin(x)\mathrm{d}x = \int_0^{2\pi} \frac{\sin(2x)}{2}\mathrm{d}x = 0$ $(x_0|\cos) = \int_0^{2\pi}e^x\cos(x)\mathrm{d}x$ $(x_0|\sin) = \int_0^{2\pi}e^x\sin(x)\mathrm{d}x$ $\int_0^{2\pi}e^xe^{ix}\mathrm{d}x = \left[\frac{1}{1+i}e^{(1+i)x}\right]_0^{2\pi} = \frac{1}{1+i}(e^{2\pi}-1)$ donc en prenant les parties réelles et imaginaires, $\frac{1}{1+i} = \frac{1-i}{2},$ $(x_0|\cos) = \int_0^{2\pi}e^x\cos(x)\mathrm{d}x = \frac{1}{2}(e^{2\pi}-1)$ $(x_0|\sin) = \int_0^{2\pi}e^x\sin(x)\mathrm{d}x = -\frac{1}{2}(e^{2\pi}-1)$ La base est orthogonale (ce qui simplifie le calcul). Finalement, \begin{align} a &= \frac{1}{2\pi}(e^{2\pi}-1)\\ b &= -\frac{1}{2\pi}(e^{2\pi}-1) \end{align} Donc le projeté orthogonal de $x_0$ est la fonction suivante : $$\Pi(x_0) = \frac{1}{2\pi}(e^{2\pi}-1)(\cos-\sin).$$ ## Exercice 3 ### 3.1 Montrer que l'espace $$ \ell^2=\{X=(x_n)_n \in \mathbf{R}^\mathbf{N}\ |\ \sum_n |x_n|^2<\infty\} $$ muni du produit scalaire $(X∣Y)=\sum_n x_n y_n$ est un espace de Hilbert. #### Correction 1) Il faut montrer que $(.|.)$ est bien un produit scalaire. **Bilinéaire** Immédiat par linéarité du produit et linéarité de la sommation. **Symétrie** Immédiat par symétrie du produit dans $\mathbb{R}$. **Définie positive** $$(X|X) = \sum_n x_n^2\geq 0$$ Comme tous les termes sont positifs, $(X|X)=0$ ssi tous les $x_n$ sont nuls, ce qui signifie que la suite $X$ est nulle. 2) La norme associée au produit scalaire est $$\|X\| = \left(\sum_n x_n^2\right)^{1/2}.$$ Il faut montrer que pour cette norme, l'espace $\ell^2$ est bien complet. C'est ce qu'on a montré pour les espaces $\ell^p$, $1\leq p\leq\infty$. ### 3.2 Soit $G_k=\left\{X∈\ell^2 ∣ \sum_{n=0}^{k−1} x_n =0\right\}$ (où $k\geq 1$ est fixé). Justifier que $G_k$ est un sev fermé de $\ell^2$. #### Correction On pourrait appliquer la caractérisation séquentielle de la fermeture. C'est un peu pénible (suites de suites). Autre méthode : $G_k$ est le noyau d'une application linéaire continue. Attention, $G_k$ est de dimension infinie ! On définit $\varphi:\ell^2\to \mathbb{R}$ telle que pour tout $X\in\ell^2$, $\varphi(X) = \sum_{n=0}^{k-1}x_n$. L'application $\varphi$ est évidemment linéaire et son noyau est $G_k$. Montrons que $\varphi$ est continue : $$|\varphi(X)|\leq \sum_{n=0}^{k-1}|x_n| \leq \left(\sum_{n=0}^{k-1}x_n^2\right)^{1/2}\left(\sum_{n=0}^{k-1}1\right)^{1/2} \leq \sqrt{k}\|X\|_{\ell^2}$$ où on a utilisé l'inégalité de Cauchy-Schwarz, d'où la continuité. Donc $G_k$ est un sev fermé comme noyau d'une application linéaire continue. ### 3.3 Soit $X=(1,0,\dots,0,\dots)\in\ell^2$, évaluer $d(X,G_k)$, la distance de $X$ à $G_k$. #### Correction $X$ n'appartient pas à $G_k$ donc $d(X,G_k)\neq 0$. Si $\Pi(X)$ est le projeté orthogonal de $X$ sur $G_k$ (qui existe et est unique car $\ell^2$ est un espace de Hilbert et $G_k$ est un sev fermé de $\ell^2$), alors $$d(X,G_k) = \|X-\Pi(X)\|_{\ell^2}.$$ On n'a pas de base pour $G_{k}$ (qui est de dimension infinie, en plus), donc ce n'est pas pratique de décomposer $\Pi(X)$ sur une base (hilbertienne) de $G_k$. On va utiliser la propriété : $X-\Pi(X)$ est orthogonal à tous les éléments de $G_k$. Maintenant, on remarque si on pose $$X_k=(\underbrace{1,1,\dots,1}_{k\text{ fois}},0,0,\dots),$$ on se rend compte que $v\in G_k$ ssi $(v|X_k)=0$ (par définition du produit scalaire et de $G_k$). Donc cela veut dire que toute suite orthogonale à $G_k$ est proportionnelle à $X_k$. En particulier, il existe $\lambda\in\mathbb{R}$ tel que $X-\Pi(X)=\lambda X_k$. Il reste uniquement à déterminer ce $\lambda$. Il vérifie : $\Pi(X) = X-\lambda X_k\in G_k$, donc $$(1-\lambda)-\sum_{n=1}^{k-1}\lambda = 0 = 1-k\lambda$$ Donc $\lambda = \frac{1}{k}$. Finalement, $\Pi(X) = X-\frac{1}{k}X_k$, et donc $$d(X,G_k) = \|X-\Pi(X)\| = \frac{1}{k}\|X_k\| = \frac{1}{\sqrt{k}}.$$ ## Exercice 4 Résoudre le problème d'optimisation $$ \left\{ \begin{array}{l} \min \int_{[-1,1]} |x^5-a_4 x^4-a_3 x^3-a_2 x^2-a_1 x-a_0|^2\,\mathrm{d}x\\ a=(a_0,\dots,a_4) \in \mathbf{R}^5. \end{array} \right. $$ #### Correction On considère l'espace $L^2([-1,1],\mathbb{R})$ (espace de Hilbert muni du produit scalaire $(f|g) = \int_{-1}^1fg$) et son sev de dimension finie (donc fermé) $F=\mathrm{Vect}(1,x,x^2,x^3,x^4)$. On pose $f_0(x) = x^5$ et on cherche le projeté orthogonal de $f_0$ sur $F$. Si on pose $$\Pi(f_0)(x) = a_0+a_1x+a_2x^2+a_3x^3+a_4x^4,$$ on réalise le minimum de la fonctionnelle donnée pour $a_0$, $a_1$, $a_2$, $a_3$ et $a_4$ donnés par la projection orthogonale, et le minimum est $\|f_0-\Pi(f_0)\|_{L^2}^2$.