# CAMA : ma32 Méthode du gradiant pour système matriciel # Cours du 25/06 ## $Ax = b$ vu comme un probleme d'optimisation Pour résoudre $Ax = b$ on va chercher le minimum de la fonctionnelle $$ J(x) = \frac{1}{2}x^TAx - b.x $$ La dérivée s'annule en ce point et est $Ax - b$ ## Calcul de la dérivée Les derivées de dimension supérieure a 1 peuvent être manipulées comme des derivées partielles ou une derivée totale. On s'intéresse à la derivée dans une direction, c.a.d la derivée partielle en $y$ si on va dans la direction de l'axe $y$. :::info **Définition** $f : \Omega \subset {X\to Y}$ ($\Omega$ ouvert) est dérivable en $a\in\Omega$ si $$ \exists f'(a)\in L(X,Y)\space tel\space que \\ f(a+h) = f'(a) + f(a)(h) + h\space\epsilon(h) $$ avec: * $\lim_{h\to 0}\epsilon (h) = 0$ * $L(X, Y)$ applications linéaires continues de $X$ dans $Y$ * $f'(a)\in L(X, Y)$ et non $f'$ ::: Si $f$ est dérivable en $a$ alors $\forall h \in X$ $$ f'(a)(h) = lim_{\theta\to0}\frac{f(a + \theta h) - f(a)}{\theta} $$ :::warning Attention à vérifier le type de chaque terme. $f$ est une fonction scalaire donc : * $Y = \mathbb{R}$ * $X = \mathbb{R}^n \space avec\space n\gt 1$ ::: ### Notation avec le gradient $$ f(a + h) = f(a) + (\nabla f)(a)^T h + h^T\epsilon(h) $$ * $f$ est scalaire * $(\nabla f)(a)$ est un vecteur dont le produit scalaire avec h donne un réel ## Calculons la dérivée de J suivant une direction On calcule la dérivée de $J(x)$ au point $a$ suivant la direction $h$ $$ J'(a)(h) = \lim_{\theta\to0}\frac{J(a + \theta h) - J(a)}{\theta} \\ = \lim_{\theta\to 0}\frac{1}{\theta}\biggr(\frac{1}{2}(a+\theta h)^TA(a+\theta h) - b^T(a+\theta h) - \frac{1}{2}a^TAa+b^Ta\biggr) \\ = \lim_{\theta\to0}\frac{1}{\theta}\biggr(\frac{1}{2}(\theta a^TAh + \theta h^TAa +\theta^2 h^TAh) - \theta b^Th\biggr) \\ = \frac{1}{2}(a^TAh + h^TAa) - b^T h $$ donc $$ J':x\in\Omega\subset\mathbb{R}^n\to L(\mathbb{R}^n,\mathbb{R}) \\ x\mapsto\frac{1}{2}(x^TA + Ax)-b $$ ## A symétrique Dans le cas ou A est symétrique, on a: $$ J'(x) = \nabla J(x) = Ax - b $$ :::success Si la dérivée s'annule, c.a.d qu'on trouve le minimum, on a résolu le système matriciel ::: :::info Les conditions pour utiliser la méthode de gradient sont: * A symétrique * J a un minimum ::: ## Propriéte :::info Si A est symétrique et **définie positive** alors $J$ est convexe strictement et **coervice** ($\lim_{\lVert a \rVert\to\infty}J(a) = +\infty$), alors elle a un minimum. :::