# OCVX2: Optimisation sous contrainte par la methode des multiplicateurs de Lagrangre et conditions KKT
:::info
**KKT**: Karush-Kuhn-Tucker
:::
On va s'attaquer a des problemes de la forme:
$$
\begin{matrix}
&\text{minimiser } f(x) &f:\mathbb R^n\to\mathbb R &f\text{ convexe}\\
&x\in C &x\in\mathbb R^n &C=\text{ensemble convexe}
\end{matrix}
$$
$$
x\in C\Leftrightarrow\begin{cases}
g_i(x)\le 0 &\forall i=1,\dots,m&g_i\text{ convexe}\\
h_j(x)=0 &\forall j=1,\dots,p&h_j\text{ affine}
\end{cases}
$$
$C$ defini l'ensemble des points admissibles.
$$
\boxed{
\begin{matrix}
&\text{minimiser } f(x) &\text{equivalent a} &\text{minimiser } f(x), x\in\mathbb R^n\\
&x\in C & &\text{tq} \begin{cases}
g_i(x)\le 0 &\forall i=1,\dots,n\\
h_j(x)=0&\forall j=1,\dots,p
\end{cases}
\end{matrix}\\
\color{red}{\text{(OPT)}}}
$$
- valeur optimale $p^{\*}=f(x^{\*})$
- point optimal $x^{\*}\in\mathbb R^n$
Sans contrainte: $f$ convexe: $x^{\*}$ optimal $\Leftrightarrow\nabla f(x^{\*})=0$
:::warning
Cette conditions d'optimalite n'est plus vraie des lors que l'on a des contraintes.
:::danger
Dualite de Lagrange
:::
:::
![](https://i.imgur.com/vd6PrQC.png)
# Lagrangien
On definit le Lagrangien de (OPT) comme la fonction:
$$
\begin{aligned}
\mathscr L:\mathbb R^n\times\mathbb R^m\times\mathbb R^p&\to\mathbb R\\
(x,\alpha,\beta)&\mapsto\mathscr L(x,\alpha,\beta) = f(x)+\sum_{i-1}^m\alpha_ig_i(x)+\sum_{j=1}^p\beta_jh_j(x)
\end{aligned}\\
\begin{aligned}
&\text{variables duales}\begin{cases}
\alpha=\begin{pmatrix}
\alpha_1\\
\vdots\\
\alpha_m
\end{pmatrix}\in\mathbb R^m\\
\beta=\begin{pmatrix}
\beta_1\\
\vdots\\
\beta_p
\end{pmatrix}\in\mathbb R^p
\end{cases}\\
&\Leftrightarrow\text{multiplications de Lagrange}\\
&\Leftrightarrow\text{cout associe a chaque contrainte}
\end{aligned}
$$
:::info
**Lagrangien** $\equiv$ version sans contrainte du probleme (OPT)
:::
# Intuition
**Intuition:** pour chaque probleme d'optimisation avec contraintes, il existe un certain parametrage des variables duales tel que le minimum sans contrainte du Lagrangien par rapport a la ***variable primale*** $\equiv x$ (a variables duales fixees) coincide avec la solution du probleme de contraintes.
On appelle ***fonction objective primale***
$$
\begin{aligned}
\theta_p:\mathbb R^n&\to\mathbb R\\
x&\mapsto \max_{\alpha,\beta \\ \alpha\ge 0\forall i} \mathscr L(x,\alpha, \beta)
\end{aligned}
$$
On appelle ***probleme primal*** le probleme d'optimisation sans contrainte: $$\min_{x\in\mathbb R^n}\theta_{p}(x)$$
$x\in\mathbb R^n$ est primal admissible ssi
$$
\begin{cases}
g_i(x)\le 0&\forall i\\
h_j(x)=0 &\forall j
\end{cases}
$$
:::warning
On va noter $p^{\*}$ la valeur optimale de $(P)$ et $x^{\*}$ le point optimal, $p^{\*}=\theta_{p}(x^{\*})$
:::
On appelle ***fonction objective duale***:
$$
\begin{aligned}
\theta_D:\mathbb R^m\times\mathbb R^p&\to\mathbb R\\
(\alpha,\beta)&\mapsto\min_{x\in\mathbb R^n}\mathscr L(x,\alpha,\beta)
\end{aligned}
$$
On appelle ***probleme dual*** le probleme d'optimisation avec contrainte
$$
(D)\quad \max_{\alpha,\beta \\ \alpha_i\ge 0}\theta_D(\alpha, \beta) = \max_{\alpha, \beta \\ \alpha_i\ge 0}\min_{x}\mathscr L(x,\alpha, \beta)
$$
$(\alpha,\beta)$ est dual admissible ssi $\alpha_i\ge0$ $\forall i$.
On note egalement $(\alpha^{\*}, \beta^{\*})$ la solution de $(D)$ et $d^{\*} = \theta_D(\alpha^{\*}, \beta^{\*})$
# Interpretation du probleme primal
Dans le cas ou on a $g(x)\le0$ convexe et $h(x)=0$ affine.
Dans ce cas, le Lagrange est:
$$
\begin{aligned}
\mathscr L:\mathbb R^n\times\mathbb R\times\mathbb R&\to\mathbb R\\
(x,\alpha,\beta)&\mapsto\mathscr L(x,\alpha,\beta)=f(x)+\alpha g(x)+\beta h(x)
\end{aligned}
$$
On a:
$$
\begin{aligned}
\theta_p:\mathbb R^n&\to\mathbb R\\
x&\mapsto \max_{\alpha,\beta \\ \alpha\ge 0\forall i} \mathscr L(x,\alpha, \beta)
\end{aligned}
$$
Dans ce cas:
$$
\begin{aligned}
x&\mapsto \max_{\alpha,\beta \\ \alpha\ge 0\forall i} \mathscr L(x,\alpha, \beta)\\
\theta_{p}(x) &= \max_{\alpha, \beta \\ \alpha\ge 0}[f(x)+\alpha g(x)+\beta h(x)]
\end{aligned}
$$
:::success
$\theta_p(x)$ est convexe car la somme ponderee de fonctions convexes est convexe, et le $\max$ de fonctions convexes est convexe.
:::
$$
\theta_p(x) = f(x)+\max_{\alpha,\beta \\ \alpha\ge 0}[\alpha g(x) + \beta h(x)]
$$
- Si $g(x)\gt 0$, le crochet est maximise pour $\alpha=+\infty$ et vaut $+\infty$
- Si $g(x)\le 0$, le crochet est maximise pour $\alpha=0$
- Si $h(x)\neq 0$, le crochet est maximiser pour $\beta=(\text{signe de }h(x))\infty$ et vaut $+\infty$
- Si $h(x)=0$, le crochet vaut $0$ peu importe la valeur de $\beta$
:::success
Donc si $x$ primal admissible $(g(x) \le 0$ et $h(x)=0)$, alors le crochet vaut $0$.
:::
:::danger
Si $x$ ne verifie pas les contraintes, alors le crochet vaut $+\infty$.
:::
$$
\theta_p(x)=f(x)+\begin{cases}
0 &\text{si } x \text{ primal admissible}\\
+\infty &\text{si } x \text{ pas primal admissible}
\end{cases}\\
$$
:::info
$$
\begin{aligned}
(P):\quad&\min_{x\in\mathbb R^n}\theta_p(x)\\
&\min_{x\in\mathbb R^n}f(x)+\begin{cases}
0 &\text{si } x \text{ primal admissible}\\
+\infty &\text{si } x \text{ pas primal admissible}
\end{cases}
\end{aligned}
$$
:::