---
title: "OCVX2 : Tout ce que vous avez toujours voulu savoir sur l'ACP (ou pas)"
date: 2021-10-27 10:00
categories: [Image S9, OCVX2]
tags: [Image, SCIA, S9, OCVX2]
math: true
---
Lien de la [note Hackmd](https://hackmd.io/@lemasymasa/ryg-FKLIt)
On a un nuage de points:
![](https://i.imgur.com/sc6YCUB.png)
![](https://i.imgur.com/UinSHaK.png)
On une infinite de directions possibles. On projette sur les axes:
![](https://i.imgur.com/F6ikHt6.png)
:::info
On cherche un vecteur $\vec u$ tel que l'erreur de projection des $\{x_i\}$ sur l'espace engendre par notre vecteur $\text{span}(u)$ soit minimale.
:::
En formulation mathematiques:
$$
\text{proj}(x_i,\text{span}(u))=P_u(x_i)=\langle x_i,u\rangle = x_i^Tu
$$
:::warning
En l'etat: une infinite de solutions (si $u$ solutions, $ku$ solutions avec $k\in\mathbb R^{\*}$)
:::
On impose $\Vert u\Vert=1$
$$
P_u(x_i)=\langle x_i,u\rangle=x_i^Tu\to E(x_i,\underbrace{P_u(x_i)}_{y_i}) = \Vert x_i-y_i\Vert^{(2)}
$$
:::success
On cherche donc:
$$
\text{arg}\min_{u,\Vert u\Vert=1}\sum_{i=1}^n E(x_i,P_u(x_i))
$$
:::
D'apres Pythagore:
$$
\Vert x_i\Vert^2=\Vert y_i\Vert^2+\Vert x_i-y_i\Vert\\
\Vert x_i-y_i\Vert^2=\Vert x_i\Vert^2-\Vert y_i\Vert^2
$$
On peut donc reecrire:
$$
\begin{aligned}
\sum_{i=1}^nE(x_i,P_u(x_i))&=\sum_{i=1}^n\Vert x_i-y_i\Vert^2\\
&=\underbrace{\sum_{i=1}^n\Vert x_i\Vert^2}_{\text{constante}} - \sum_{i=1}^n\Vert y_i\Vert^2
\end{aligned}
$$
Donc:
$$
\begin{aligned}
\text{arg}\min_{u,\Vert u\Vert=1}&=\text{arg}\min_{u,\Vert u\Vert=1}-\sum_{i=1}^n\Vert y\Vert^2\\
&=\text{arg}\max_{u,\Vert u\Vert=1}\sum_{i=1}^n\Vert y_i\Vert^2\\
&=\text{arg}\max_{u,\Vert u\Vert=1}\underbrace{\frac{1}{n}\sum_{i=1}^n\Vert y\Vert^2}\\
&\Vert y_i\Vert^2=y_i^Ty_i\underbrace{\frac{1}{n}\sum_{i=1}^ny_i^Ty_i}_{\text{var}(P_u(X))}
\end{aligned}
$$
On est en train de chercher:
$$
\begin{aligned}
\text{arg}\min_{u,\Vert u\Vert=1}-\sum_{i=1}^n\Vert y_i\Vert^2&= -\frac{1}{n}\sum_{i=1}^ny_i^Ty_i\\
&= -\frac{1}{n}\sum_{i=1}^n(x_i^Tu)^T(x_i^Tu)\\
&= -\frac{1}{n}\sum_{i=1}^nu^Tx_ix_i^Tu\\
&= -u^T(\underbrace{\frac{1}{n}\sum_{i=1}^nx_ix_i^T}_{\Sigma\text{ matrice de covariance} \\ \text{de } X=\{x_i\}^n_{i=1}\text{ centre}})u
\end{aligned}
$$
:::danger
On cherche: $$\boxed{\text{arg}\min_{u\in\mathbb R^p \\ \Vert u\Vert =1}-u^T\underbrace{\Sigma}_{\text{matrice de} \\ \text{covariance}}u}$$
:::
$$
\text{arg}\max_{\Vert u\Vert=1}u^T\Sigma u = \text{arg}\max\overbrace{\frac{u^T\Sigma u}{u^Tu}}^{\text{Quotien de Rayleigh}}
$$
On va reecrire:
$$
\text{arg}\min_{u\in\mathbb R^p}-u^T\Sigma u\\
\begin{aligned}
\Vert u\Vert =1\Leftrightarrow &\Vert u\Vert^2=1\\
&\begin{cases}
u^Tu=1 &f(u)-u^T\Sigma u\\
u^Tu-1=0&g(u)=u^Tu-1
\end{cases}\biggr\}\text{arg}\min_{g(u)=0} f(u)
\end{aligned}
$$
Le lagrangien de ce probleme est $\mathscr L(u\lambda)=f(u)+\lambda g(u)-u^T\Sigma u+\lambda(u^Tu-1)$
- Stationnarite de $\mathscr L:\nabla_u\mathscr L(u,\lambda)=0=\nabla_u(-u^T\Sigma u)+\lambda\nabla_u(u^Tu-1)$
:::info
**Rappel**: $f(x)=x^TAx$
:::
On calcule la differentielle $f(x+h)=f(x)+df_x(h)+O(h)$
$$
\begin{aligned}
f(x+h)=(x+h)^TA(x+h)=\underbrace{x^TAx}_{f(x)}+x^T\underbrace{AH+h^T}&Ax+\underbrace{h^TAh}_{O(h)}\\
x^TAh+(\underbrace{h^TAx})^T&\\
\underbrace{x^TA^Th}&\\
x^T(A+A^T)h&\to df_x(h)=x^T(A+A^T)h\\
(=2x^TAh\text{ si } &A \text{ symetrique } A=A^T)
\end{aligned}\\
$$
$$
df_x(h)=\langle\nabla_xf,h\rangle=\nabla_xf^Th\to\nabla_xf=(A+A^T)x=2Ax\\
\begin{aligned}
\nabla_u(-u^T\Sigma u)=-\nabla_u(u^T\Sigma u)=-2\Sigma u\\
\nabla_u(u^Tu)=\nabla_u(u^TI_du)=2u
\end{aligned}\biggr\}-2\Sigma u+2du=0
$$
:::danger
$$
\color{red}{\boxed{\Sigma u=\lambda\mu}}
$$
$u$ est un vecteur propre de $\Sigma$
$\lambda$ est sa vlaeur propre
:::
On se souvient qu'on cehrche $u$, $\Vert u\Vert=1$ qui maximise:
$$
\begin{aligned}
\underbrace{\frac{1}{n}\sum_{i=1}^n\Vert y_i\Vert^2}_{\text{var}(P_u(x))}&= \frac{1}{n}\sum_{i=1}^ny_i^Ty_i\\
&=\frac{1}{n}\sum_{i=1}^n(x_i^Tu)(x_i^Tu)\\
&=\frac{1}{n}\sum_{i=1}^nu^Tx_ix_i^Tu\\
&=u^T(\frac{1}{n}\sum_{i=1}^nx_ix_i^T)u\\
&=u^T\underbrace{\Sigma u}_{\lambda u}\\
&=\lambda \underbrace{u^Tu}_{\Vert u\Vert^2 =1}\\
&=\lambda
\end{aligned}
$$