--- breaks: false --- Spectral decompositions (BY-EXAMPLE) ==================================== Defs --- Пусть $A:X\to X$ --- линейный оператор. Число $\lambda\in\mathbb{C}$ называют *собственным значением* оператора $A$, или *точкой точечного спектра* оператора $A$, если оператор $$A - \lambda I$$ не инъективен, то есть существует ненулевой вектор $x\in X$, для которого $$A x = \lambda x.$$ Такой вектор $x$ называется *собственным* вектором оператора $A$, *соответствующим собственному значению $\lambda$*. Пусть $X$ --- $n$-мерное ($n < \infty$) линейное пространство. Говорят, что $A$ --- оператор *простого спектра*, если он имеет $n$ линейно-независимых собственных векторов. **Def.** Оператор $P$ называют [*проектором*](https://en.wikipedia.org/wiki/Projection_(linear_algebra)), если $P^2=P$. **Теорема о спектральном разложении**: пусть $A$ --- оператор простого спектра, $e_1, \ldots, e_n$ --- его $n$ линейно-независимых собственных векторов, а $\lambda_1, \ldots, \lambda_n$ --- соответствующие им (вообще говоря, не все различные) собственные значения. Тогда оператор $A$ представим в виде $$A = \lambda_1 P_1 + \cdots + \lambda_n P_n,$$ где оператор $P_i$ --- *проектор*, соответствующий вектору $e_i$ и определённый равенствами $$P_i e_j = \left\{\begin{aligned} 0,\ i\neq j,\\ e_j,\ i=j, \end{aligned}\right.$$ где $i,j\in\{1, \ldots, n\}$. При этом проекторы $P_1, \ldots, P_n$ образуют *разложение единицы*: $$P_1 \oplus \cdots \oplus P_n = I.$$ **NB**: такие проекторы обладают свойством $$P_i P_j = \left\{\begin{aligned} I,\ i=j,\\ 0,\ i\neq j. \end{aligned}\right.$$ С помощью спектрального разложения, например, можно легко вычислить степень оператора, или экспоненту от оператора (**NB**: экспонента даёт группу решений линейного ОДУ): $$e^A = \sum_{j=0}^\infty \frac{1}{j!} A^j = \sum_{j=0}^\infty \frac{1}{j!}(\lambda_1^j P_1 + \cdots + \lambda_n^j P_n) = e^{\lambda_1} P_1 + \cdots + \cdots e^{\lambda_n} P_n.$$ Рассмотрим линейное ОДУ: $$\dot x = Ax,$$ $$x(0) = x_0.$$ Решение такого уравнения есть экспонента $$e^{At}x_0$$ Группа преобразований этого дифференциального уравнения: $$t \mapsto e^{At}.$$ **NB**: экспонента в принципе определяется, как функция, удовлетворяющая дифференциальному уравнению $$\frac{\mathrm{d}}{\mathrm{d}x} \mathrm{exp} = k\mathrm{exp},\ k=\mathrm{const}$$ #### Задачи $$ \left\{\begin{aligned} & \dot x = 2x + y,\\ & \dot y = 3x + 4y. \end{aligned}\right. $$ Matrix JNF --- Для матриц определения аналогичны. Теорема о спектральном разложении для матриц означает, что в базисе $e_1, \ldots, e_n$ матрица оператора $A$ имеет диагональный вид и на главной диагонали стоят числа $\lambda_1, \ldots, \lambda_n$: $$\begin{pmatrix} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \end{pmatrix}.$$ Проектор $P_j$ в таком базисе имеет матрицу, на $j$-м месте главной диагонали которой стоит единица, а остальные элементы --- нули: $$\left(\begin{smallmatrix} 0 & & \\ & \ddots & \\ & & 0 \\ & & & 1 \\ & & & & 0 \\ & & & & & \ddots \\ & & & & & & 0 \end{smallmatrix}\right).$$ К сожалению, не все операторы (матрицы) имеют простую структуру. Если не хватает линейно-независимых векторов, то рассматривают присоединённые векторы, жордановы клетки и [ЖНФ](https://en.wikipedia.org/wiki/Jordan_matrix). Лень набирать текст. SVD --- ### Applied: [PCA](https://en.wikipedia.org/wiki/Principal_component_analysis) More links: [1](https://math.stackexchange.com/questions/3869/what-is-the-intuitive-relationship-between-svd-and-pca). Requirements: [covariance](https://en.wikipedia.org/wiki/Covariance_matrix), [covariance estimation](https://en.wikipedia.org/wiki/Estimation_of_covariance_matrices). Пусть $X\in\mathbb{R}^{m\times n}$ --- матрица с $m$ наблюениями некоторого $n$-мерного случайного вектора $\xi$ с нулевым средним $\mathbb{E}\xi = 0$. Необходимо сократить размерность пространства (dimentionality reduction), т.е. для каждого $x\in\mathbb{R}^n$ поставить в соответствие $c=f(x)\in\mathbb{R}^k,k<n$. Для обратного преобразования определим ф-ю $g(c)=Dc, D\in\mathbb{R}^{n\times k}$, для которой $g(f(x))\sim x$. Т.о. необходимо найти такой $c^*$ для каждого $x$, чтобы минимизировать расстояние между $x$ и $g(c^*)$ (для определения расстояния можно использовать $L^2$-норму в квадрате): $$c^*=\min\limits_{c}\|x-g(c)\|_2^2=\min\limits_{c} -2x^T Dc + c^T c$$ Решая задачу оптимизации, получим: $c=f(x)=D^Tx$ Соответственно, для восстановления изначальной размерности: $r(x)=g(f(x))=DD^Tx$ Operators spectral decomposition --- Fourier Series --- ### Applied: Fourier method for wave eqn (Separation of Variables) Links&requirements: [partial derivatives and PDE's](https://en.wikipedia.org/wiki/Partial_derivative), [wave eqn](https://en.wikipedia.org/wiki/Wave_equation), [separation of variables](https://en.wikipedia.org/wiki/Separation_of_variables#Partial_differential_equations). Рассмотрим скалярный случай волнового уравнения: $$(\frac{\partial^2}{\partial t^2}u)(t, x) = c^2 (\frac{\partial^2}{\partial x^2}u)(t, x),$$ $$((\frac{\partial^2}{\partial t^2} - c^2 \frac{\partial^2}{\partial x^2})u) (t, x) = 0,$$ $$u(t,0) = u(t,L) = 0,$$ $$c\in[0,+\infty].$$ Оно описывает поперечные колебания струны длины $L$ в плоскости, $u(t, x)$ --- отклонение точки $x$ от положения равновесия в момент времени $t\in\mathbb{R}_{+}$. **TODO**: пикчу сюда. Видно, что можно попытаться применить к этому уравнению технику *разделения переменных*. Пусть $u(t,x) = T(t)X(x)$. Тогда уравнение можно переписать в виде: $$T^{\prime\prime}(t)X(x) = c^2 T(t) X^{\prime\prime}(x),$$ $$\frac{X^{\prime\prime}}{X}(x) = \frac{T^{\prime\prime}}{c^2 T}(t),$$ при любых $t\in\mathbb{R}_{+},\ x\in[0,L].$ Такое возможно только если и левая и правая часть равны одной константе: $$\frac{X^{\prime\prime}}{X}(x) = \frac{T^{\prime\prime}}{c^2 T}(t) = \mu.$$ Получаем два обыкновенных дифференциальных уравнения: $$((\frac{\mathrm{d^2}}{\mathrm{d}x^2} - \mu I)X)(x) = X^{\prime\prime}(x) - \mu X(x) = 0,$$ $$((\frac{\mathrm{d^2}}{\mathrm{d}t^2} - c^2 \mu I)T)(t) = T^{\prime\prime}(t) - c^2 \mu T(t) = 0.$$ Собственные функции первого уравнения: $e^{\mu x},\ e^{-\mu x}$. Второго уравнения: $e^{c\mu t},\ e^{-c\mu t}$. Так как решение $T$ должно быть периодическим, необходимо $\operatorname{Im}\mu \neq 0$. Покажем, что $\operatorname{Re}\mu = 0$: пусть $X(x) = c_1 e^{\mu x} + c_2 e^{-\mu x}$; из краевых условий: $$0 = X(0) = X(L) = c_1 + c_2 = c_1 e^{\mu L} + c_2 e^{-\mu L} = 0,$$ из чего следует $X=0$, если $\operatorname{Re}\mu \neq 0$. Имеем $X(x) = A \cos(\mu x) + B \sin(\mu x),$ $X(0) = B = 0,$ $X(L) = A \cos(\mu L) = 0,$ $\mu L = \frac{\pi n}{2},$ то есть собственные значения нашего диф. оператора $\frac{\partial^2}{\partial t^2} - c^2 \frac{\partial^2}{\partial x^2})$: $$\mu = \frac{\pi n}{2L},\ n\in \mathbb{N}.$$ Его собственные функции: $$\cos(\frac{\pi n}{2L}), \cdots$$