---
title: Hoffman ratio bound in 白話文
categories: practice
date: 2022/3/16
authors: 李翊誠
breaks:
spicy:
tags: LA-Tea
---
{%hackmd 5xqeIJ7VRCGBfLtfMi0_IQ %}
<style>
#theorem{
background-color:rgb(230, 230, 230);
border: 2px solid rgb(100, 100, 100);
border-radius: 6px;
}
</style>
:::warning
- [x] "頗重要" 是一個贅詞,可以給一些比較明確敘述,比如說:一個連結圖獨立數和相鄰矩陣最小特徵值的不等式
:::
## 詳細解說 Hoffman ratio bound 及其證明
### 前言與定理敘述
在譜圖論(spectral graph theory)中,有一個描述連結圖獨立數和相鄰矩陣最小特徵值之間的不等式 — Hoffman ratio bound,或稱 Hoffman–Delsarte inequality:
<div id="theorem">
Suppose that $G$ is a $k$-regular graph, then
$$
\alpha(G) \leq \frac{n}{1-\frac{k}{\lambda_n}}
$$
</div>
:::warning
- [x] independent set --> 獨立集(independent set);第一次用括號說明英文,之後都改成中文
- [x] $\lambda_{min}$ --> $\lambda_\text{min}$;後面的 $\lambda_{max}$ 也改一下
- [x] 翻譯明確的沒必要用英文,像是點(vertex)、度數(degree)
- [x] k-regular graph --> $k$-regular graph
- [x] 尋找獨立集(independent set)的大小在譜圖論之中是其中一個重要的課題 <-- 譜圖論 改成 圖論
- [x] 但大多數時候我們並沒有辦法精確找出它的大小 --> 但要求出它的精確值是一個 NP-問題
- [x] ,但我們可以使用一些不等式 --> 。然而、我們可以使用一些不等式
:::
其中有許多符號及定義,我們先一一解釋:
* $\alpha(G)$,在圖 $G$ 之中最大的獨立集([independent set](https://zh.wikipedia.org/wiki/%E7%8B%AC%E7%AB%8B%E9%9B%86))的大小,何謂獨立集?是指在 $G$ 的點集合中的一子集合,且兩個在該子集合的元素 $a,b$ 在圖中不相連。
* 我們定義 $\lambda_1 \geq \lambda_2 \geq \dots \geq \lambda_n$ 為 $G$ 所表示的鄰接矩陣([adjacency matrix](https://en.wikipedia.org/wiki/Adjacency_matrix))的特徵值,其中 $\lambda_n$ 為其最小的特徵值。
* $\text{regular graph}$,指的是該圖之中的每個點都有相同的度數,$k\text{-regular graph}$ 尤指每個點的度數都為 $k$。
尋找獨立集的大小在圖論之中是其中一個重要的課題,但要求出它的精確值是一個 NP-問題。然而、我們可以使用一些不等式將其壓在特定數值之下,而 Hoffman ratio bound 就是其中一個方式。
### 證明
在證明整個定理之前,我們需先知道一個小背景知識:
<div id="theorem">
While $G$ is a connect graph,
$$
\text{$G$ is $k$-regular graph} \implies |\lambda_1| = k.
$$
</div>
:::warning
- [x] 括號裡英文不用大寫,實際上第二次講到鄰接矩陣的時候就不用再給英文和連結了
:::
其中提醒一下 $\lambda_1$ ,是指 $G$ 所表示的鄰接矩陣(adjacency matrix)的最大特徵值。
:::warning
- [x] 中英文之間空格
- [x] $\max$ 的下標是不是 $i = 1$?
:::
我麼先說明這個背景小知識,令:
* $A$ 為圖 $G$ 的鄰接矩陣。
* $\bx$ 為 $A$ 的一特徵向量,且 $\bx$ 所對應的特徵值為$\lambda_1$。
* $x_j$ 為 $\bx$ 之中絕對值最大的元素,即 $x_j = \max_{i=0}^{n}|x_i|$。
我們可以透過以下不等式來說明:
$$
|\lambda_1||x_j| = |(A\bx)_j| = \left|\sum_{i, v_i\in N(v_j)} x_i\right| \leq \deg(v_j)|x_j| = k |x_j|
$$
其中 $N(v_j)$ 代表點 $v_j$ 的鄰居,$\deg(v_j)$ 代表點 $v_j$ 的度數。
:::warning
- [x] row 用中文
- [x] 做為 --> 作為
- [x] $0$ 和 $1$ 都要進數學模式
- [x] 說明 $N(v_j)$ 以及 $\deg$ 等符號
:::
1. 第一個等於只是簡單地單看 $A\bx$ 的第 $j$ 項,也就是單獨將 $A$ 的第 $j$ 列與 $\bx$ 內積相乘。
2. 而 $A$ 作為一圖的鄰接矩陣,其中不是 $0$ 就是 $1$、第 $j$ 列中為 1 的位址代表的即是圖 $G$ 中與 $v_j$ 相連的點。
3. 因此將會有 $\deg v_j$ 個元素相加,但我們已令 $x_j$ 為 $\bx$ 之中絕對值最大的元素,因此我們可以寫做等式可被 $\deg(v_j)|x_j|$ 壓下。
4. 同時 $\deg(v_j)$ 就是 $k$,因此我們就有了以上的不等式。
:::warning
- [x] 以上幾點說明了 $|\lambda_{max}| \le k$。
- [x] 因為確實存在一特徵向量,也就是全一向量 $\bone$,使得 $A\bone = k\bone$,而其對應的特徵值剛好就是 $k$。
:::
以上幾點說明了 $|\lambda_1| \le k$,但實際上,我們可以說 $\lambda_1 = k$,因為確實存在一特徵向量,也就是全一向量 $\bone$,使得 $A\bone = k\bone$,而其對應的特徵值剛好就是 $k$。
$$\bd=\begin{pmatrix}
1\\
1\\
\vdots\\
1
\end{pmatrix},
A\bd = k\bd$$
$\bd$ 的特徵值正是 $k$。
---
:::warning
- [x] 上面用 $\lambda_\text{min}$ 下面用 $\lambda_n$ 很怪,我建議把上面的都改成 $\lam
:::
之後我們就可以解釋 Hoffman-Delsarte inequality 的核心部分,首先我們先定義:
- $J_n$ 為 $n\times n$ 的全 $1$ 矩陣
- $\lambda_n$ 為 $A$ 最小的特徵值
我們寫兩個矩陣:
$$A,\quad \frac{k-\lambda_n}{n}J_n$$
注意這邊 $A$ 和 $J_n$ 各自都可以對角化,且 $AJ_n = J_nA$ 則存在一可逆矩陣 $S$ 使得 $S^{-1}AS$ 和 $S^{-1}J_nS$ 均為對角矩陣,也就是說 $A$ 和 $J_n$ 有相同的特徵向量集,我們稱 $A$ 和 $J_n$ 可同時對角化([simultaneously diagonalizable](https://en.wikipedia.org/wiki/Diagonalizable_matrix#Simultaneous_diagonalization))。接著我們令相同的特徵向量集為 $V$,任何 $V$ 中的特徵向量 $\bv$ 也是 矩陣 $A-J_n$ 的特徵向量,因為:
$$(A-J_n)\bv = A\bv - J_n\bv = \lambda_A\bv - \lambda_{J_n}\bv = (\lambda_A - \lambda_{J_n})\bv$$
其中,$\lambda_A$ 代表 $A$ 的某一個特徵值、$\lambda_{J_n}$ 代表 $J_n$ 的某一個特徵值,也就是說我們可以透過相減一些 $A$ 的特徵值與 $J_n$ 來得到新的矩陣 $(A-J_n)$ 的特徵值。
但我們怎麼知道哪一個特徵值對應到哪個特徵值呢?
我們知道全為 $1$ 的矩陣 $J_n$ 的特徵值只有兩個 $n$、$0$,重數分別為 $1$ 和 $n-1$,而矩陣$\frac{k-\lambda_n}{n}J_n$ 的特徵值則為 $k-\lambda_n$ 和 $0$。
$$\text{let }\bd=\begin{pmatrix}
1\\
1\\
\vdots\\
1
\end{pmatrix},\quad
A\bd = k\bd,\quad
\frac{k-\lambda_n}{n}J_n\bd=(k-\lambda_n)\bd$$
$A$ 之中特徵值 $k$ 對應到的是 $\frac{k-\lambda_n}{n}J_n$ 之中的 $(k-\lambda_n)$,其餘的特徵值對應到的都是 $0$,因此我們可以重組出新矩陣的全部特徵值,令 $A$ 的特徵值由大到小為 $\lambda_1,\lambda_2,\dots,\lambda_n$
$$\begin{align}
\spec(A - \frac{k-\lambda_n}{n}J_n) &= \{\lambda_1-(k-\lambda_n),\lambda_2-0,\lambda_3-0,\dots,\lambda_n-0\}\\
&=\{k-k+\lambda_n, \lambda_2,\dots, \lambda_n\}\\
&=\{\lambda_n, \lambda_2,\dots, \lambda_n\}
\end{align}$$
之中最小的特徵值確定為 $\lambda_n$。
接著我們定義矩陣 $E$
$$E = A - \frac{k-\lambda_n}{n}J_n - \lambda_nI_n$$
這麼做可以將所以特徵值統一減去 $\lambda_n$,保證了 $E$ 必為半正定(Positive semi-definite)。
給定原圖 $G$ 之中最大的 independent set $S$,$S$ 的大小為 $\alpha$,在 $E$ 之中單獨取出第 $i$ row 和第 $i$ column 的 $\alpha\times\alpha$ 子矩陣 $E_\alpha$
$$E_\alpha = E_{\{i,v_i\in S\}} = -\frac{k-\lambda_n}{n}J_\alpha - \lambda_n I_\alpha$$ 是矩陣 $E$ 的一個主子矩陣(principal submatrix)
如下舉例:
$$\text{if } E =\begin{bmatrix}
2 & 4 & 1 & 3 & 0\\
4 & 6 & 2 & 1 & 2\\
1 & 2 & 7 & 3 & 0\\
3 & 1 & 3 & 9 & 3\\
0 & 2 & 0 & 3 & 2\\
\end{bmatrix}
,\text{then }
E_{\{2,4,5\}}=\begin{bmatrix}
6 & 1 & 2\\
1 & 9 & 3\\
2 & 3 & 2\\
\end{bmatrix}$$
而一個半正定矩陣的主子矩陣也會是半正定,不過現在的 $E_\alpha$ 僅由 $J_\alpha$ 和 $I_\alpha$ 組成,我們能夠直接推導出他的特徵值了。
$$\spec(-\frac{k-\lambda_n}{n}J_\alpha)=\{-\alpha\frac{k-\lambda_n}{n},0\}$$
$$\spec(E_\alpha)=\spec(-\frac{k-\lambda_n}{n}J_\alpha - \lambda_n I_\alpha)=
\{-\alpha\frac{k-\lambda_n}{n}-\lambda_n,0-\lambda_n\}\\
=\{-\alpha\frac{k-\lambda_n}{n}-\lambda_n,-\lambda_n\}$$
且半正定矩陣的所有特徵值均 $\ge0$,因此:
$$\begin{align}
-\alpha\frac{k-\lambda_n}{n}-\lambda_n\ge0 &
\implies -\alpha\frac{k-\lambda_n}{n} \ge \lambda_n\\
&\implies \alpha\frac{k-\lambda_n}{n} \le -\lambda_n\\
&\implies \alpha \le \frac{-n\lambda_n}{k-\lambda_n}\\
&\implies \alpha \le \frac{n}{1-\frac{k}{\lambda_n}}
\end{align}_\square$$
到此我們就證明完了 Hoffman ratio bound。