https://arxiv.org/pdf/2502.01146
中文podcast
https://notebooklm.google.com/notebook/2bc91840-2bc1-4657-954d-fd8de2c703ce/audio
### 第一章
### 緒論
運算能力的進步一直是推動每一次重大工業革命的核心力量。現代電腦的發明,隨後是中央處理器(CPU)的誕生,引領了「數位革命」,透過流程自動化與資訊技術的興起,徹底改變了各種產業。近期,圖形處理器(GPU)的發展則驅動了人工智慧(AI)與大數據的時代,使得智慧交通系統、自駕車、科學模擬與複雜資料分析等領域皆出現重大突破。
然而,隨著我們逐漸逼近摩爾定律的物理與實用極限——此定律指出晶片上的電晶體數量大約每兩年加倍——傳統運算設備如CPU與GPU的擴展潛力正逐步趨近極限。由於資料量的指數型成長與現代應用日益複雜,對運算能力的需求不斷攀升,促使我們尋求全新的運算典範。
在眾多潛在解方中,量子電腦(Feynman, 2017)因其基於量子力學的超位置(superposition)與糾纏(entanglement)等特性,能以傳統系統無法實現的方式進行資訊處理,被認為有可能徹底革新日常生活的各個面向。
理解量子電腦潛力的最直接方式之一,是透過「複雜度理論」(Watrous, 2008)的架構。理論電腦科學家已證明,量子電腦能有效解決屬於 BQP(Bounded Error Quantum Polynomial Time,具界錯誤量子多項式時間)複雜度類別的問題,也就是說,這些問題可以透過量子電腦於多項式時間內完成。相對地,傳統電腦則僅能有效處理屬於 P(Polynomial Time,多項式時間)類別的問題。雖然目前尚無法證明 P ⊆ BQP,但普遍相信此關係成立,顯示對於某些傳統電腦無法處理的問題,量子電腦可望帶來指數級的運算加速。
其中一個最具代表性的例子是「大數質因數分解」問題,這正是RSA加密演算法的基礎。Shor演算法(Shor, 1999)是一種量子演算法,能在多項式時間內完成大數分解,而現今最有效的傳統分解演算法則需要超多項式時間。例如,破解一組 RSA-2048 位元的加密金鑰,傳統電腦大約需耗時 300 兆年,而理想的量子電腦僅需約 10 秒即可完成。然而,建造「理想」量子電腦仍是一項重大挑戰。如後續章節所述,根據現行的製程技術,若具備足夠數量的量子位元(qubit,量子運算的基本單位),即便是具噪音的量子電腦,仍有可能在約 8 小時內完成此項任務(Gidney and Ekerå, 2021)。
量子電腦所帶來的運算能力,與當前AI模型所面臨的限制相互交錯,促成了一個新興領域的快速崛起:量子機器學習(Quantum Machine Learning, QML)(Biamonte et al., 2017)。目前AI的挑戰之一源自於神經網路的「規模擴張定律」(neural scaling law)(Kaplan et al., 2020),其核心觀點為「越大越好」。自2020年以來,這一法則促使模型持續朝更巨大的參數規模與更複雜的架構演進。然而,這樣的發展也伴隨著龐大成本。例如,以單一GPU訓練如ChatGPT等模型約需時 355 年,而在雲端平台上訓練此類大型模型的成本可高達數萬美元。
這些驚人的成本已成為AI持續發展的關鍵障礙。而量子運算,因其卓越的運算潛力,有望突破這些限制。它提供了進一步推進像GPT這類生成式預訓練模型,甚至加速通往「人工通用智慧(AGI)」的可能性。量子運算,特別是QML,代表了一場運算典範的轉變——從傳統的「以位元為本(it from bit)」進入「以量子位元為本(it from qubit)」的新時代,並有潛力重塑AI與運算科學的整體格局。
以下是你提供的《1.1 初探量子機器學習》的完整繁體中文翻譯,已忠實保留技術術語、表格資訊與數學公式,並用台灣慣用語句表達:
---
### 1.1 初探量子機器學習(Quantum Machine Learning, QML)
那麼,什麼是量子機器學習(QML)?
用最簡單的方式來說,本教材所關注的QML主題可以如下簡述(系統性概述請參見第1.1.3節):
> **量子機器學習(非正式定義)**
> QML 是研究可在量子電腦上執行的學習演算法,以完成特定任務,並相較於傳統實作具有潛在優勢。
上述定義中的三個關鍵元素為:**量子處理器**、**特定任務**、**潛在優勢**。接下來我們將針對這些術語逐一釐清其具體含義,奠定理解QML運作機制與潛能的基礎。
---
#### 1.1.1 量子電腦(Quantum Computers)
量子運算的起源可追溯至1980年,當時 Paul Benioff 提出了**量子圖靈機**(Benioff, 1982),這是傳統圖靈機的量子對應版本,透過量子理論來描述計算模型。自此之後,出現了多種量子運算模型,包括:
- 基於電路的量子運算(circuit-based quantum computation)(Nielsen & Chuang, 2011)
- 單向量子運算(one-way quantum computation)(Raussendorf & Briegel, 2001)
- 結合緩慢變化原理的絕熱量子運算(adiabatic quantum computation)(Albash & Lidar, 2018)
- 拓撲量子運算(topological quantum computation)(Kitaev, 2003)
這些模型皆已被證明在計算能力上與量子圖靈機等價,亦即任何一種模型若被完美實作,皆可在多項式成本內模擬其他模型。
鑑於目前學術與產業界主要聚焦在**電路式量子電腦**,並且其發展進展快速,本教材也將以此模型作為探討重點。
量子運算於1980年代初期再次受到重視,當時物理學家在模擬量子動力學時面臨運算需求指數型爆增的問題,特別是在粒子數增加的情境下。這種「維度災難」促使 Yuri Manin 與 Richard Feynman 分別提出應該利用量子現象建構量子電腦,理由是這樣的裝置將遠比傳統電腦更有效率地模擬量子系統。

然而,作為一種**通用運算設備**,量子電腦的潛能遠不僅限於量子模擬。1990年代,Shor(1999)提出一項劃時代的量子演算法——**大數分解演算法**,對RSA與Diffie-Hellman等加密協議構成嚴峻威脅。1996年,Grover演算法則展示了對無結構搜尋問題的**平方加速**(Grover, 1996),此類問題具有廣泛應用性。自此以後,量子運算的影響力已拓展至金融(Herman et al., 2023)、藥物設計(Santagati et al., 2024)、最佳化(Abbas et al., 2024)等多個領域,並涵蓋本教材重點的機器學習。
---
#### 直觀理解:經典運算 vs 量子運算
量子電腦為何能超越傳統電腦?我們可從其基本構成進行比較,如圖1.1所示,傳統與量子電腦皆包含三個基本部分:輸入、計算過程與輸出。表格1.1則總結了兩者在這三個構成上的實作差異。
##### 表格1.1:傳統運算與量子運算比較
| 類別 | 傳統運算 | 量子運算 |
|------------|------------------------|--------------------------|
| 輸入 | 二進位位元(bits) | 量子位元(qubits) |
| 計算 | 數位邏輯電路 | 量子電路 |
| 輸出 | 解答輸出 | 量子量測(quantum measurement)|
**位元 vs 量子位元**"Bits versus Qubits" :傳統位元只能取 0 或 1 的值,而量子位元可以同時處於 0 與 1 的**疊加狀態**,以二維向量表示,其中的元素對應各狀態的機率。
此外,傳統位元符合笛卡兒積規則,而量子位元遵循**張量積(tensor product)規則**。因此,N個qubit的系統將對應一個2ⁿ維的向量,可實現指數量級的資訊編碼,遠超過傳統位元的容量。表格1.2整理了這些數學表達方式。
##### 表格1.2:N位元的數學表示(† 表示轉置共軛,C 為複數空間)
| 類別 | 傳統系統 | 量子系統 |
|----------------|---------------------|------------------------------------|
| 單一位元 (N=1) | x ∈ {0,1} | [a₁, a₂]† ∈ C²,a₁² + a₂² = 1 |
| 多位元 (N>1) | x ∈ {0,1}ⁿ | [a₁, ..., a₂ⁿ]† ∈ C²ⁿ,a₁² + ... + a₂ⁿ² = 1 |
**數位邏輯 vs 量子電路**:傳統電腦以確定性的邏輯閘進行位元操作。相對地,量子電腦使用**量子閘(quantum gates)**作用於單個或多個量子位元,以改變其機率振幅(即a₁到a₂ⁿ)。由於量子閘具普適性,任一初始量子狀態皆可透過某組量子閘組合轉換為目標狀態。特定的機率分布可由量子電腦以多項式數量的量子閘實現,而傳統電腦則需指數數量,這便是**量子優勢(quantum advantage)**的根本原因。
**量測(readout)**:量子運算的讀取過程與傳統完全不同。量子量測會將量子資訊轉換為可供經典系統理解的形式。在量子物理與化學的問題中,量測結果能揭示出比傳統模擬更多有用資訊,因此能在取得物理性質上提供極大加速。
---
#### 量子運算的衡量指標
本教材將在第二章提供量子運算的正式定義。影響量子電腦運算能力的主要因素為:
1. **量子位元數量(qubit)**
2. **量子閘的種類與品質**
由於建構量子電腦非常困難,qubit 與 quantum gate 都易產生錯誤,因此「品質」成為重要衡量指標之一。其中常見指標是**量子體積(Quantum Volume, VQ)**(Cross et al., 2019),它綜合考量誤差率與整體效能,以評估一台量子電腦能否完成「heavy output generation」問題。
其數學定義如下:

其中,m ≤ N 表示從 N 個 qubit 中選出的 qubit 數量,而 d(m) 表示在此 qubit 數下仍能以機率大於 2/3 可靠產出 heavy output 的最大正方形電路規模。
##### 表格1.3:截至2024年12月的量子電腦進展
| 時間 | log₂(VQ) | Qubit數量 | 製造商 | 系統名稱 |
|--------------|-----------|------------|----------------|----------------|
| 2024/12 | 21 | 105 | Google | Willow |
| 2024/08 | 9 | 56 | Quantinuum | H2-1 |
| 2024/07 | 19 | 156 | IBM | Heron |
| ... | ... | ... | ... | ... |
| 2020/08 | 6 | 27 | IBM | Falcon r4 |
---
請注意,量子體積並非唯一的性能評估指標。其他指標還包括:
- **CLOPS(Circuit Layer Operations Per Second)**:衡量運算速度,評估能否進行大量量子電路運算(Wack et al., 2021)
- **有效量子體積(Effective Quantum Volume)**:進一步考量噪音與錯誤率,針對雜訊量子處理器與傳統電腦進行比較(Kechedzhi et al., 2024)
這些指標有助於我們更全面地理解量子電腦在不同應用場景中的優勢與限制。
---
### 1.1.2 量子優勢的不同衡量方式
當我們談論「量子優勢(quantum advantage)」時,到底是指什麼?廣義而言,當量子電腦能**比傳統電腦更有效率地解決問題**時,便可稱之為展現了量子優勢。然而,這裡所指的「效率」並無唯一標準定義。
最常見的效率衡量方式是**執行時間複雜度(runtime complexity)**。藉由運用量子效應,某些計算能被顯著加速,甚至達到指數級的提升,使得原本對傳統電腦而言不可行的任務變得可行。最具代表性的例子是 Shor 演算法,它在大數分解任務上相較於最佳傳統演算法具備**指數加速**。
從執行時間的觀點來看,若某量子演算法在特定任務上的**時間上限小於所有傳統演算法的理論下限**,就可視為該任務實現了量子優勢。
在**量子學習理論(quantum learning theory)**中(Arunachalam and De Wolf, 2017),效率也可以透過**樣本複雜度(sample complexity)**來衡量,尤其是在「可大致正確(PAC, Probably Approximately Correct)」學習框架下,這亦為本教材核心架構之一。此處的樣本複雜度指的是:學習者為達到某一預測準確度門檻,所需的**互動次數**(例如:對目標量子系統的查詢或量測次數)。若某量子學習演算法在該任務的樣本複雜度上限低於所有傳統演算法的下限,即可視為實現了量子優勢。
值得注意的是,樣本複雜度雖是學習效率的重要條件,但**並不代表實務上就一定高效**。例如,即使總樣本數少,從中篩選有用的訓練樣本仍可能耗費大量計算時間。
> 🔍 **備註:傳統與量子機器學習中樣本複雜度的差異**
> 在傳統機器學習中,樣本複雜度通常是指模型為達良好泛化能力所需的訓練樣本數(如訓練一個影像分類器所需的標註圖像數)。
> 然而在量子機器學習中,樣本複雜度的定義依情境而異,例如:
>
> - **量子態斷層掃描(Quantum State Tomography)**:樣本複雜度是指為準確重建量子態所需的量測次數(參見第2.3.2節)。
> - **量子神經網路的泛化能力評估**:樣本複雜度是指為學會目標函數所需的輸入-輸出對數量(類似傳統ML,參見第4.4節)。
> - **量子系統學習**:樣本複雜度常指對量子系統的查詢次數,例如需多少次探測才能學會其哈密頓量動力學。
除了樣本複雜度外,**量子查詢複雜度(quantum query complexity)**也是常用的衡量方式,特別應用於量子統計學習與精確學習框架。由於本教材非以此為主軸,欲深入者可參閱 Anshu 與 Arunachalam(2024)的研究。
---
#### 量子優勢的兩種主流實現途徑
實現量子優勢可透過兩種主要策略:
1. **證明性優勢(provable advantage)**:發掘可透過量子電路實作,且在理論上可證明其相對於傳統方法在上述複雜度指標上具有優勢的問題(Harrow & Montanaro, 2017)。
- 優點:深化對量子運算潛能的理解
- 限制:常需大量量子資源,遠超過當前可用的雜訊中型量子設備(NISQ)
2. **實用性優勢(quantum utility)**:在目前的量子設備上,實作能達成**超越傳統暴力模擬法的精確計算**。這種「量子實用性」是指量子運算可以可靠產生傳統電腦難以處理、只能透過近似方法求解的高品質解答(Kim et al., 2023)。
邁向量子實用性的時代,意味著量子電腦的規模與穩定性已足以在科學研究中擔任有效工具,有望引領嶄新科學突破。
---
### 1.1.3 量子機器學習的主要任務探討
那麼,量子機器學習(QML)的研究焦點有哪些?
QML 的研究範圍廣泛,可依照運算資源與資料來源類型分為四大類別,每一類由以下兩項指標定義:
- **運算設備**:量子(Q)或傳統(C)
- **資料類型**:量子(Q)或傳統(C)
對應四個QML任務領域如下:
#### CC(Classical for Classical)
傳統資料 + 傳統運算:即為**傳統機器學習**。
如使用 CPU/GPU 執行神經網路分類貓狗圖像。
#### CQ(Classical for Quantum)
量子資料 + 傳統運算:即使用傳統ML方法分析量子實驗資料。
例如:用傳統神經網路分類量子態,從量測結果預測量子性質。
#### QC(Quantum for Classical)
傳統資料 + 量子運算:利用量子演算法處理傳統資料,以期提升效能或加速運算。
常見如:使用量子神經網路或量子核方法改善影像辨識精度。
#### QQ(Quantum for Quantum)
量子資料 + 量子運算:以量子電腦分析量子系統,減少資源消耗。
如:用量子神經網路進行量子態分類、模擬多體量子系統。
##### 🔍 備註:
本教材**主要聚焦在 QC 與 QQ 領域**。欲了解 CQ 領域可參考 Schuld et al. (2015)、Dunjko & Briegel (2018)、Carleo et al. (2019)。
---
#### 學習任務與應用領域分類(見圖1.2)

QML 不僅可按 Q/C 分類,也可依下列方式進一步細分:
- **學習任務類型**:
- 區辨式學習(Discriminative Learning)
- 生成式學習(Generative Learning)
- **學習模式**:
- 監督式(Supervised Learning)
- 非監督式(Unsupervised Learning)
- 強化學習(Reinforcement Learning)
- **應用領域**:
- 化學
- 電力系統
- 計算機視覺
- 物流
- 金融
- 醫療保健等
---
### 1.2 量子機器學習的發展進展
在 QC(Quantum for Classical)與 QQ(Quantum for Quantum)領域中,學術界與產業界皆投注大量心力,試圖釐清在什麼任務與條件下,QML 能相較傳統機器學習展現計算優勢。為更清楚理解 QML 的發展脈絡,我們須先回顧量子電腦本身的最新進展,因為它是支撐所有量子演算法的基礎架構。
---
### 1.2.1 量子電腦的發展現況
將量子物理應用於運算領域本身充滿新穎性與挑戰,這也促使不同架構的計算平台百花齊放,最終形成「電路式量子電腦」這一主流模型(詳見第1.1.1節)。為搶佔技術主導地位,許多公司與研究單位正全力開發各自的量子架構,期望率先在大型量子設備上展現實用性或量子優勢。
目前常見架構包括:
- **超導量子位元(superconducting qubits)**:如 IBM 與 Google 採用,具備可擴展性與高速閘操作(Huang et al., 2020a);
- **離子阱系統(ion-trap systems)**:由 IonQ 領先發展,具有高相干時間、單一 qubit 精密控制與全互聯特性(Bruzewicz et al., 2019);
- **Rydberg 原子系統**:如 QuEra,具備靈活的 qubit 連接能力(Morgado & Whitlock, 2021);
- **整合光子量子電腦(integrated photonic quantum computers)**:作為穩定且具擴展潛力的替代架構,逐漸嶄露頭角。

> 📊 **圖1.3**:2020-2040 年間各大廠商量子電腦架構與開發時程
> - IBM Quantum Condor:2023年達1121 qubits
> - QuEra:2023年256 qubits
> - IonQ Forte:2024年36 qubits
> - IBM Flamingo、Pasqal Orion Gamma 等預計於2025~2030年超過1000 qubits
> - Google 與 PsiQuantum 等預計於2030年後實現百萬 qubits 級且具錯誤修正功能的量子電腦
儘管量子硬體已有重大突破,但當前的量子電腦仍高度敏感於環境噪音,容易發生**量子退相干(decoherence)**,尚未具備**容錯運算(fault-tolerant)**所需的穩定性。因此,qubit、量子閘與量子量測目前皆仍不完美,易產生錯誤與不可靠結果。
為描述這一階段,John Preskill 提出了「**雜訊中型量子時代(NISQ era)**」(Preskill, 2018)一詞,指的是目前擁有數百至數千 qubits 的處理器,但仍受限於高錯誤率與有限的相干時間。
在 NISQ 時代,我們雖已見證數個指標性成就,例如 Google 與中國科學技術大學(USTC)在特定**隨機取樣任務(sampling tasks)**上已展現量子優勢(Arute et al., 2019;Wu et al., 2021),但大多數具有理論運算加速能力的量子演算法仍仰賴具容錯能力的量子系統,這是目前技術尚未達成的目標。
---
#### 發展路徑:從 NISQ 邁向容錯量子運算(FTQC)
**硬體面:**
需持續提升以下指標:
- Qubit 數量
- 相干時間
- 閘操作保真度(gate fidelity)
- 量測準確度
當 qubit 數與品質突破特定門檻後,即可實作**量子錯誤修正碼(QECC)**(Nielsen & Chuang, 2011),推進至**容錯量子運算(FTQC)**階段。量子錯誤修正透過冗餘與糾纏機制,在不直接量測量子態下修正錯誤,保留其相干性。
**演算法面:**
需解答兩項核心問題:
- **Q1:如何在 NISQ 設備上執行具實用性的量子計算?**
- **Q2:在初階與完全容錯量子電腦上,可運行哪些演算法以實現量子潛力?**
無論哪一項能獲得正面進展,都將對量子運算的應用範疇產生廣泛影響。
---
### 1.2.2 基於 FTQC 的量子機器學習進展
一項關鍵里程碑為 Harrow 等人(2009)提出的**量子線性方程求解器(HHL 演算法)**。許多 ML 模型都依賴解線性方程,而其計算複雜度隨矩陣大小呈多項式成長,常成為整體瓶頸。HHL 將此複雜度降為對數級別(poly-log),條件為矩陣稀疏且條件良好。此技術對處理大量資料的 AI 系統極具意義。
在 HHL 問世後,許多 FTQC 型 QML 演算法紛紛將其或其變體作為子程序(Montanaro, 2016;Dalzell et al., 2023),成功為多種傳統演算法提供運算加速。代表性應用包含:
- **量子主成分分析(Quantum PCA)**(Lloyd et al., 2014)
- **量子支持向量機(Quantum SVM)**(Rebentrost et al., 2014)
另一項突破則是 Gilyén 等人(2019)提出的**量子奇異值變換(Quantum Singular Value Transformation, QSVT)**。QSVT 允許對嵌入於酉矩陣中的線性運算子的奇異值進行多項式轉換,提供一個統一架構,涵蓋放大、求解線性方程與模擬等多種技術,並具備更佳的運算複雜度縮放性。
---
#### 量子深度神經網路的應用潛力
除了傳統ML模型,近期研究亦聚焦於如何透過量子運算提升**深度神經網路(DNN)**效能,主要方向有二:
1. **加速 DNN 最佳化程序**
- 如:運用量子演算法處理耗散型微分方程以加速隨機梯度下降(SGD)
- 或採用量子 Langevin 動力學進行優化(Chen et al., 2023;Liu et al., 2024a)
2. **提升 Transformer 架構的效能**
- 第5章將深入探討量子技術如何應用於 Transformer 模型推論階段之加速
---
> ⚠️ **備註:HHL 基礎演算法的三項限制(Aaronson, 2015)**
>
> 1. **量子態生成假設過強**:將傳統資料轉為量子態之假設太理想化,尤其在稠密資料中難以實現。
> 2. **輸出為量子態 |x⟩**:將量子解 |x⟩ 轉為經典資訊需 O(√N) 時間,可能抵銷其指數加速優勢。
> 3. **輸入模型依賴強假設(如 QRAM)**:使用量子隨機存取記憶體(QRAM)會導致與傳統模型比較失準,因為若改以類比 QRAM 的傳統架構,有些推薦系統問題也能以對數時間解決。
---
### 1.2.3 在 NISQ 時代下量子機器學習的發展
Havlíček 等人(2019)的研究為 NISQ 時代下的量子機器學習(QML)發展立下了關鍵里程碑。該研究在一台五量子位元的超導量子電腦上成功實作了**量子核方法(quantum kernel methods)**與**量子神經網路(Quantum Neural Networks, QNNs)**,並從複雜度理論的角度展示了潛在的量子優勢。
與前述須在容錯量子運算(FTQC)條件下執行的演算法不同,量子核方法與QNNs相對靈活,能有效地適應目前NISQ設備資源受限的情況。這些成功的實作與硬體進展共同促使學界與產業開始關注如何在NISQ設備上發展QML應用。本教材將在第3章與第4章分別詳細探討這兩類方法。
> **量子神經網路(QNNs)非正式定義:**
> QNN 是一種混合模型,透過量子電腦實現類似於傳統神經網路的可訓練結構,並由傳統優化器完成訓練過程。
如圖1.4所示,QNN與深度神經網路(DNN)在運作機制上相似,兩者皆透過反覆迭代方式進行學習,輸入資料後通過多層處理並產生預測結果。其主要差異在於學習模型的實現方式,這也是QNN被視為有機會解決傳統神經網路無法處理的複雜問題的原因,進而在各領域開創新局。

---
#### QML 在 NISQ 上的研究重點可分為三大方向:
#### (I)量子學習模型與應用
此方向聚焦於如何在 NISQ 裝置上實作各類 DNN 結構,並應用於不同任務。
從模型架構觀點來看,已有多種傳統機器學習模型的量子對應版本被提出並測試,包括:
- 多層感知器(MLP)
- 自編碼器(Autoencoders)
- 卷積神經網路(CNN)
- 循環神經網路(RNN)
- 極限學習機(ELM)
- 生成對抗網路(GANs)
- 擴散模型(Diffusion Models)
- Transformers
其中部分架構已在實體量子平台上成功驗證,展現出量子演算法在許多傳統深度學習任務上的可行性(Cerezo et al., 2021a;Li & Deng, 2022;Tian et al., 2023)。
從應用面來看,QML 模型已被應用於以下多個領域:
- 基礎科學
- 圖像分類與生成
- 金融時間序列預測
- 組合最佳化
- 醫療健康
- 物流與推薦系統
雖然目前在這些領域尚未全面實現量子優勢,但已有多篇研究(Bharti et al., 2022;Cerezo et al., 2022)指出 QML 的潛力。
---
#### (II)進階AI技術導入QML
除模型設計外,許多進階AI技術也被導入QML以提升其效能與穩健性,包含:
- **量子架構搜尋(Quantum Architecture Search)**:相當於傳統的神經網路架構搜尋(Du et al., 2022a)
- **高效優化技術**:如自適應梯度下降(Stokes et al., 2020)
- **模型剪枝(Pruning)**:用以簡化QML模型(Sim et al., 2021;Wang et al., 2023a)
- **對抗學習(Adversarial Learning)**(Lu et al., 2020)
- **持續學習(Continual Learning)**(Jiang et al., 2022)
- **差分隱私(Differential Privacy)**(Du et al., 2021a;Watkins et al., 2023)
- **分散式學習(Distributed Learning)與聯邦學習(Federated Learning)**(Du et al., 2022b;Ren et al., 2023)
- **QML 模型的可解釋性(Interpretability)**(Pira & Ferrie, 2024)
這些方法可望顯著改善 QML 在 NISQ 設備上的效率與表現,補足現有量子硬體的不足。
---
#### (III)理論基礎建構
近年來,**量子學習理論(Quantum Learning Theory)** 也受到關注,目的是比較不同 QML 模型之間的表現,並分析其相較於傳統機器學習模型的理論優勢(Banchi et al., 2023)。

如圖1.5所示,QML 模型的「可學性(learnability)」可從三個面向評估:
- **可訓練性(Trainability)**:探討 QNN 設計如何影響其收斂特性,特別是系統雜訊與量測誤差對是否能收斂至局部/全域最小值的影響。
- **表現能力(Expressivity)**:分析模型參數數量與結構如何影響其可表示的假說空間規模。關鍵問題為 QNN 是否能表示出傳統神經網路無法有效建模的函數或模式,進而展現量子優勢。
- **泛化能力(Generalization)**:探討訓練誤差與測試誤差間的差距如何隨資料集大小、QNN 結構與參數量改變而變化,特別關注在資料有限或含雜訊情境下是否優於傳統模型。
---
這三個面向(模型設計、應用場景與理論建構)的協同推動,正持續引領 QML 在 NISQ 時代的發展。儘管目前仍屬初期階段,但至今的進展已展現量子運算提升傳統 AI 的潛力。隨著量子硬體持續進步,未來有望實現更多實用型 QML 應用。
> **備註:**
> 雖然 QNN 與量子核方法也可在具容錯能力的量子電腦上執行,因此亦屬於 FTQC 演算法範疇,但由於它們對硬體限制的適應性與穩健性較佳,故本章節仍以 NISQ 設備為核心討論對象。
---
### 1.2.4 量子機器學習簡要回顧
與量子硬體發展路徑不同(qubit 數量已從零快速擴增至數千顆),QML 演算法的發展,甚至廣義的量子演算法,反而呈現**逆向發展趨勢**,從理想化的容錯量子運算(FTQC)逐漸轉向目前可實作的雜訊中型量子裝置(NISQ)。這種轉變反映了從理論模型邁向實務實作的必要過程。
隨著量子硬體與QML演算法逐步收斂,也就是說,當 QML 所需的資源在實際量子設備上變得可得時,研究人員便能透過實驗方式實際評估各種量子演算法的效能與限制。
基於完成學習任務所需的最小量子資源,可將 QML 演算法區分為:
- **FTQC 演算法**(見第1.2.2節):需仰賴具錯誤修正功能的量子電腦,通常需數十億個 qubit,尚未實現。
- **NISQ 演算法**(見第1.2.3節):如 QNNs 與量子核方法,設計上較具彈性,可依資源狀況於 NISQ 或 FTQC 設備上執行。
隨著量子硬體的持續進展,QML 演算法的設計也必須同步演化。一項具前景的方向是:**融合 FTQC 的演算法設計與 NISQ 的模型框架(如 QNNs 與 kernel methods)**,開發出兼具實作性與量子優勢的新型演算法,能運行於現階段量子處理器,並適用於多種任務。
---
### 1.3 本教材的架構說明
為鼓勵並協助具備傳統機器學習背景的電腦科學家參與這個快速發展的量子AI領域,我們設計了本份實作導向的教材,從電腦科學的角度重新審視 QML 演算法。
本教材強調**理論、實作與應用的平衡**,適合研究人員與實務開發者閱讀與操作,章節架構如下:
---
#### **第2章:量子運算基礎**
本章為進入 QML 前的基礎鋪陳,涵蓋:
- 傳統位元與量子位元的轉換概念
- 量子電路模型與運作方式
- 如何透過量子讀入(read-in)與讀出(read-out)機制與傳統系統互動
- 基礎量子線性代數觀念
讀者在完成本章後,將理解只需具備基本線性代數能力,即可掌握量子運算的核心概念。
---
#### **第3、4、5章:傳統ML模型轉換至量子架構**
這三章以相同結構設計,皆先回顧一種傳統模型,再推導其量子版本:
- 第3章:**量子核方法**
- 第4章:**量子神經網路(QNNs)**
- 第5章:**量子Transformer 模型**
透過一致化結構,協助讀者清楚理解傳統ML模型如何映射至量子實作,並了解量子電腦如何在效能上帶來優勢。
---
#### **附錄:數學工具與符號整理**
提供未納入主文但對理解有幫助的補充材料,包括:
- 常用記號與數學定理
- 濃縮不等式(Concentration inequalities)
- Haar 測度等相關背景知識
---
### 各章節皆包含以下四個部分:
---
#### 1. **傳統基礎與量子模型建構**
每章皆由對應傳統模型的回顧開始,讓讀者熟悉背景,再逐步導入其量子版本,說明如何實作於 NISQ、FTQC 或混合平台。
---
#### 2. **理論分析**
本教材重視「實用源於良好理論」,每章將提供關於可學性(learnability)的理論分析,聚焦於:
- 表現能力(Expressivity)
- 可訓練性(Trainability)
- 泛化能力(Generalization)
重要理論會以**定理(Theorem)**與**引理(Lemma)**呈現並附證明;次要結論則標示為**事實(Fact)**並提供參考文獻。
---
#### 3. **程式實作**
引用經典名言:「Talk is cheap, show me the code」,每章皆包含實作內容與實際數據範例,讓讀者透過模擬或實機操作學習量子模型實作流程。
- 所有數值範例與程式碼皆可於[https://qml-tutorial.github.io/](https://qml-tutorial.github.io/) 下載,並附 Jupyter Notebook
- 實作主要採用 **PennyLane 函式庫**(Bergholm et al., 2018),但不侷限於此
- 其他支援函式庫如 Qiskit(Javadi-Abhari et al., 2024)、Cirq(2024)、TensorFlow Quantum(Broughton et al., 2020)亦可使用
---
#### 4. **前沿議題與未來方向**
每章最後將探討該模型的前沿研究方向與挑戰,包含:
- 未解研究問題
- 最新研究進展
- 未來可能的發展路徑
讓讀者對該領域的未來潛力有更深入的認識與參與方向。