{%hackmd rJEtaaNTn %} ## 共筆 :::info 請將筆記內容記在下方~ ::: ### 量子機器學習 #### 機器學習簡介 > 某程式在任務 T 和校能評估 P 上從經驗 E 學習,在 任務 T 和評估 P 上能隨著經驗 E 改進,代表能從經驗 E 中學習 - 資料 - 矩陣、向量 - 類神經網路 - 可調參數 - 透過估計梯度和預測結果,更新參數 - 預測 - 數字, 0/1 #### 量子計算 古典位元:只能表示其中一種狀態 量子位元:可處在疊加態 ##### 量子閘 - Pauli-X - Pauli-Y - Pauli-Z - Hadamard - Px($\theta$) - Py($\theta$) - Pz($\theta$) - CNOT - if 第一個 qubit = 1 => 第二個 qubit 會變相反狀態 #### 參數化量子線路 不同 theta => 不同 quantum state => 結果 loss function 來控制 theta #### 混和古典量子機器學習架構 資料 -> 資料編碼 -> 量子運算模型 -> measure -> 古典模型運算 (後處理) -> 輸出預測結果 loss function 作用於量子模型 & 古典模型來更新參數 | | 古典資料 | 量子資料 | |:----------:|:------------:|:----------:| | 古典演算法 | 古典機器學習 | 量子邏輯閘 | | 量子演算法 | encoding | (待補) | ##### 挑戰 - 需要古典神經網路 - 減少訓練參數 - 資料編碼進量子學習網路 - 其他 encoding 方法 - 難以輸入大型資料 - 如果資料就是 quantum state? - 需要量子電腦 - 世界上有幾台量子電腦? ### 古典機器學習的量子應用場域 #### 隨機取樣神經網路於量子多體問題 - 量子多體物理問題 - 能量隨外部參數如何改變 - 在什麼外部參數使得 整齊 -> 不整齊 或 不整齊 -> 整齊 - 相變點 PTP 大小為 N 的自旋 1/2 系統的希爾伯特空間維度 = 2^N - 所需哈密頓量 = 2^N * 2^N -> 難以對角化 ##### 資料驅動的特徵能量計算方法 利用機器學習計算難算的部分 問題 - 訓練資料的意義 - 適當的輸入資料 1. 從 full hamiltonian 做 sample - 假設取樣出來的有意義 2. CNN - 相變預測 3. ... #### 強化學習量子局域搜索 - 組合優化問題 - 旅行推銷員問題 - 選股 - 二次無約束二元最佳化 QUBO - 解問題 - VQE - QA ##### 量子局域搜索 隨機化初始狀態 -> 解部分問題 -> 變換 -> 判斷能量變化 (變低: 採用、變高: 高機率不採用低機率採用) ##### RL 步驟二中決定要選要解哪個部分問題 agent -{狀態、動作}-> environment -獎勵-> agent 依據獎勵調整{狀態、動作} ##### 實驗 - 5 qubit 模擬 32 變數 - 5 qubit 模擬 64 變數 - 5 qubit 模擬 128 變數 模擬越多變數 -> 效果較差,但仍可以看到效果有比較好 #### 應用場域的挑戰與機會 雜訊中等規模量子運算 -新理論、製成、ML工具-> 容錯量子計算 ### 總結 ### QA Q: 強化學習與機器學習的差別 A: 都是很共通的東西 Q: 有哪些 quantum algorithm 解 quantum data 的問題 A: 化學模擬的部分 Q: 是不是暗示是不是很多都不用用到 quantum algorithm 的方法 A: 是,不是所有都需要用到量子電腦