###### tags: `論文摘要` `ensemble` `有無fine tune` `差異分析` # Sparse Ensemble Machine Learning to Improve Robustness of Long-Term Decoding in iBMIs * 時間: 2020 * Conference: IEEE EMBS Conference on Neural Engineering * Link: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8944156 * MLA: Shaikh, Shoeb, et al. "Sparse Ensemble Machine Learning to improve robustness of long-term decoding in iBMIs." IEEE Transactions on Neural Systems and Rehabilitation Engineering 28.2 (2019): 380-389. ## 概論 由於紀錄條件改變 (e.g.電極故障、神經可塑性或傷口結痂狀況等),以致在固定時間段訓練的解碼器在一段時間後就不堪使用。最好維持解碼器表現的方式是每天進行訓練,以因應紀錄條件變化;然而該方式會增加時間及硬體運算成本。 解決上述方法的其中一項手段是,神經紀錄條件會隨時間變化之外,有些文獻指出某些特徵仍具有共同性,因此如何利用這些特徵增加解碼器的強健性,成為一項可研究的議題。例如有研究使用PCA及domain adaptation的技術減少校正時間,然而其間隔最多僅有3天時間。 另一方面,也可讓解碼器在非監督學習的環境下進行更新參數 (closed loop),讓使用者及BCI同時進行學習。研究指出,該方法比較offline的BCI在解碼表現上有顯著提升。 除此之外,尚有多篇研究認為,深度學習模型仰賴於其架構複雜性,能學習到神經訊號隨時間變化的特性,藉此提高解碼器強健性。目前有研究指出,每天進行校正的LSTM模型可讓該穩定性增加至381天。 故此該篇研究的主旨為,提出一套演算法使各模型都能在不穩定的神經訊號作為輸入的情形下,優於原先的解碼器的長期表現。 ## 實驗介紹 ### NHP A 植入4個16根電極的microelectrode於其左側MI腦區;總計64根電極可收到100個channels的訊號 (fs=13 kHz)。 經30~300 Hz的帶通濾波器後,取每日前30秒的訊號 ($x[n]$)總計sample $N$筆資料,用於計算閥值。 $\psi[n]=x^2[n]-x[n-1]\times x[n+1]\\ Thr_{NEO}=l\times \frac{\sum_{n=1}^{N}\psi[n]}{N}$ 其中$l=13$。 獼猴需控制輪椅目標物達到下列四階段動作:(1)往前2公尺 (2)右轉90度 (3)左轉90度 (4)停留5秒 ### NHP B 植入1個100根電極的microelectrode;總計收到64個channels (fs=30 kHz)。 使用250~7500 Hz的帶通濾波,取前10秒計算閥值。 $\sigma_N=\frac{median\mid x[n]\mid}{0.6745}\\ Thr_{AT}=k\times \sigma$ 其中$k=3\in [2,5]$。 目標點會隨機出現在距中心紅框 (2cm * 2cm)處之前右左方向,需控制目標到達該點。 ## 方法 ensemble learning是透過整合各個解碼器,以得到較高的表現為主;該篇論文ensemble的是$M$個不同使用者的decoder進行。 ![](https://i.imgur.com/tAcxX7W.png) 此外在資料集方面除了使用原始資料 (unperturbed)外,也將資訊量較豐富的電極訊號摘除,另外擴增一資料集 (perturbed)進行實驗,藉此增加資料的不穩定性。 ![](https://i.imgur.com/K2PV3HL.png) ![](https://i.imgur.com/sqyXnXV.png) ## 討論 從比較結果來說,該篇論文認為使用單一複雜的DNN來對抗非平穩性的方法主要存在三個問題。 首先此類模型需要大量長時間 (一年以上)的異構 (heterogeneous)資料才能克服非平穩性; 其次超參數的些微變化會大幅影響複雜的DNN表現; 最後由於計算的複雜性,DNN在解碼上有可能會遇到延遲的問題。 綜上所述,利用ensemble的方式進行增加強健性的方式可加強其單一解碼器的穩定及強健性 (有文獻已證明該點)。