# 中華電信面試 ###### tags: `Interview` ## 考古題 ### AI/ML/DL 差別 & ML/Data mining 差別 #### AI/ML/DL  >**AI:** 計算機模仿人類思考進而模擬人類的能力/行為。 >**ML:** 從資料中學習模型。 >* 資料→特徵擷取→模型→答案 > >**DL:** 利用多層的非線性學習資料表徵。 >* 資料→模型(特徵擷取自學)→答案 >* 通過已知資料的實驗運用來學習和歸納總結  #### ML/Data mining > **ML:** 機器學習需要一定數量的訓練資料集,並用程式和演算法自動地從過往的經驗中學習新的知識 > **Data Mining:** 資料探勘是從現有的資訊中提取資料的pattern和model,即精選出最重要的資訊,以用於未來機器學習和AI的資料使用。其核心目的是找到資料變數之間的關係->發掘有價值的資訊,轉化成可以理解的結構 > ++發展原因++ : 用傳統的資料分析的方式已經無能處理大量但看似不相關的資料處理,因此需要資料探勘技術去提取各種資料和變數之間的相互關係,從而精煉資料。``` * ### 解釋CNN、auto-encoder、pretrain * CNN: * 卷積神經網路由一個或多個卷積層和Fully connected layer組成,同時也包括關聯權重和池化層(pooling layer),這一結構使得卷積神經網路能夠利用輸入資料的二維結構。透過卷積核(Kernels)滑動對圖像做訊息提取,並藉由步長(Strides)與填充 (Padding)控制圖像的長寬 * CNN在圖像和語音辨識方面有較佳的結果 * 架構:各兩次卷積層,Pooling, fully connetcted  * Auto-encoder * AutoEncoder 是多層神經網絡的一種非監督式學習算法,稱為自動編碼器,它可以幫助資料分類、視覺化、儲存。 * Encoder先輸入input data,經過神經網路後壓縮成一個維度較小的向量 Z,接著,在將Z輸入 decoder中,將Z還原成原始大小。 * 目的: 資料壓縮 * Pretrain * 利用不同domain/dataset的資料預先訓練,之後使用這些訓練好的參數做為新的網路的初始參數。 * 不使用pre-training模型直接從頭訓練,稱為train from scratch * 優點: * 減少訓練時間: 由於網路已經預先訓練在相似的資料上,可以加快模型的收斂時間 * 減少target domain所需資料數量: 幫助模型認識general的知識,因此可能可以使用較少的target domain資料,訓練出泛化性好的模型 ### 什麼是APT攻擊 * 進階持續性滲透攻擊(Advanced Persistent Threat, APT) * 三元素: 1. 進階 指精心策畫的進階攻擊手法。 2. 持續性 長期、持續性的潛伏、監控。 3. 威脅 APT攻擊重點在於低調且緩慢,利用各種複雜的工具與手法,逐步掌握目標的人、事、物,不動聲色地竊取其鎖定的資料。 * 攻擊方式  1. 因一個目標開始盯上特定組織團體 1. 試圖入侵到其環境中(如發送釣魚郵件) 1. 利用入侵的系統來訪問目標網絡 1. 部署實現攻擊目標所用的相關工具探查資料 1. 蒐集機密資料 1. 回傳資料給駭客 ### CNN 相較 MLP 的優勢 * MLP是fully connected,會有引數數量膨脹的問題 (▼看不是很懂) > 全連結DNN的結構裡下層神經元和所有上層神經元都能夠形成連線,帶來了引數數量的膨脹問題。例如,1000*1000的畫素影象,光這一層就有10^12個權重需要訓練。此時我們可以用卷積神經網路CNN,對於CNN來說,並不是所有上下層神經元都能直接相連,而是通過“卷積核”作為中介。同一個卷積核在所有影象內是共享的,影象通過卷積操作後仍然保留原先的位置關係。影象輸入層到隱含層的引數瞬間降低到了100\*100\*100=10\^6個 * CNN是為識別二維形狀而特殊設計的一個多層感知器,這種網路結構對平移、比例縮放、傾斜或者共他形式的變形具有高度不變性。 ### L1 / L2 的差異 > **用途:** 在Loss Function中加上對應的L1及L2 penalty(懲罰項)來避免overfitting > **L1:** 就是減少特徵,把他的權重變成0,這叫L1正規化 > * **缺點:** 有可能導致零權重,因刪除更多特徵而使模型稀疏 > > **L2:** 就是減少特徵權重差異,讓某些特徵的權重不要太突出 ### 機器學習方法中哪些不需要做Normalization > 決策樹, 隨機森林(RF) -> 不需要關心變量的值,只關心變量的分布和變量之間的條件機率 ### FAST Corner Detection ### 說明幾種 loss function 和其使用領域 * regression > MSE ->缺點是outlier會被指數性放大 > MAE ->缺點是收斂速度慢 > HuberLoss -> 降低MSE對Outlier 的不穩定性,並提升MAE的收斂速度 * classification > cross-entropy > Focal Loss -> 用於解決樣本不均的狀況 ### Entropy 在機器學習可能有哪些應用
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up