# ASUS AI image ###### tags: `Interviews` 1. HR - 優點 - 缺點 - 指導教授的人如何 - 為何選擇這個職缺 - 走電機再到軟體或生醫相關的路的原因 - 在乎工作的哪三個因素,原因為何 2. RD - OOP三大觀念、優點為何 - 矩陣相乘 - 字串反轉 - 儲存裝置速度排序 - 指標相關型別判斷 - [1, 5, 10元湊出N元的組合(遞迴和DP)](https://hackmd.io/HQHHKrlQR0K666Ffi2a1OA) - Call by reference 3. Manager - Loss = J(x) + A*R(x) J(x)的意義為何? R(x)的意義為何? cross entropy的意義為何?cross跟entropy的意義又為何? 所以為什麼使用crosss entropy不使用entropy [Explanation1](https://zhuanlan.zhihu.com/p/149186719) [Explanation2](https://r23456999.medium.com/%E4%BD%95%E8%AC%82-cross-entropy-%E4%BA%A4%E5%8F%89%E7%86%B5-b6d4cef9189d) Entropy:數值越高也就是資訊量越高, 越多不確定性存在, 因為有更多因素去影響我們原子的分布狀況。觀察一段時間的資料後,利用該實際機率分布,計算單一類別的entropy Cross entropy:數值越高代表發生該事件的機率越高。利用實際和**預測或假設**的機率分布去計算cross entropy,這也是為什麼實際應用在模型訓練時,是用cross entropy而非entropy - Regularization的意義為何? 常用的regularization有哪些?(L1&L2) 各自意義為何?選擇不用L1用L2的原因又為何? * 防止overfitting和降低維度,降低模型複雜度,增加模型訓練速度 * L1會將多個權重較低的神經元轉完0,因此容易出現梯度消失 * L2則衰弱權重低的神經元,但不至於梯度消失 - Classification, object detection, semantic segmentation在電腦視覺應用中,input, model structure, output差在哪裡? * https://ithelp.ithome.com.tw/articles/10204738 - Activation function的意義為何? 引入非線性,讓特徵更複雜,模型也能學習到更多元複雜的特徵,增加辨識率/精度 - Back propagation 如何計算特定神經元的偏微分? - Back propagation, loss function, gradient decent三者之間的關係為何? back propagation是一個過程,過程中會先從loss function(可微分)中算出一個gradient decent,如果gradiient比本來的loss更低就往這個方向更新權重和偏值,接著繼續不斷迭代算出其他gradient,最後會找到一個local/global minimum