# 大學推甄面試心得2-成大測量篇 # 推甄總排名 : 73% # 面試學校 : 台大土木測量組 / 成大測量 / 交大土木測量組 --- 成大測量篇 --- 面試時間 : 10分鐘(但是我覺得自己講蠻久的,有到15分鐘) 流程 : 英文閱讀(看30秒,翻譯約30秒) + 自我介紹(約1分鐘) + 教授問答(12分鐘) 自我介紹 : 課外活動(自學拍youtube / Podcast / 打桌球)+ 專題簡介(深度學習相關-衛星影像建物分類) + 拿精簡專題報告給教授參考 面試提供資料 : https://drive.google.com/file/d/18XmKfpCO2ZBpmmNlUHZmaN-w3EFN1Xns/view?usp=sharing 先講結論 : 個人覺得面試過程>_< 教授人數 : 5人(原本有6人) 教授 : 景 / CY / 王 / 呂 / 吳 1. 英文翻譯是一篇大約60字的一頁投影片(有關有機農業的介紹,蠻簡單的,都是基本單字) 這種英文考題跟台大的就差很多,或許是因為面試人數較多所以沒法準備各種類型的英文題型 負責教授 : 景 ---- 2. 你現在的專題是什麼問題?就是說一下你專題的狀況? 我就說請各位教授先看到資料第二頁,就是有訓練曲線那頁,我要從那邊開始講.講到這邊王教授直接 說不用看,你直接講(OS: WHAT...).於是我就開始講說,目前我的TRAINING的有兩個MODEL,一 MODEL 是訓練資料1080張的,另一個MODEL是訓練資料2700張的,從圖來看,訓練曲線目前都是趨 近收斂但尚未收斂的情況. 然後TESTING曲線部分可以看到在EPOCH 25 -30 之間就開始上下震盪,LOSS 沒辦法在往下掉了 所以我覺得這兩個MODLE都出現OVERFITTING的現象.我認為現在這種OVERFITTING的狀況要解決 的話有兩個方式: 第一個是增加訓練資料的數量 , 第二個是減少模型複雜度,也就是說拿掉一些 LAYER,讓參數少一點.目前我是傾向使用第一個方式,增加一下我的訓練資料量,因為我覺得我的模 型需要負責的任務比較複雜,他有兩個任務要負責 : 第一個任務是找出衛星影像中建物的區域,另外 一個是要將輸入RGB影像轉成GRAYSCALE影像. 這個時候王教授就開始了 : 為什麼RGB轉成灰接影像是你的任務? 我回答 : 因為我輸入資料是RGB ,輸出資料是灰階 王教授又說 : 不是阿,灰階影像不就是RGB/3而已嗎? 這算什麼任務? OS : RGB/3還真的不是GRAYSCALE好嗎?算了,面試不要這樣講 此時我想他會不會是誤會我說模型有複雜任務是指RGB也是複雜任務,於是我就在重複一次:我的模型 有兩個任務,比較複雜的任務是找出影像中建物位置,第二個算是附加的任務是將RGB轉成GRAY SCALE影像. 之後大概又以相似的句子解釋了2遍,真的感覺浪費時間在這個無聊的點 我的資料第二頁就寫了我的INPUT OUTPUT格式,也有輸出範例參考,真的不懂他到底不懂在哪裡 或許是他以為我寫了一行CODE叫做RGB/3然後把成果拿出來,跟MODEL一點關係都沒有,如果是這樣 他應該直接問我有沒有寫這個功能,一直跳針.... ---- 3. 接著輪到吳教授提問,他先說明他不是這個領域的專業,但是他想要知道說我這個MODEL再進行辨識的 時候有用到那些FEATURE? 我當時覺得難以回答,因為就我所知,深度學習的FEATURE是CONVOLUTION LAYER自己學到,並不 是我自己選擇的,所以我先回答說我並不知道神經網路到底使用了那些FEATURE,不過可以告訴教授 的事我這個模型的PARAMETER有超過120萬個. 吳教授說 : PARAMETER我知道,但是我現在比較想知道FEATURE有哪些? OS : 感覺他適用機器學習的FEATURE概念,覺得我可能先用邊緣偵測等方法弄一個FEATURE出來 然後才丟到網路進行訓練,但是他又想知道確切那些FEATURE是那些,不知怎麼回答 我回答 : 這個部分我真的不知道,我回去再研究一下 (後來回家覺得這題可以直接跟老師講一個CONVOLUTION FILTER對一張IMAGE就會產生一個 FEATURE MAP,RGB三個通道又各有一個FEATURE MAP,所以具體數量要算一下,感覺這樣回答比 較好,不過當下真的沒想到這邊) ---- 4. 吳教授繼續他的第二個問題,他說剛剛你有提到你的MODEL有OVERFITTING的問題,那麼關於這個部分有沒有一些評判的標準,就是說有沒有一些統計上的判斷標準,可以判定OVERFITTING? 這題大概是我覺得面試裡面最可惜的一題,因為我有找過這題,但是並沒有找到相關答案,我就先回答 說目前我是用看曲線的方式來判斷,至於統計上的標準我目前沒有定說要超過多少才算是過擬合. 吳教授說 : 用看得我也可以看得出不一樣,但是有沒有像是一些誤差公式可以判斷過擬合? 我回答: 這個部分我真的不知道,我要回去再研究一下 面試過後,我詢問了我的指導教授關於這題,他也說沒有OVERFITTING的標準定義 問完這題後我看吳教授也有跟呂教授討論一下這題,希望呂教授可以跟他講我這樣回答算是OK >_< ---- 5. 接著換呂教授,他詢問我AE MODEL的優點在哪裡 我就回答主要是在訓練時間上有優勢,同樣的EPOCH跟BATCH SIZE我再AUTOENCODER跟DEEP RESNET 相比,我AE的訓練時間是2小時45分,而DRN需要11小時,兩個模型用的都是同樣的電腦 ,同樣的GPU.接下來辨識時間上也是AE比較快,因為他的參數比較少. 呂教授接著問 : 那辨識精度如何? AE VS DRN 我就說 RESNET 比較好一點 呂教授說ok 但是你在做這個專題的時候有沒有質疑昭宏老師為什麼讓你用AE來做SEGMENTATION? 我就說: 痾 沒有阿 這是專題所以.. 呂教授說 你知道其實AE架構其實並不適合拿來做影像分割,像是YOLO/U-NET等等架構都是比較適 合的,那你為什麼還要拿AE架構來做SEGMENTATION? (這邊我事後想想,其實某方面來說不太同意,因為我的MODEL是參考SEGNET設計的,而SEGNET是AE 架構的,SEGNET也是做影像分割蠻有名的MODEL,所以我感覺這邊不是太同意AE完全不適合做 SEGMENTATION) 我回答 : 我這個真的沒想過,不過這個也不是我原本想要做的專題,就是在我還沒跟老師講之前老師 就說你做這個,我就先做了 ---- 6. 我講完那句話,全場驚呼,真的不誇張,全場驚呼.呂教授就問說,那你原本想要做的是什麼? 我回答是GAN , Generative adversarial networks,生成對抗網路,我當時還沒有想好要用 GAN來做什麼,所以就先做AE的專題了. 呂教授接著問 : 那你現在有什麼想法嗎?用GAN做? 我說目前也還沒,或許教授可以讓我講一下我聽說過用GAN做過的一個我認為蠻厲害的應用 呂教授說好 我就說GAN就是用來創造一些新的事物,我曾經聽說過NVIDIA曾經在自駕車領域用過GAN來產生訓練 資料.它們說目前自駕車的視覺資料很多,可是大部分都屬於白天的訓練資料,屬於夜晚的訓練資料很 少,於是他們就利用GAN來產生很多夜晚的訓練資料.當然我研究所目標可能做不到NVIDIA這麼厲害的 應用,不過這可以是一個參考的方向. ---- 7. 整場面試最尬的一刻來了,王教授說你剛剛說要做GAN,我覺得對你來講太難了.你看你現在訓練MODEL有OVERFITTING的問題,所以我認為你AI只會半招,你同意嗎? 我超傻眼,想說這是什麼判斷標準,我就蛤了一聲 他就繼續說,等你MODEL訓練好你才算會全招,所以你現在只會半招,可以吧? 他又說所以你現在只會半招不要想去做GAN,你做不來 我感覺全場尬了一下 ---- 8. 呂教授好像有點在安慰我的感覺說道:你知道AE其實跟GAN是同一種類的東西,都是屬於adversarial 類的網路架構,所以你現在也算是在學用基礎的類型 10. CY說同學那個我們時間已經超過了,我就走上前把我的資料拿回來.CY說我原本要問你MSE是什麼,王教授直接說我看他也不會.... 我就說就是將自己減去平均然後平方最後加起來=,CY說你確定不用開根號嗎? 我感覺你剛剛講的是RMSE , 我回答我剛剛沒有說要開根號 ,CY 說所以有人在用MSE? 我跟他說TEMSORFLOW 的 LOSS 裡面有提供MSE的函式 ---- 約15分鐘的面試就這樣結束了 結論 : 專題沒問到比較細節的地方(像是DHASH/OTSU等等),英文很簡單 一面完我就覺得涼了,聽朋友說有講專題都跟我一樣被針對,沒講專題的就聊聊社團工作 系內沒成績真的不要推>< 結果 : 連備取都沒有哈哈哈哈哈哈 沒差拉 我要北漂了 感謝昭宏老師 ###### tags: `INTERVIEW` `NCKU` `Deep Learning` `Autoencoder`