--- tags: Medical --- # 論文閱讀: Convolutional neural network based deep-learning architecture for prostate cancer detection on multiparametric magnetic resonance images (2017) [Convolutional neural network based deep-learning architecture for prostate cancer detection on multiparametric magnetic resonance images](https://www.spiedigitallibrary.org/conference-proceedings-of-spie/10134/1013405/Convolutional-neural-network-based-deep-learning-architecture-for-prostate-cancer/10.1117/12.2254423.full) ## Introduction 攝護腺癌是造成成人男性死亡的癌症中的第二名。而Multiparametric MRI (mpMRI,多參數MRI)在攝護腺癌的預測中,被證明有顯著的幫助。 論文中使用HED,一種先進的CNN edge detector做為使用的模型。對應輸入可以輸出probability map。 使用2-fold cross validation,並以ROC和FROC做為評估指標驗證。結果會與另外一個使用hand craft feature的SVM model做比較(使用相同的testing set,然而SVM是使用原始發論文者train好的model**) ## Materails and Methods ### Patient Cohort 包含52位病人的T2W, ADC, 與 B2000 MRI。其中攝護腺部份的segmentation使用的方法是[Ref](https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6944225)。 腫瘤部份由專家標註,圖1可以看到範例的標註內容  資料會包含病灶區域以及不同的嚴重程度,活體組織切片的結果會被用來歸納病灶區。表1顯示了論文中不同分層(peripheral or transition)及不同Gleason score(6-9,分數越高越嚴重)的病人數量。  ## Image Pre-processing Step 因為原始的CNN model是使用height x width x 3的3通道輸入,因此論文就把一開始的三種圖也疊在一起做為輸入,如圖2。  此外,因為一般圖片的解析度都是8 bits(0-255),然而mpMRI影像的解析度是12-16 bits,因此論文透過histogram equalization的方式將原始圖片壓縮到8bit(當然會有一些data loss發生)。圖3可以看到處理前後的差別。  ### CNN Architecture 使用HED做為基礎的深度學習架構(相關可以參考以下連結) [Holistically-Nested Edge Detection](https://hackmd.io/@RinHizakura/rk9cVKHz8) 這種架構在每一個level都會有一個output(中間式監督),如圖4所示。  特別需提到的是,使用的loss function如下。  其中Y+表示被標註為病灶區的部分,Y-為非病灶區的部分,Y=(Y+) + (Y-)。這個loss function設計的主要目的是因為標註是與標註非病灶區的數量不平衡,透過這種設計可以避免unbalance的資料影響預測結果過多。 ### Analysis #### Cross-validation data被分成兩個fold做為training跟testing。因為論文擁有的資料量不足的關係,因此在實驗過程中並沒有做validation。論文僅在每個epoch透過testing set去評估模型的表現。 #### ROC Analysis 論文使用ROC curve來做為模型好壞的評估標準。且ROC會被用在堆疊2D的probability map 產生的 3D probability map。 Detection rate 被定義為ground truth為腫瘤區中,probability map 為90%的比例,如果至少腫瘤區的10%被預測高機率為腫瘤的話,則會被定義為偵測成功。 False positive rate 被定義為: 在攝護腺影像中放置一個3 mm x 3mm x 3mm的grid(定義成這個大小是因為不太會標註一個很小的範圍為病灶區,拿掉邊界的grid之後,剩下的grid不是全標記成病灶,就是全部非病灶區,用這些grid來判斷預測結果),然後考慮該方塊與攝護腺重疊的部分,如果該方塊內判定為正常,然而其中被預測為90%以上的數量超過某個閾值,則認為出現false positive。 #### Comparison 論文中的模型會與 CADSVM by [Ref](https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4401803/)做比較 CADSVM是利用像素的pattern從T2WI和B2000影像做feature extraction,再使用SVM做預測。 論文中直接使用CADSVM原論文中,使用自己的108位病人資料train好的模型來做比較。並使用同一個testing set來評估此model與論文中的CADDL model。 ## Results 表二中,在0.1 FPR下的detection rate隨著epoch增加並在epoch 5達到接近極限。並且,在epoch 2之後,CADDL的表現都勝過CANSVM。  圖6顯示了不同model的ROC curve,前三個為不同epoch的CADDL model,而最後一個為SVM。  圖8可以看到一個在transition zone上的疑似病灶區(病灶區在T2W與ADC上比較暗,而在B2000中看起來則會比較亮) * CADDL 在該區域上輸出很高的機率,並且沒有false positive的產生 * CADSVM 也成功預測該區域,但是在peripheral zone上預測出了false positive  Benign prostatic hyperplasia (BPH)在CADDL與CADSVM中的產生了預測錯誤(左上角橘色)。然而在peripheral zone的病灶區(右下角紅色),CADDL預測到然而CADSVM沒有。  如圖10,有一些peripheral zone的微小病灶區很難被預測。 此例中,兩個模型的預測了病灶在錯誤的地方。  最後,雜訊也會影響錯誤的預測結果。如圖11,T2W影像中的peripheral zone中的blurring導致CADDL的預測錯誤,而CADSVM基本上不受低質量圖像的影響。  ## Discussion ### problem and limitation 因為dateset太小,在極少個epoch之後CADDL就已經接近optimal solution。然而也因dataset太小,training set不足以包含各種類型的病灶型態,有些僅存在於testing set 的pattern就難以被預測,overfitting的問題會出現(資料的數量也導致不好分出validation set)。 論文中第二個問題是因為為了符合HED的input,因此壓縮了圖片的資訊(12-16 bits to 8 bits)。雖然論文中也有提出對應的解決方法,但無可避免的,這些data loss仍有機會對結果產生影響。 ### future work 作為future work,論文希望可以找到數量更多、包含更多病灶pattern的資料,當然,如何找到可以配合的專業人士來標記會是進展的關鍵。 除此之外,CNN的架構也希望可以推廣到multi-label的classification,使模型不僅能夠檢測出病灶,還可以根據嚴重程度識別病灶。 最後,希望能夠發展自動augmentation的工具,可以預測腫瘤的大小。 ## Conclusion * 結論了DCNN擁有在mpMRI影像上判別攝護腺癌的潛力。 * 透過output與實際標註狀況比較展現了臨床上應用的潛力。
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up