DenseNet普遍被用於影像分類的任務中,選用DenseNet而不是ResNet有以下三個優點: 模型參數的使用上更有效率 拜short paths所賜,DenseNet可實現深層監督 特徵重複使用: 所有的layer可以獲取先前layer的資訊,從而增進先前feature maps的再利用 因此,DenseNet的架構被修改來用於語意切割(Semantice Segmentation)的領域中,在2017發表於CVPRW並有超過1000次的引用。 那些經典的、被用於語意切割的模型通常具備:
5/18/2021ResUNet,由深度殘差網路(Deep residual network)和UNet所發想的語意切割模型。 它的架構充分展現「殘差」、「UNet」的優點。 優點 殘差單元(residual unit)會使模型的訓練更簡單。 在殘差單元以及在encoder和decoder之間的跳躍連接(skip connection)有助於訊息的傳播且不會降低性能,使得設計出更少參數量的神經網路之可能性大大提升。 架構
3/13/2021摘要、引言 原先使用大量CNN的UNet或FCN,都耗費大量運算資源在低階特徵的重複萃取上, 因而引入可端到端訓練的「注意力」模組,常被使用於自然圖像分析和自然語言處理的領域中。 提出嶄新的attention gate(AG) model 可以學習在不同形狀、尺寸的圖片中更專注於目標區域, 使網路能更著重於局部區域的特徵,抑制不相干的區域。 AG可輕易融合進CNN中,運用極少的計算量即可帶出模型準確度、敏感度的提升。 注意力模組被用於執行特定類別的池化(pooling),從而促進更準確、強大的圖像分類效能。
3/7/20212018年的論文,來自UNet的變形,以tensorflow-keras框架呈現。 摘要 MultiResUNet,被視作UNet的接班人! 創新點 將較大的捲積層(5x5、7x7)以一連串更輕便的3x3捲積塊來分解,並引入1x1捲積層,添加residual connection,使model可學習到一些額外的空間訊息。 套用Res path取代原版UNet的skip connection。
2/3/2021or
By clicking below, you agree to our terms of service.
New to HackMD? Sign up