失控的深度學習模型:從影像、文字到語音 - 何明洋 / Kaminyou

近年深度學習發展蓬勃下,不少研究開始挖掘這些模型潛在的弱點,當這些模型應用在如自駕車、醫療輔助系統時,將會帶來嚴重的危害。本演講除了探討在圖像(如自駕車)、文本(如惡意程式偵測)、語音模型(如 ASR系統)所帶來的潛在風險外,也將實際介紹目前最常見的 FGSM 與 PGD 兩種製造對抗例(adversarial examples)之演算法,並提供攻擊這三類模型的實作細節以及實測結果。最後將探討如何改善深度學習模型這一方面的缺點,並有效增加模型穩健度(robustness)。

目標聽眾

覺得深度學習很炫想知道它另一個面向者、預學習或正在進行深度學習模型開發者、想知道深度學習模型其實充滿風險者

先備知識

不需要,5min 實作部分需能理解 Python 基礎語法(optional)、具有深度學習的基礎(optional)

歡迎大家來到SITCON 2021 ヽ(✿゚▽゚)ノ
共筆入口:https://hackmd.io/@SITCON/2021
手機版請點選上方 按鈕展開議程列表。

slido

sli.do 失控的深度學習模型:從影像、文字到語音
#SITCON21-T12

Select a repo