近年深度學習發展蓬勃下,不少研究開始挖掘這些模型潛在的弱點,當這些模型應用在如自駕車、醫療輔助系統時,將會帶來嚴重的危害。本演講除了探討在圖像(如自駕車)、文本(如惡意程式偵測)、語音模型(如 ASR系統)所帶來的潛在風險外,也將實際介紹目前最常見的 FGSM 與 PGD 兩種製造對抗例(adversarial examples)之演算法,並提供攻擊這三類模型的實作細節以及實測結果。最後將探討如何改善深度學習模型這一方面的缺點,並有效增加模型穩健度(robustness)。目標聽眾
覺得深度學習很炫想知道它另一個面向者、預學習或正在進行深度學習模型開發者、想知道深度學習模型其實充滿風險者
先備知識
不需要,5min 實作部分需能理解 Python 基礎語法(optional)、具有深度學習的基礎(optional)
歡迎大家來到SITCON 2021 ヽ(✿゚▽゚)ノ
共筆入口:https://hackmd.io/@SITCON/2021
手機版請點選上方 按鈕展開議程列表。
sli.do 失控的深度學習模型:從影像、文字到語音
#SITCON21-T12
or
or
By clicking below, you agree to our terms of service.
New to HackMD? Sign up
Syntax | Example | Reference | |
---|---|---|---|
# Header | Header | 基本排版 | |
- Unordered List |
|
||
1. Ordered List |
|
||
- [ ] Todo List |
|
||
> Blockquote | Blockquote |
||
**Bold font** | Bold font | ||
*Italics font* | Italics font | ||
~~Strikethrough~~ | |||
19^th^ | 19th | ||
H~2~O | H2O | ||
++Inserted text++ | Inserted text | ||
==Marked text== | Marked text | ||
[link text](https:// "title") | Link | ||
 | Image | ||
`Code` | Code |
在筆記中貼入程式碼 | |
```javascript var i = 0; ``` |
|
||
:smile: | ![]() |
Emoji list | |
{%youtube youtube_id %} | Externals | ||
$L^aT_eX$ | LaTeX | ||
:::info This is a alert area. ::: |
This is a alert area. |
On a scale of 0-10, how likely is it that you would recommend HackMD to your friends, family or business associates?
Please give us some advice and help us improve HackMD.
Do you want to remove this version name and description?
Syncing