# 6.2 Adversarial Examples
## Adversarial patch
* adversarial example不須與原圖相似
* 不須找到最小距離就能欺騙模型
* 直接將patch黏在物體或影像旁
* patch已最佳化過(不同背景、形狀、放大、縮小)
* 參考資料:[Brown et. al (2017) Adversarial Patch 的論文內容]( https://zhuanlan.zhihu.com/p/180199081)
## Robust adversarial examples
* EOT (Expectation Over Transformation)
* to optimize adversarial examples across many possible transformations.
* keeps the expected distance between the two below a certain threshold, given a selected distribution of possible transformations.
* 這種算法拿到對抗性樣本後,會模擬這個物體從各種角度和距離看上去的結果,然後將所有這些潛在的圖像組合成一個單一的模式。
* 攻擊者必須了解目標算法的內部運作。
* 參考資料:[MIT新算法騙過神經網絡3D物體分類,成功率超90%]( https://read01.com/Nykd0D0.html#.X3v-smgzY2w)
###### tags: `重點摘要`