# 6.2 Adversarial Examples ## Adversarial patch * adversarial example不須與原圖相似 * 不須找到最小距離就能欺騙模型 * 直接將patch黏在物體或影像旁 * patch已最佳化過(不同背景、形狀、放大、縮小) * 參考資料:[Brown et. al (2017) Adversarial Patch 的論文內容]( https://zhuanlan.zhihu.com/p/180199081) ## Robust adversarial examples * EOT (Expectation Over Transformation) * to optimize adversarial examples across many possible transformations. * keeps the expected distance between the two below a certain threshold, given a selected distribution of possible transformations. * 這種算法拿到對抗性樣本後,會模擬這個物體從各種角度和距離看上去的結果,然後將所有這些潛在的圖像組合成一個單一的模式。 * 攻擊者必須了解目標算法的內部運作。 * 參考資料:[MIT新算法騙過神經網絡3D物體分類,成功率超90%]( https://read01.com/Nykd0D0.html#.X3v-smgzY2w) ###### tags: `重點摘要`