隨著深度學習研究的深入,相關應用已經在許多領域展現出驚人的表現。一方面,深度學習的強大能力著實吸引著學術界和產業界的眼球。另外一方面,深度學習的安全問題也開始引起廣泛地關注。對于一個給定的深度神經網絡,經過訓練,它可能在具體任務上(例如圖像識別)表現出較高的準確率。但是在原本能夠被正確分類的圖像中引入稍許(人眼不易察覺)擾動,神經網絡模型就可能被誤導,從而得出錯誤的分類結果。例如,下圖中最左側的熊貓圖片本來可以被正確分類,向其中加入一定的擾動,結果會得到右側的熊貓圖片。在人眼看來,它仍然是熊貓,但是神經網絡模型卻以相當高的置信率將其識別成了長臂猿。最右側這個經過精心調整的能夠誤導神經網絡模型的圖像就被稱為是惡意樣本(Adversarial Example),或簡稱AE。
本文主要介紹兩種最基本也最流行的惡意樣本(Adversarial Example)的生成算法,我們將在理解原理的基礎上用Python編程實現它們。環境是Ubuntu 18.04,深度學習模型以殘差神經網絡ResNet為例。歡迎關注白馬負金羈的博客 ,為保證公式、圖表得以正確顯示,強烈建議你從該地址(http://blog.csdn.net/baimafujinji)上查看原版博文。本博客主要關注方向包括:數字圖像處理、算法設計與分析、數據結構、機器學習、數據挖掘、統計分析方法、自然語言處理。
?
Fast gradient sign method (FGSM)
我們在之前的文章(文章鏈接)里曾經介紹過一些關
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
