《2019年AI的欺騙藝術-人工智能圖像攻擊.pdf》由會員分享,可在線閱讀,更多相關《2019年AI的欺騙藝術-人工智能圖像攻擊.pdf(22頁珍藏版)》請在三個皮匠報告上搜索。
1、人工智能技術應用:深度學習、計算機視覺、語音機器人、自然語言處理、推薦引擎等等對抗神經網絡對抗性攻擊虛擬世界AI換臉 所謂AI換臉術,是基于人工智能的人體圖像合成技術,生成的假臉(DeepFake)。這個技術是怎么做到的?它給人們的生活會帶來哪些利與弊?有何辦法對其辨別?避免潛在風險?所謂AI換臉術,是基于人工智能的人體圖像合成技術,生成的假臉(DeepFake)。侵犯肖像權、名譽權 政治利用、負面輿論 數字時代,欺騙無處不在 完善法律,數字簽名認證以上視頻均來自外網 一個編碼器,兩個解碼器。在應用時,使用對應人物的解碼器即可完成轉換。數據盡可能涵蓋更多的側面、動作、光線場景 VR 創造虛擬現
2、實 缸中之腦?莊周夢蝶?黑客帝國?風格轉換?人臉表情轉化?這些圖像中的人在現實中不存在!這些圖像中的物體在現實中不存在!對抗生成網絡(GAN):Generative Adversarial Networks 人工智能領域的左右互搏術 生成器 Generator 鑒別器 Discriminator 何為對抗性攻擊?通過設計有針對性的噪聲,從而讓機器學習模型做出誤判,便被稱為對抗性攻擊。針對Inception-v3的對抗性攻擊 對抗性攻擊的類型:根據對抗結果:定向攻擊(指定圖像貓-分類結果:狗)非定向攻擊(圖像貓-任何不是貓的結果)根據模型是否透明:白盒攻擊(模型/樣本已知)黑盒攻擊(模型/樣本未
3、知/甚至不可接觸)灰盒攻擊(得知部分結構/模型遷移)白盒攻擊FGM/FGSM簡介:(Fast Gradient Sign Method)使用對抗生成網絡 攻擊人臉識別模型GAN(Generative Adversarial Networks)D(Detector):判別網絡(被攻擊的模型)G(Generator):生成網絡(用來攻擊D)相互博弈G訓練完成后能直接生成對抗樣本,不接觸DGAN攻擊的優勢一種灰盒方式一旦訓練形成G,即可快速/無接觸的生成對抗樣本可以通過對抗多種模型,產生易于遷移的樣本 在聲音中加入微小噪聲:speech can be embedded in music:純音樂無內容:without the dataset the article is useless:okay google browse to AI換臉 基于風格轉換的虛擬圖像 對抗性攻擊,神經網絡的弱點THANK YOU謝謝觀看