《國家工業信息安全發展研究中心&奇安信:人工智能數據安全與監管機制研究(18頁).pdf》由會員分享,可在線閱讀,更多相關《國家工業信息安全發展研究中心&奇安信:人工智能數據安全與監管機制研究(18頁).pdf(18頁珍藏版)》請在三個皮匠報告上搜索。
1、逆向還原指通過公共訪問接口,利用數據關聯和推算演繹等技術,根據輸入和輸出信息的特定映射關系,能夠還原出核心算法,進而竊取相應的訓練數據和隱私信息?;跀祿娜斯ぶ悄芩惴ㄒ妆荒嫦蜻€原,威脅重要數據資產安全。據報道,主流自然語言模型GPT-2、BERT、RoBERTa等均存在泄露訓練集隱私信息的可能,攻擊者可利用模型漏洞還原出姓名、電話、地址、郵箱、傳真等一整套個人信息;隨機抽取的1800個輸出結果中,有600個左右被還原出訓練數據的內容。2020年9月,360人工智能安全研究院針對開源框架Tensorflow進行了安全測試,并在較短時間內發現了24個安全問題,包括2個嚴重危險( critica
2、l severity)漏洞,8個高危( high severity)漏洞。開源框架大都搭建在眾多第三方開源基礎庫之上,眾多平臺開發者的安全意識和技術能力參差不齊,平臺缺乏安全審查機制。廣泛應用的人工智能開源框架存在安全漏洞隱患,導致數據泄露、篡改威脅加劇。國際標準化組織(ISO):加快人工智能基礎技術及細分場景的數據安全標準研制。二十國集團(G20):鼓勵成員國參與國際數據治理與數字經濟政策討論,推動全球數據的自由流通。亞太經濟合作組織(APEC):建立和實施基于區域跨境隱私規則框架的個人隱私數據安全監管機制。積極出臺戰略規劃,推動落實數據安全管理要求。在具體場景和州層級的數據安全立法已有較多實踐。加大研發投入,保持人工智能安全領域先發技術優勢。行業形成人工智能數據保護共識,促進企業加強自律。強調在人工智能和數據保護等領域推動更積極的歐洲價值觀和原則。在通用數據保護條例(GDPR)基礎上,發布人工智能法提案,提出基于風險的監管方法,推動人工智能數據安全監管。積極研究相關人工智能數據安全標準,重視數據隱私和倫理安全。