《信安標委:人工智能安全標準化白皮書(2023版)(29頁).pdf》由會員分享,可在線閱讀,更多相關《信安標委:人工智能安全標準化白皮書(2023版)(29頁).pdf(29頁珍藏版)》請在三個皮匠報告上搜索。
1、人工智能安全標準化白皮書(2023版)全國信息安全標準化技術委員會大數據安全標準特別工作組2023年5月-I-引 言人工智能是人類科學技術發展的重要成果,是信息時代向前演進的關鍵動力。運用好、發展好、治理好人工智能,讓人工智能持續、安全地造福人類社會,已經成為世界各國的基本共識。黨的十八大以來,在習近平新時代中國特色社會主義思想指引下,我國人工智能保持了安全、有序、快速的發展進程,在政治、軍事、醫療、工業、經濟等領域作用日益關鍵,已逐漸成為國家和社會的技術支柱。當前,人工智能發展再一次邁入關鍵時期,以生成式人工智能為代表的新技術、新應用不斷打破人們對于人工智能的固有認知,也帶來了大量網絡意識形
2、態安全、數據安全、個人信息安全等方面新風險、新挑戰,化解安全風險、統籌發展和安全成為重大難題。貫徹總體國家安全觀,全國信息安全標準化技術委員會大數據安全標準特別工作組堅持發揮標準化工作基礎性、規范性作用,開展了一系列人工智能安全標準化工作,為推動人工智能發展貢獻力量。面對人工智能安全新形勢,為全面介紹人工智能安全標準化工作進展情況,分享相關工作經驗,在 人工智能安全標準化白皮書(2019版)等前期研究成果基礎上,特發布本白皮書。-II-人工智能安全標準化白皮書(2023版)編寫單位 中國電子技術標準化研究院復旦大學浙江大學西安交通大學清華大學上海商湯智能科技有限公司中國科學院信息工程研究所騰訊
3、云計算(北京)有限責任公司北京計算機技術及應用研究所華為技術有限公司阿里巴巴(北京)軟件服務有限公司螞蟻科技集團股份有限公司公安部第三研究所中國科學院自動化研究所上海燧原科技有限公司北京百度網訊科技有限公司國際商業機器(中國)有限公司北京天融信網絡安全技術有限公司中電長城網際系統應用有限公司OPPO廣東移動通信有限公司-III-人工智能安全標準化白皮書(2023版)編寫人員姚相振 上官曉麗 王建民 郝春亮許曉耕任 奎楊 珉沈 超胡 影金 濤 王 姣秦 湛張世天王 蕊張曉寒藺琛皓王秉政 蔣 慧陳 愷梅敬青彭駿濤李 實王志波徐 浩 張雨桐李 前程海旭王龑張堃博孟國柱王小璞 張妍婷張宇光張 驍劉 炎
4、劉 楠郭 敏周晨煒 薛 科劉繼順劉海濤賈依真版權聲明:如需轉載或引用,請注明出處。-IV-一、人工智能發展現狀1(一)人工智能技術特點 1(二)人工智能應用趨勢 2(三)人工智能安全屬性 3二、人工智能安全風險分析5(一)用戶數據用于訓練,放大隱私信息泄露風險 5(二)算法模型日趨復雜,可解釋性目標難實現 5(三)可靠性問題仍然制約人工智能關鍵領域應用 6(四)濫用誤用人工智能,擾亂生產生活安全秩序 6(五)模型和數據成為核心資產,安全保護難度提升 6(六)網絡意識形態安全面臨新風險 7三、人工智能安全政策與標準現狀8(一)國內外人工智能安全戰略與政策法規 8(二)國內外人工智能安全標準 11
5、四、人工智能安全標準需求分析 15(一)人工智能安全屬性定義和度量指標 15(二)用戶輸入數據安全保護相關規范 15(三)人工智能服務網絡安全防護相關指南 15(四)人工智能安全評估相關規范 16(五)生成式人工智能安全標準 16目錄CONTENTS-V-目錄CONTENTS五、人工智能安全標準化工作建議 17(一)持續完善人工智能安全標準體系 17(二)大力開展基礎共性安全標準研究 17(三)加快出臺產業發展急需安全標準 17附錄A:標準列表 19 A.1 國內人工智能安全相關標準列表 19 A.2 國外人工智能安全相關標準列表 22-1-一、人工智能發展現狀一、人工智能發展現狀過去十余年,
6、依托全球數據、算法、算力持續突破,人工智能全面走向應用,已成為社會生產生活的支柱性技術。2020年后,當自動駕駛、人臉識別等熱門應用發展逐漸放緩、社會對人工智能整體發展預期日益冷靜時,大模型技術潛力的釋放以最振聾發聵的方式宣告了人工智能第三次高速發展期遠未結束,當前正是攀登發展高峰的關鍵時期。另一方面,當人工智能可以通過人類最嚴格的考試、同時執行多種工作命令、具備一定的推理規劃能力、生成以假亂真的照片、模仿人類與人聊天不被發現時,其安全問題也更為復雜棘手,傳統安全考慮以及管理方法需要重新審視。在此背景下,人工智能是否安全、如何保障安全成為全球焦點,統籌安全與發展是其中關鍵。(一)人工智能技術特
7、點技術發展方面,隨著謂詞推理、專家系統、知識樹和向量機學習等傳統技術的發展日趨放緩,促使以聯結主義和概率統計等理論為基礎的深度學習加速發展,邁入了以人工神經網絡為基礎、以大模型為典型應用的新發展階段。在模型方面,大規模人工智能模型逐步成為業界主流。以生成式人工智能為例,具備數百億參數的模型已非罕見,并隨著模型規模增長產生了接近人類的“高級”能力,使人們相信通用人工智能或將到來。Stable Diffusion、Midjourney等視覺生成模型具有類似人類的視覺創作能力,ChatGPT等文本生成模型具有高度近似人類的語言推理和規劃等能力。有研究認為,這些能力是隨著模型參數達到數百億級別后逐漸產
8、生的,雖其-2-人工智能安全標準化白皮書(2023版)技術原理尚未明晰,但進一步推動了模型越來越大的技術趨勢。在訓練方面,有人類參與的指令微調技術是近年來人工智能的另一大技術特點。指令微調主要有三種實現形式,以預訓練語言模型為例:一是引入人工撰寫的大量對話數據對模型進行微調訓練;二是人工對微調后模型面向同一提示詞生成的多個備選答案進行價值排序,訓練價值評分模型;三是在價值評分模型的獎勵信號下,微調模型進行強化學習訓練,不斷改進模型的表現。通過該部分技術,可將在海量語料庫上訓練的模型與復雜的人類價值觀實現對齊,期望人工智能可以生成正確、有用、無害的內容。(二)人工智能應用趨勢應用發展方面,人工智
9、能進一步與社會各方面融合??珙I域、面向通用的人工智能應用持續發展,各領域處理獨立任務的人工智能應用更加深度嵌入產業生態。未來,預期形成以通用人工智能應用為基座,專用人工智能應用環繞的新人工智能“生態圈”。1、人工智能與實體經濟融合發展近年來,人工智能與實體經濟融合愈發深入,融合形式愈發多樣,對產業促進作用明顯,推動新型業態逐步形成。當前,人工智能在多個行業領域廣泛應用,在制造領域的運營管理優化、制造過程優化等環節,智能家居領域的身份鑒別、功能控制、安全防護等環節,智能交通領域的動態感知、自動駕駛、車路協同等方面,智能醫療領域的輔助診斷、治療監護、疫情防控等方面,教育領域的虛擬實驗室、虛擬教室、
10、課件制作、智能判卷、教學效果分析等方面,金融領域的金融風險控制等方面,都推動了相關產品服務的新一輪變革。-3-一、人工智能發展現狀2、人工智能作為助手融入新領域人工智能的發展不僅顛覆了數字內容生產方式、處理方式和消費模式,而且極大豐富了人們的數字生活,虛擬試裝增加購物體驗、虛擬主播增強廣告效果、智能客服提升反饋效率、虛擬教師增強師生交互、智能辦公助手提高各類文檔的撰寫效率、智能編程助手降低編程時間與人力成本、智能翻譯降低溝通壁壘,人工智能應用已成為人類生產生活中必不可少的電子助手。(三)人工智能安全屬性伴隨著人工智能應用的常態化,人工智能安全問題的研討也持續開展。除了網絡安全基本屬性,即人工智
11、能系統及其相關數據的機密性、完整性、可用性以及系統對惡意攻擊的抵御能力之外,討論人工智能安全一般還需要考慮以下屬性。1、可靠性:指人工智能及其所在系統在承受不利環境或意外變化時,例如數據變化、噪聲、干擾等因素,仍能按照既定的目標運行、保持結果有效的特性??煽啃酝ǔP枰C合考慮系統的容錯性、恢復性、健壯性等多個方面。2、透明性:指人工智能在設計、訓練、測試、部署過程中保持可見、可控的特性,只有具備了透明性,用戶才能夠在必要時獲取模型有關信息,包括模型結構、參數、輸入輸出等,方可進一步實現人工智能開發過程的可審計以及可追溯。3、可解釋性:描述了人工智能算法模型可被人理解其運行邏輯的特性。具備可解釋
12、性的人工智能,其計算過程中使用的數據、算法、參數和邏輯等對輸出結果的影響能夠被人類理解,使人工智能更易于被人類管控、更容易被社會接受。-4-人工智能安全標準化白皮書(2023版)4、公平性:指人工智能模型在進行決策時,不偏向某個特定的個體或群體,也不歧視某個特定的個體或群體,平等對待不同性別、不同種族、不同文化背景的人群,保證處理結果的公正、中立,不引入偏見和歧視因素。5、隱私性:指人工智能在開發與運行的過程中實現了保護隱私的特性,包括對個人信息和個人隱私的保護、對商業秘密的保護等。隱私性旨在保障個人和組織的合法隱私權益,常見的隱私增強方案包括最小化數據處理范圍、個人信息匿名化處理、數據加密和
13、訪問控制等。-5-一、人工智能發展現狀二、人工智能安全風險分析二、人工智能安全風險分析近年來,人工智能保持快速發展勢頭,但人工智能所帶來的安全風險也不容忽視。(一)用戶數據用于訓練,放大隱私信息泄露風險當前,人工智能利用服務過程中的用戶數據進行優化訓練的情況較為普遍,但可能涉及在用戶不知情情況下收集個人信息、個人隱私、商業秘密等,安全風險較為突出。一方面,人工智能模型日益龐大,開發過程日益復雜,數據泄露風險點更多、隱蔽性更強,人工智能所使用開源庫漏洞引發數據泄露的情況也很難杜絕。另一方面,交互式人工智能的應用降低了數據流入模型的門檻。用戶在使用交互式人工智能時往往會放松警惕,更容易透露個人隱私
14、、商業秘密、科研成果等數據,例如企業員工在辦公時容易將商業秘密輸入人工智能尋找答案,繼而導致商業秘密的泄露。為應對該問題,特別是為保護個人信息安全,部分歐洲國家甚至已開始著手禁止ChatGPT等人工智能應用。(二)算法模型日趨復雜,可解釋性目標難實現 長期以來可解釋性都是制約人工智能用在司法判決、金融信貸等關鍵領域的主要因素,時至今日問題尚未解決、且變得更為棘手。由于深度模型算法的復雜結構是黑盒,人工智能模型天然缺乏呈現決策邏輯進而使人相信決策準確性的能力。為提升可解釋性,技術上也出現了降低模型復雜度、突破神經網絡知識表達瓶頸等方法,但現實中效果有限。主要是因為當前模型參數越來越多、結構越來越
15、復雜,解釋模型、讓人類理解模型的-6-人工智能安全標準化白皮書(2023版)難度變得極大,目前部分研究正朝借助人工智能解釋大模型的方向探索。同時,由于近年來人工智能算法、模型、應用發展演化速度快,如何判斷人工智能是否具備可解釋性一直缺乏統一認知,難以形成統一判別標準。(三)可靠性問題仍然制約人工智能關鍵領域應用由于現實場景中環境因素復雜多變,人工智能難以通過有限的訓練數據覆蓋現實場景中的全部情況,因此模型在受到干擾或攻擊等情況下會發生性能水平波動,嚴重時甚至可引發安全事故。盡管可通過數據增強方法等方式提高人工智能可靠性,然而由于現實場景的異常情況無法枚舉,可靠性至今仍然是制約自動駕駛、全自動手
16、術等關鍵領域應用廣泛落地的主要因素。(四)濫用誤用人工智能,擾亂生產生活安全秩序人工智能在對加速社會發展、提升生產效率等方面產生極大促進作用的同時,也出現了被濫用誤用、惡意使用的現象,引起威脅社會安全、人身安全等負面事件。近年來,濫用誤用人工智能方面,出現了物業強制在社區出入口使用人臉識別、手機應用扎堆推送雷同信息構筑信息繭房等問題。惡意使用人工智能方面,出現了利用虛假視頻、圖像、音頻進行詐騙勒索、傳播色情暴力信息等問題。(五)模型和數據成為核心資產,安全保護難度提升人工智能訓練數據的獲取以及模型開發已經逐漸變成重資產投入、重人力投入的工作,算法模型、參數、加工后的訓練數據已成為核心資產,不免
17、遭到覬覦。通過模型竊取、成員推理等攻擊手段反向獲取模型、數據,或者利用人工標注、數據存儲等環節的安全管理漏洞套取數據的情況時有發生。-7-一、人工智能發展現狀二、人工智能安全風險分析(六)網絡意識形態安全面臨新風險人工智能的目標是模擬、擴展和延伸人類智能,如果人工智能只是單純追求統計最優解,可能表現得不那么有“人性”;相反,包含一些人類政治、倫理、道德等方面觀念的人工智能會表現得更像人、更容易被人所接受。事實上,為了解決人工智能面對敏感復雜問題的表現,開發者通常將包含著開發者所認為正確觀念的答案加入訓練過程,并通過強化學習等方式輸入到模型中,當模型掌握了這些觀念時,能夠產生更能被人接受的回答。
18、然而,由于政治、倫理、道德等復雜問題往往沒有全世界通用的標準答案,符合某一區域、人群觀念判斷的人工智能,可能會與另一區域、人群在政治、倫理、道德等方面有較大差異。因此,使用內嵌了違背我國社會共識以及公序良俗的人工智能,可能對我國網絡意識形態安全造成沖擊。-8-人工智能安全標準化白皮書(2023版)三、人工智能安全政策與標準現狀在人工智能技術快速發展、應用規模迅速擴大的背景下,世界各國紛紛開展人工智能安全政策與標準相關工作。(一)國內外人工智能安全戰略與政策法規1、聯合國持續關注人工智能倫理安全聯合國教科文組織于2021年11月發布人工智能倫理問題建議書,旨在為和平使用人工智能系統、防范人工智能
19、危害提供基礎。建議書提出了人工智能價值觀和原則,以及落實價值觀和原則的具體政策建議,推動全球針對人工智能倫理安全問題形成共識。2023年3月31日,該組織號召各國立即執行人工智能倫理問題建議書。2、歐盟嚴格人工智能監管,持續推進立法進程歐盟專門立法,試圖對人工智能進行整體監管。2021年4月,歐盟委員會發布了立法提案歐洲議會和理事會關于制定人工智能統一規則(人工智能法)和修訂某些歐盟立法的條例(以下簡稱歐盟人工智能法案),在對人工智能系統進行分類監管的基礎上,針對可能對個人基本權利和安全產生重大影響的人工智能系統建立全面的風險預防體系,該預防體系是在政府立法統一主導和監督下,推動企業建設內部風
20、險管理機制,但如何判斷評估人工智能系統風險等級是歐盟人工智能法案的重點和難點。歐盟及時填補通用目的人工智能監管空白。2023年5月11日,歐洲議會的內部市場委員會和公民自由委員會通過了關于歐盟人工智能法案-9-一、人工智能發展現狀三、人工智能安全政策與標準現狀的談判授權草案,新版本補充了針對“通用目的人工智能”和GPT等基礎模型的管理制度,擴充了高風險人工智能覆蓋范圍,并要求生成式人工智能模型的開發商必須在生成的內容中披露“來自于人工智能”,并公布訓練數據中受版權保護的數據摘要等。3、美國強調安全原則,鼓勵企業行業自律相較于歐盟,美國監管要求少,主要強調安全原則。美國參議院、聯邦政府、國防部、
21、白宮等先后發布算法問責法(草案)人工智能應用的監管指南人工智能道德原則人工智能權利法案國家網絡安全戰略等文件,提出風險評估與風險管理方面的原則,指導政府部門與私營企業合作探索人工智能監管規則,并為人工智能實踐者提供自愿適用的風險管理工具。美國鼓勵企業依靠行業自律,自覺落實政府安全原則保障安全。美國企業通過產品安全設計,統一將美國的法律法規要求、安全監管原則、主流價值觀等置入產品。以生成式人工智能企業提高內容安全水平為例,工作一般集中在三個方面,一是在產品設計階段加入符合安全要求的定制化內容作為重點訓練數據;二是在產品運行階段的人機交互環節加入自動化內容過濾機制;三是在每個用戶使用產品時置入隱藏
22、的安全前提引導生成內容安全合規。4、其他國家均構建各自人工智能戰略(1)英國:支持創新,建立監管框架,暫緩立法2021年9月,英國數字、文化、媒體和體育部(DCMS)發布國家人工智能戰略,旨在推動英國成為人工智能領域的大國。該文件闡述了英國人工智能戰略愿景,并提出了人工智能發展、人工智能作為經濟支柱、人工智能治理和監管的三個方面的核心目標與行動建議。-10-人工智能安全標準化白皮書(2023版)2021年12月,英國政府發布國家網絡戰略2022。該文件闡述了英國將如何鞏固網絡強國地位、保障網絡安全、提升網絡空間行動能力。其中明確了英國將積極引領人工智能等七項優先技術領域的安全發展。2023年3
23、月,英國政府發布了人工智能新監管框架的提案支持創新的人工智能監管方法。該文件圍繞以下五個方面展開:一是自身安全、應用安全和健壯性,二是適度的透明和可解釋性,三是公平性,四是問責制和治理,五是競爭和賠償,并表示近期不會將上述原則立法。(2)加拿大:聚焦人工智能應用的民眾權益保護2022年6月,加拿大政府公布2022年數字憲章實施法案,旨在加強對加拿大私營部門的管理,為負責任的人工智能開發和使用創建新規則。其中擬議法案人工智能與數據法敦促各公司在開發和部署人工智能系統時以減輕傷害和偏見風險為前提,進而維護加拿大民眾的權益。(3)俄羅斯:關注人工智能對國家安全影響2019年,俄羅斯總統令批準2030
24、年前國家人工智能發展戰略,旨在加快推進俄人工智能發展與應用,確保國家安全,提升經濟實力。2020年,俄聯邦政府批準至2024年人工智能和機器人技術監管構想,旨在積極探索俄羅斯法律、人、機器之間的相互適應關系,為人工智能和機器人技術的安全應用和法律監管提供指導。(4)新加坡:關注人工智能應用安全治理和評估2019年11月,新加坡金融管理局(MAS)宣布與多家金融機構共同設立Veritas計劃框架,旨在幫助金融機構評估人工智能和數據分析解決方案,保證其遵循“公平、道德、負責和透明”的安全準則。2022年5月,新加坡資訊通信媒體發展局(IMDA)和個人數據保護委員會(PDPC)共同發布人工智能安全治
25、理評估框架和工具包A.I.VERIFY,旨在結合人工智能系統的技術評估和程序檢查,提高評估主體與利益相關者之間的透明度。-11-一、人工智能發展現狀三、人工智能安全政策與標準現狀(5)日本:同時關注人工智能正面和負面影響2022年4月,日本政府發布了人工智能戰略2022,旨在推動人工智能克服自身社會問題、提高產業競爭力。其中提出以人為本、多樣性、可持續三項原則,圍繞社會安全、流行疾病、重大災害等安全問題提出了具體方針。5、我國高度重視,有效平衡發展和安全2021年12月和2022年11月,國家互聯網信息辦公室先后發布互聯網信息服務算法推薦管理規定和互聯網信息服務深度合成管理規定,針對利用人工智
26、能算法從事傳播違法和不良信息、侵害用戶權益、操縱社會輿論等問題,加強安全管理,推進算法推薦技術和深度合成技術依法合理有效利用。2023年4月,國家互聯網信息辦公室發布了生成式人工智能服務管理辦法(征求意見稿),統籌安全與發展,提出生成式人工智能產品或服務應當遵守的規范要求,保障相關技術產品的良性創新和有序發展。(二)國內外人工智能安全標準1、人工智能安全國際標準以基礎通用為主國際標準組織(ISO)在人工智能領域已開展大量標準化工作,并專門成立了ISO/IEC JTC1 SC42人工智能分技術委員會。目前,與人工智能安全相關的國際標準及文件主要為基礎概念與技術框架類通用標準,在內容上集中在人工智
27、能管理、可信性、安全與隱私保護三個方面。在人工智能管理方面,國際標準主要研究人工智能數據的治理、人工智能系統全生命周期管理、人工智能安全風險管理等,并對相應的方面提出建議,相關標準包括ISO/IEC 38507:2022信息技術治理 組織使用人工智能的治理影響、ISO/IEC 23894:2023人工智能 風險管理等。-12-人工智能安全標準化白皮書(2023版)在可信性方面,國際標準主要關注人工智能的透明度、可解釋性、健壯性與可控性等方面,指出人工智能系統的技術脆弱性因素及部分緩解措施,相關標準包括ISO/IEC TR 24028:2020人工智能 人工智能中可信賴性概述等。在安全與隱私保護
28、方面,國際標準主要聚焦于人工智能的系統安全、功能安全、隱私保護等問題,幫助相關組織更好地識別并緩解人工智能系統中的安全威脅,相關標準包括ISO/IEC 27090人工智能 解決人工智能系統中安全威脅和故障的指南、ISO/IEC TR 5469人工智能 功能安全與人工智能系統、ISO/IEC 27091人工智能 隱私保護等。電氣與電子工程師協會(IEEE)在人工智能安全方面主要聚焦倫理安全風險、可解釋人工智能、深度學習評估、人工智能責任化等安全問題。最新的標準和報告有IEEE P7000系列標準、IEEE 2841-2022深度學習評估過程與框架,在研項目有IEEE P2840責任化人工智能許可
29、標準、IEEE P2894可解釋人工智能的體系框架指南等。2、歐洲陸續發布多份人工智能安全指南文件及標準需求歐洲電信標準化協會(ETSI)近期關注的重點議題包括人工智能數據安全、完整性和隱私性、透明性、可解釋性、倫理與濫用、偏見緩解等方面,已發布多份人工智能安全研究報告,包括ETSI GR SAI 004人工智能安全:問題陳述、ETSI GR SAI 005人工智能安全:緩解策略報告等,描述了以人工智能為基礎的系統安全問題挑戰,并提出了一系列緩解措施與指南。歐洲標準化委員會(CEN)、歐洲電工標準化委員會(CENELEC)成立了新的CEN-CENELEC聯合技術委員會JTC 21“人工智能”,
30、并在人工智能的風險管理、透明性、健壯性、安全性等多個方面提出了標準需求。-13-一、人工智能發展現狀三、人工智能安全政策與標準現狀3、美國關注可信任可解釋研究,出臺企業標準美國國家標準與技術研究院(NIST)關注人工智能安全的可信任、可解釋等問題。最新的標準項目有:NIST SP1270建立識別和管理人工智能偏差的標準,提出了用于識別和管理人工智能偏見的技術指南;NIST IR-8312可解釋人工智能的四大原則草案,提出了可解釋人工智能的四項原則;NIST IR-8332信任和人工智能草案,研究了人工智能應用安全風險與用戶對人工智能的信任之間的關系;NIST AI 100-1人工智能風險管理框
31、架,旨在為人工智能系統設計、開發、部署和使用提供指南。2022年3月,谷歌更新人工智能原則,提出人工智能對社會有益、避免制造或加強不公平的偏見、建立并測試安全性、對人負責、結合隱私設計、堅持科學的高標準等原則。該文件同時聲明谷歌不會將人工智能技術應用于武器開發,也不會將人工智能用于可能侵犯人權的活動。2022年6月,微軟發布新版負責任人工智能標準,提出公平性、可靠性和內部安全性、隱私和外部安全性、包容性、透明度和問責制六項基本原則,用于指導人工智能工作。4、我國提前布局,即將出臺多項人工智能安全標準2020年7月,國家標準委、中央網信辦、發展改革委、科技部、工業和信息化部聯合印發了國家新一代人
32、工智能標準體系建設指南,形成了標準支撐人工智能高質量發展新格局。(1)研制人工智能安全基礎標準我國首個人工智能安全國家標準信息安全技術 機器學習算法安全評估規范即將發布,規定了機器學習算法技術在生存周期各階段的安全要求,以及應用機器學習算法技術提供服務時的安全要求,并給出了對應評估方法。-14-人工智能安全標準化白皮書(2023版)2022年,全國信息安全標準化技術委員會(TC260)啟動編制信息安全技術 人工智能計算平臺安全框架國家標準,規范了人工智能計算平臺安全功能、安全機制、安全模塊以及服務接口,指導人工智能計算平臺設計與實現。(2)推動關鍵應用方向安全保護標準在生物特征識別、智能汽車等
33、人工智能應用領域,針對網絡安全重點風險,多項國家標準已經發布。生物特征識別方向,發布了GB/T 406602021信息安全技術 生物特征識別信息保護基本要求,以及人臉、聲紋、基因、步態等4項數據安全國家標準。智能汽車方向,發布了國家標準GB/T 418712022信息安全技術 汽車數據處理安全要求,有效支撐汽車數據安全管理若干規定(試行),提升了智能汽車相關企業的數據安全水平。-15-一、人工智能發展現狀四、人工智能安全標準需求分析四、人工智能安全標準需求分析(一)人工智能安全屬性定義和度量指標隨著人工智能安全工作開展,安全屬性定義逐步形成一些共識,國際標準以及相關技術文件也給出了部分安全屬性
34、的定義描述,但不同文件之間仍有差異??煽啃?、可解釋性、公平性等重要安全屬性定義的標準統一,以及其度量指標的規范化,將對人工智能的發展有著重要促進意義。(二)用戶輸入數據安全保護相關規范在人工智能通常收集用戶輸入數據用于訓練的背景下,如何保障用戶輸入數據的安全亟需技術標準。根據操作場景的不同,用戶輸入的數據可能包含人臉、身份證號、家庭住址等個人信息,可能包括個人健康情況、情感狀況等個人隱私,可能包括企業技術和經營活動有關的商業秘密,甚至可能包括國家秘密等。需要落實數據安全法個人信息保護法等法律法規,提出可以切實解決用戶輸入數據安全問題的相關標準規范。(三)人工智能服務網絡安全防護相關指南圍繞人工
35、智能服務過程中,可能會面臨的對抗樣本攻擊、爬山攻擊、模型竊取、供應鏈攻擊等新型攻擊威脅,需要研究在數據集防護、算法模型保護、抗逆向攻擊等方面的安全技術措施指南,幫助人工智能服務提供者保護業務數據以及人工智能模型參數等的機密性和完整性。-16-人工智能安全標準化白皮書(2023版)(四)人工智能安全評估相關規范當前,隨著人工智能在各行各業的應用逐步深入,需要以確認其基本安全水平作為提供產品或服務的基礎。研究人工智能安全評估規范標準,將有助于確定人工智能產品或服務的安全水平,促進安全隱患提前防范,推動人工智能應用與行業的進一步融合發展。(五)生成式人工智能安全標準為應對生成式人工智能帶來的安全挑戰
36、,以促進生成式人工智能發展為基本目標,統籌發展和安全,亟需針對生成式人工智能的網絡安全問題出臺專門標準,包括但不限于生成式人工智能訓練數據安全、人工標注過程安全等方面的標準規范。-17-一、人工智能發展現狀五、人工智能安全標準化工作建議五、人工智能安全標準化工作建議面對未來人工智能發展關鍵時期,我國人工智能安全標準化工作將繼續發揮基礎性、規范性、引領性作用。(一)持續完善人工智能安全標準體系面向人工智能變化快、安全挑戰新等特點,加大研究力度,強化頂層設計,結合當前人工智能面臨的安全風險,完善人工智能安全標準體系,統籌規劃人工智能安全的基礎共性、技術系統、管理服務、測試評估、產品應用等方面標準研
37、制工作。(二)大力開展基礎共性安全標準研究圍繞現階段人工智能安全發展所需的基礎共性標準,加快開展標準化研制。一是加快推動信息安全技術 機器學習算法安全評估規范信息安全技術 人工智能計算平臺安全框架等通用性標準編制發布。二是大力開展技術標準研究,圍繞統一人工智能安全屬性和度量指標、保護用戶輸入數據安全、人工智能服務網絡安全防護等方面做好標準預研。(三)加快出臺產業發展急需安全標準面向當前人工智能安全發展的痛點、堵點問題,聚焦以安全促發展,細化支撐互聯網信息服務算法推薦管理規定互聯網信息服務深度合成管理規定生成式人工智能服務管理辦法等法律法規,加快推動信息安全技術 生成式人工智能預訓練和優化訓練數
38、據安全規范信-18-人工智能安全標準化白皮書(2023版)息安全技術 生成式人工智能人工標注安全規范信息安全技術 互聯網信息服務深度合成安全規范基于個人信息的自動化決策安全要求等標準的編制發布。-19-一、人工智能發展現狀附錄A:標準列表附錄A:標準列表A.1 國內人工智能安全相關標準列表A.1.1 人工智能安全標準負責/歸口標準類型標準編號標準名稱階段全國信安標委(TC 260)國家標準20211000-T-469信息安全技術 機器學習算法安全評估規范報批稿全國信安標委(TC 260)國家標準20230249-T-469信息安全技術 人工智能計算平臺安全框架征求意見稿全國信標委人工智能分委會
39、(TC28/SC42)國家標準20221791-T-469 人工智能 管理體系立項中國電子工業標準化技術協會(CESA)團體標準T/CESA 1193-2022信息技術 人工智能 風險管理能力評估發布附錄A-20-人工智能安全標準化白皮書(2023版)A.1.2與人工智能直接相關的安全標準負責/歸口標準類型標準編號標準名稱階段全國信安標委(TC 260)國家標準GB/T 38542-2020信息安全技術 基于生物特征識別的移動智能終端身份鑒別技術框架發布全國信安標委(TC 260)國家標準GB/T 38671-2020信息安全技術 遠程人臉識別系統技術要求發布全國信安標委(TC 260)國家標
40、準GB/T 40660-2021信息安全技術 生物特征識別信息保護基本要求發布全國信安標委(TC 260)國家標準GB/T 41819-2022信息安全技術 人臉識別數據安全要求發布全國信安標委(TC 260)國家標準GB/T 41807-2022信息安全技術 聲紋識別數據安全要求發布全國信安標委(TC 260)國家標準GB/T 41806-2022信息安全技術 基因識別數據安全要求發布全國信安標委(TC 260)國家標準GB/T 41773-2022信息安全技術 步態識別數據安全要求發布全國信安標委(TC 260)國家標準GB/T 41871-2022信息安全技術 汽車數據處理安全要求發布全
41、國信安標委(TC 260)國家標準20230253-T-469信息安全技術 基于個人信息的自動化決策安全要求立項全國信標委生物特征識別分委會(TC 28/SC37)國家標準GB/T 41815.1-2022信息技術 生物特征識別呈現攻擊檢測 第1部分:框架發布全國信標委生物特征識別分委會(TC 28/SC37)國家標準GB/T 41815.2-2022信息技術 生物特征識別呈現攻擊檢測 第2部分:數據格式發布全國信標委生物特征識別分委會(TC 28/SC37)國家標準GB/T 41815.3-2023信息技術 生物特征識別呈現攻擊檢測 第3部分:測試與報告發布全國信標委生物特征識別分委會(TC
42、 28/SC37)國家標準GB/T 37036.3-2019信息技術 移動設備生物特征識別 第3部分:人臉發布全國信標委生物特征識別分委會(TC 28/SC37)國家標準GB/T 37036.8-2022信息技術 移動設備生物特征識別 第8部分:呈現攻擊檢測發布全國信標委生物特征識別分委會(TC 28/SC37)國家標準GB/T 5271.37-2021信息技術 詞匯 第37部分:生物特征識別發布-21-一、人工智能發展現狀附錄A:標準列表負責/歸口標準類型標準編號標準名稱階段全國信標委生物特征識別分委會(TC 28/SC37)國家標準20221220-T-469信息技術 生物特征識別 人臉識
43、別系統應用要求立項中國通信標準化協會(CCSA)行業標準YD/T 4087-2022移動智能終端人臉識別安全技術要求及測試評估方法發布中國通信標準化協會(CCSA)行業標準2023-0041T-YD人工智能開發平臺通用能力要求 第2部分:安全要求立項中國通信標準化協會(CCSA)行業標準2023-0039T-YD面向人臉識別系統的人臉信息保護基礎能力要求立項中國通信標準化協會(CCSA)行業標準人臉識別線下支付安全要求草案中國通信標準化協會(CCSA)行業標準2021-0630T-YD電信網和互聯網人臉識別數據安全檢測要求立項上海市市監局地方標準人工智能數據通用安全要求征求意見稿上海市市監局地
44、方標準人臉識別分級分類應用標準草案中國電子工業標準化技術協會(CESA)團體標準T/CESA 1124-2020信息安全技術 人臉比對模型安全技術規范發布新一代人工智能產業技術創新戰略聯盟(AITISA)團體標準T/AI 110.1-2020人工智能視覺隱私保護 第1 部分:通用技術要求發布新一代人工智能產業技術創新戰略聯盟(AITISA)團體標準T/AI 110.2-2022人工智能視覺隱私保護 第2部分:技術應用指南發布新一代人工智能產業技術創新戰略聯盟(AITISA)團體標準T/AI 113-2021生物特征識別服務中的隱私保護技術指南發布新一代人工智能產業技術創新戰略聯盟(AITISA
45、)團體標準T/AI 111-2020生物特征模板的安全使用要求發布新一代人工智能產業技術創新戰略聯盟(AITISA)團體標準2023011205信息技術 數字視網膜系統 第11部分:安全與隱私保護草案-22-人工智能安全標準化白皮書(2023版)A.2 國外人工智能安全相關標準列表負責/歸口標準類型標準編號標準名稱階段ISO IEC/JTC1/SC27國際標準ISO/IEC AWI 27090Cybersecurity Artificial Intelligence Guidance for addressing security threats and failures in artific
46、ial intelligence systems立項(AWI)ISO IEC/JTC1/SC27國際標準ISO/IEC AWI 27091Cybersecurity and Privacy Artificial Intelligence Privacy protection立項(AWI)ISO IEC/JTC1/SC27國際技術報告ISO/IEC TR 27563Security and privacy in artificial intelligence use cases Best practices發布ISO IEC/JTC1/SC42國際標準ISO/IEC 22989:2022Info
47、rmation technology Artificial intelligence Artificial intelligence concepts and terminology發布ISO IEC/JTC1/SC42國際標準ISO/IEC 23894:2023Information technology Artificial intelligence Guidance on risk management發布ISO IEC/JTC1/SC42國際技術報告ISO/IEC TR 24368:2022Information technology Artificial intelligence O
48、verview of ethical and societal concerns發布ISO IEC/JTC1/SC42國際預研項目ISO/IEC PWI 17866Artificial intelligence Best practice guidance for mitigating ethical and societal concerns預研(PWI)ISO IEC/JTC1/SC42國際技術報告ISO/IEC DTR 5469Artificial intelligence Functional safety and AI systems報批(DTR)ISO IEC/JTC1/SC42國
49、際標準ISO/IEC FDIS 42001Information technology Artificial intelligence Management system報批(FDIS)ISO/TC 199國際技術報告ISO TR 22100-5:2021Safety of machinery Relationship with ISO 12100 Part 5:Implications of artificial intelligence machine learning發布ISO/TC22/SC32國際標準ISO/AWI PAS 8800Road Vehicles Safety and a
50、rtificial intelligence立項(AWI)IEEE國際協會標準IEEE 2790-2020IEEE Standard for Biometric Liveness Detection發布IEEE國際協會標準IEEE 2801-2022IEEE Recommended Practice for the Quality Management of Datasets for Medical Artificial Intelligence發布IEEE國際協會標準IEEE P2894Guide for an Architectural Framework for Explainable
51、Artificial Intelligence草案-23-一、人工智能發展現狀附錄A:標準列表負責/歸口標準類型標準編號標準名稱階段IEEE國際協會標準IEEE P2986Recommended Practice for Privacy and Security for Federated Machine Learning草案IEEE國際協會標準IEEE P3156Standard for Requirements of Privacy-preserving Computation Integrated Platform草案IEEE國際協會標準IEEE P3169Standard for Se
52、curity Requirement of Privacy-Preserving Computation草案IEEE國際協會標準IEEE 7002-2022IEEE Standard for Data Privacy Process發布IEEE國際協會標準IEEE P7012Standard for Machine Readable Personal Privacy Terms草案NIST美國標準NIST.AI.100-1Artificial Intelligence Risk Management Framework發布NIST美國標準NIST.IR.8269A Taxonomy and T
53、erminology of Adversarial Machine Learning草案NIST美國標準NIST.IR.8312Four Principles of Explainable Artificial Intelligence發布NIST美國標準NIST.IR.8330Trust and Artificial Intelligence發布NIST美國標準NIST.IR.8367Psychological Foundations of Explainability and Interpretability in Artificial Intelligence發布NIST美國標準NIST
54、.SP.1270Towards a Standard for Identifying and Managing Bias in Artificial Intelligence發布ETSI歐洲標準ETSI GR SAI 001AI Threat Ontology發布ETSI歐洲標準ETSI GR SAI 002Data Supply Chain Security發布ETSI歐洲標準ETSI GR SAI 003Security testing of AI草案ETSI歐洲標準ETSI GR SAI 004Problem Statement發布ETSI歐洲標準ETSI GR SAI 005Mitigation Strategy Report發布ETSI歐洲標準ETSI GR SAI 006The role of hardware in security of AI發布