《中國信通院:可信人工智能白皮書(37頁).pdf》由會員分享,可在線閱讀,更多相關《中國信通院:可信人工智能白皮書(37頁).pdf(37頁珍藏版)》請在三個皮匠報告上搜索。
1、在人工智能實際運營和使用階段,需要做好人工智能系統的解釋說明工作,持續監測人工智能系統的各項可信風險,積極優化人工智能系統。一是對用戶披露人工智能系統的技術意圖。在算法的可解釋性尚未成熟的情況下,對于人工智能系統技術意圖的理解可以從建立適當的人機交流機制、披露系統決策的功能邏輯和使用要求、明示系統的潛在錯誤決策風險等方面入手。具體來說,企業應在上線部署人工智能系統時,建立適當的人機交流機制,如設置一個功能模塊,通過一種通俗易懂的表達方式,如文字、圖形標識、語音提示等,明確地告知用戶當前是否正在與人工智能系統進行交互。在實際應用過程中,用戶也應被明確告知有關人工智能系統的基本功能、性能表現、使用
2、要求、面向對象、以及系統在決策流程中扮演的角色等基本信息。二是持續開展人工智能風險監測等。建立用戶反饋渠道,及時收集用戶的真實意見,并對整個系統進行優化和迭代。監測人工智能系統在實際使用過程中的各種風險,不斷完善監督、賠償等機制,對造成實際損害的人工智能系統及時開展責任追溯工作和賠償工作??尚湃斯ぶ悄艿膶崿F不僅僅是企業單方面的實踐和努力就能夠完成的,更需要多方參與和協同,最終形成一個相互影響、相互支持、相互依賴的良性生態。這個生態主要包括標準體系、評估驗證、合作交流等具體內容。一是構建可信人工智能的標準體系。政策法律只能規定原則和底線,需要標準從可執行、可落地的層面來進行具體的指導和約束。目前
3、,部分國家已在制定或出臺人工智能治理的原則或法律,在此基礎上,可結合人工智能技術、產品或場景制定具體的標準規范。如:2021年 4 月,我國信息安全技術人臉識別數據安全要求國家標準面向社會公開征求意見,該標準主要為解決人臉數據濫采、泄露或丟失,以及過度存儲、使用等問題,對于個人信息保護法草案中人臉識別相關的規定也作了更多闡述和細化。二是開展第三方的評估驗證。第三方的評估驗證是檢驗目標對象是否達到相關要求的有效手段,由于人工智能技術的復雜性,更加需要專業的第三方機構給予支持。圍繞可信人工智能的特征,要重點考慮系統安全性、魯棒性、可復現性、數據保護、可追溯性、公平性等方面的表現。中國人工智能產業發展聯盟 2020 年也發布了首批商用人工智能系統可信評估結果,涉及 11 家企業的 16 個人工智能系統,為用戶選型提供了重要參考;歐盟最新發布的人工智能立法提案中,也提出了將由權威第三方機構開展可信評估等舉措。