《中國信通院:人工智能倫理治理研究報告(2023年)(30頁).pdf》由會員分享,可在線閱讀,更多相關《中國信通院:人工智能倫理治理研究報告(2023年)(30頁).pdf(30頁珍藏版)》請在三個皮匠報告上搜索。
1、中國信息通信研究院知識產權與創新發展中心 中國信息通信研究院科技倫理研究中心 2023年12月 人工智能倫理治理人工智能倫理治理 研究報告研究報告 (2023(2023 年年)版權聲明版權聲明本報告本報告版權屬于版權屬于中國信息通信研究院中國信息通信研究院,并受法律保護,并受法律保護。轉載、摘編或利用其它方式使用轉載、摘編或利用其它方式使用本報告文字或者觀點的,應本報告文字或者觀點的,應注明注明“來源:來源:中國信息通信研究院”中國信息通信研究院”。違反上述聲明者,本。違反上述聲明者,本院院將追究其相關法律責任。將追究其相關法律責任。前前 言言 伴隨人工智能的迅速發展和廣泛應用,人類正在進入一
2、個“人機物”相融合的萬物智能互聯時代,人工智能技術的應用在給人們帶來生活和工作便利的同時,也帶來了系列倫理挑戰。2022 年 3 月,中共中央辦公廳國務院辦公廳印發關于加強科技倫理治理的意見,對科技倫理治理工作進行了系統部署,將人工智能列入科技倫理治理的重點領域。人工智能倫理是開展人工智能研究、設計、開發、服務和使用等活動需要遵循的價值理念和行為規范。人工智能技術的突破發展,引發了技術應用的倫理爭議,特別是生成式人工智能技術的發展應用引發了偏見歧視、隱私侵犯、責任不明、虛假內容傳播等倫理挑戰。為應對人工智能技術應用帶來的風險,世界各國積極推動人工智能倫理國際治理合作。各國政府通過出臺人工智能倫
3、理原則、發布人工智能倫理治理指引、提供技術治理工具等加強本國本地區的人工智能倫理治理監管。我國通過積極完善人工智能倫理制度規范,探索人工智能倫理治理技術化、工程化、標準化落地措施,加強人工智能治理國際合作等舉措推動人工智能向善發展。人工智能倫理治理是多主體協作的全流程治理,是以敏捷機制協調人工智能發展與安全的重要治理模式。未來一段時期,人工智能倫理治理將與產業創新活動增強協調;多學科多主體參與、分類分級治理、技術工具開發等措施將有效推動人工智能倫理治理機制完善;全民科技倫理素養的提升將有效防范人工智能倫理風險;全球人工智能 倫理治理合作也將推動人工智能技術造福人類。中國信息通信研究院首次發布人
4、工智能倫理治理研究報告藍皮書。本報告在總結分析人工智能倫理治理相關特點的基礎上,對人工智能生成內容、自動駕駛、智慧醫療三個典型應用場景的倫理風險進行分析,并結合國內外人工智能倫理治理實踐,提出人工智能倫理治理的四點展望,以期為更加廣泛深入的討論提供參考。目目 錄錄 一、人工智能倫理治理概述.1(一)人工智能倫理的概念與特點.1(二)人工智能倫理治理的必要性.2 二、人工智能倫理治理關切.5(一)人工智能倫理挑戰.5(二)典型應用場景的人工智能倫理風險.7 三、人工智能倫理治理實踐.12(一)國際組織人工智能倫理治理方案.12(二)域外國家和地區人工智能倫理治理機制.13(三)我國人工智能倫理治
5、理實踐.17 四、人工智能倫理治理展望.21(一)協調人工智能產業創新發展與倫理治理.21(二)完善人工智能倫理治理舉措.21(三)提升各主體人工智能倫理風險應對能力.23(四)加強人工智能倫理治理國際交流合作.23 人工智能倫理治理研究報告(2023 年)1 一、人工智能倫理治理概述(一)人工智能倫理的概念與特點(一)人工智能倫理的概念與特點“倫理”是人的行為準則,是人與人之間和人與社會的義務,也是每個人源于道德的社會責任1。倫理作為價值規范,為不同場景的行為提供引導。在科技活動中,倫理從價值引導和實踐規范層面指導技術研發應用。人工智能倫理是開展人工智能研究、設計、開發、服務和使用等科技活動
6、需要遵循的價值理念和行為規范。人工智能倫理關注技術的“真”與“善”,并為人工智能發展提供更廣闊的討論空間。人工智能倫理包含價值目標與行為要求兩個方面。在價值目標上,人工智能倫理要求人工智能各階段活動以增進人類福祉、尊重生命權利、堅持公平公正、尊重隱私等為目標。在行為要求上,人工智能倫理要求人工智能技術做到安全可控、透明可解釋,在人工智能研發應用各環節強化人類責任擔當,提倡鼓勵多方參與和合作。人工智能倫理呈現出哲學性、技術性、全球性三大特點。一是人工智能倫理拓展了人類道德哲學反思的邊界。人工智能倫理蘊含了人與機器相互關系的倫理思考,拓展人類關于善、理性、情感等問題的探索。人工智能倫理的討論既包含
7、了對人工智能主體、人格、情感方面的本體倫理問題研究,也關注人工智能應用是否符合社會道德要求。關于人工智能倫理的討論體現著當代人對社會生活的價值理想,將人與人交往的倫理規范擴展至人與技術交互的反思。二是人工智能倫理 1 辭海編輯委員會.辭海M.上海:上海辭書出版社,1979:221.人工智能倫理治理研究報告(2023 年)2 與人工智能技術的發展應用密切相關。從 1940 年人工智能第一次浪潮中阿西莫夫提出“機器人三原則”,到 2004 年人工智能第三次浪潮中機器人倫理學研討會正式提出“機器人倫理學”2,再到目前,人工智能倫理已成為政府、產業界、學界等共同關注的議題。伴隨深度學習算法的演進以及人
8、工智能技術應用領域的拓展,人工智能倫理關注算法技術風險和技術應用危機的防范。在“強人工智能”時代到來前,人工智能倫理主要關注歧視偏見、算法“黑箱”、技術濫用、數據不當收集等問題。但隨著大模型技術的發展,人工智能倫理討論的議題也不斷深化。三是增進人類福祉是人工智能倫理的全球共識。不同于傳統倫理觀念受地區歷史傳統文化的影響產生的差異,人工智能技術的發展和應用帶來了全球性倫理挑戰。目前,社會偏見、技術鴻溝、多樣性危機等成為國際社會面臨的共同挑戰。以人為本、智能向善、促進可持續發展等已成為全球人工智能倫理共識。(二)人工智能倫理治理的必要性(二)人工智能倫理治理的必要性 面對人工智能帶來的風險,通過人
9、工智能治理的多種機制促進人工智能健康發展已成為普遍共識。人工智能倫理治理是人工智能治理的重要組成部分,主要包括以人為本、公平非歧視、透明可解釋、人類可控制、責任可追溯、可持續發展等內容。人工智能倫理治理能根據人工智能技術發展和應用情況,及時提出調整人與人工智能關系和應對人工智能風險的方法。人工智能倫理治理重點不在于關注對創新主體的最低義務要求,而在于推動“智能向善”的價值目標的實現。2 杜嚴勇.人工智能倫理風險防范研究中的若干基礎性問題探析J.云南社會科學,2022(03):12-19.人工智能倫理治理研究報告(2023 年)3 1.通過倫理治理,加深關于“人工智能體”的哲學探討 人工智能技術
10、的發展和應用帶來了新的主體“人工智能體”,即能在一定條件下模擬人類進行自主決策,與人和環境開展交互的技術體。大語言模型的發展,使得關注和應對“人工智能體”帶來的倫理問題變得更加迫切。一是人類自主性受到挑戰。工業時代,機械化的發展降低了人類體力型、重復型勞動的比例;智能時代,機器開始替代人類進行決策分析,從自動化向自主決策發展。人工智能從人類操控為主的“人在決策圈內”轉向“人在決策圈外”3的智能體自主決策。二是人類自我認知受到沖擊。人類因所具有的學習能力、創造力、個體的多樣性、飽含情感等與機器存在不同。當前,大模型技術已具有自然語言交互和開展專業任務的能力,并能根據反饋進一步學習提升,與人的差異
11、進一步縮小,對人類自身價值的認知面臨沖擊。三是人機關系進一步復雜化。與工業時代可視、可理解、可控制的工具不同,人工智能體具有自主學習能力,但可解釋性不足,也可能產生不可控的人機倫理風險。同時,具身智能機器人、自動駕駛等的發展,推動人機交互實體化。隨著人工智能技術向通用人工智能發展,有關人工智能體意識、人工智能體是否成為社會主體、人工智能體的法律地位等問題受到更多關注。有關人工智能與人類關系的問題引起包括技術專家、哲學家、科技企業家、科幻小說作者等的關注。如科幻小說作家艾薩克阿西莫夫提出“機器人三定律”,提出人與機器交互的基本底線;人機協同工作模式的探索等。3 段偉文.人工智能時代的價值審度與倫
12、理調適J.中國人民大學學報,2017,31(06):98-108.人工智能倫理治理研究報告(2023 年)4 2.通過倫理治理,應對人工智能應用風險 人工智能被視作促進經濟發展、產業升級的重要推動力。然而,人工智能技術本身是否無害、人工智能技術應用的潛在危害仍然需要廣泛探討,倫理治理的包容性、跨學科性為風險的評估和應對提供空間。一是關于技術本身是否承載觀念意志仍存在爭議。同意技術中性(neutrality)的觀點認為,技術是純粹的科學應用,是自然規律與科學原理的反映。反對技術中性的觀點認為,技術由人創造,具有社會屬性和價值觀念4。二是技術應用的“不中立”“非中性”不存在爭議,技術的應用根據場景
13、不同,其爭議度有明顯區別。一方面,人工智能技術應用被視作推動經濟發展的重要力量,為工業、農業、服務業等升級轉型提供了技術支撐。另一方面,人工智能倫理風險與其他技術風險疊加,且不同場景下的人工智能技術應用的倫理風險有明顯差異。如在農業智慧化的場景下,人工智能技術與物聯網等技術相結合,可對土壤、光照、病蟲害等進行監測分析,實現對農業作業的指導、管理、優化等,對提高農作物產量和質量起到重要作用,總體風險較小。在互聯網信息推送場景下,企業主體將數據與算法相結合,對用戶偏好進行分析,進行個性化推薦,實現用戶體驗的提升與廣告分發效率的提高;然而,個性化推薦可能造成的隱私、監控、信息繭房等倫理問題受到關注。
14、3.通過倫理治理,實現敏捷有效的風險規制 人工智能倫理治理具有靈活敏捷、包容開放的特點,與人工智能 4 參見吳致遠.有關技術中性論的三個問題J.自然辯證法通訊,2013,35(06):116-121+128.人工智能倫理治理研究報告(2023 年)5 全流程治理理念契合,成為人工智能治理的關鍵模式。從機制的靈活性上看,人工智能倫理治理是一種高適應性規范,與科技發展和倫理事件動態互動,能夠進行快速調整。從參與主體上看,人工智能倫理治理是政府、產業、學界等多主體合作應對風險的機制,是以多主體參與為基本實踐的治理模式。從治理工具上看,人工智能倫理治理包括了原則指導、規范指南、技術工具等豐富機制,能與
15、人工智能研發和應用不同階段的需要相配合。從治理介入階段看,人工智能倫理治理融入研發到應用的全生命周期中,既能有效發揮向善價值的前置引導作用,也可借助風險評估和風險反饋機制及時調整技術發展與應用,為新技術匹配適宜的治理方式。二、人工智能倫理治理關切(一)人工智能倫理挑戰 目前,人工智能引發的倫理挑戰已從理論研討變為現實風險。根據 OECD AI Incidents Monitor 的統計,僅 2023 年 11 月 1 個月,人工智能事件超過 280 件5。對人工智能倫理問題的關切覆蓋人工智能全生命周期的各個階段,需要從技術研發和應用部署6層面分析評估人工智能倫理風險。在技術研發階段,由于人工智
16、能技術開發主體在數據獲取和使用、算法設計、模型調優等方面還存在技術能力和管理方式的不足,可能產生偏見歧視、隱私泄露、錯誤信息、不可解釋等倫理風險。偏見歧 5 數據來源:OECD AI Incidents Monitor,最后訪問日期:2023 年 12 月 11 日.6 國際標準化組織人工智能系統生命周期過程(ISO/IEC WD5338)將人工智能系統全生命周期概括為初始、設計研發、檢驗驗證、部署、運行監控、持續驗證、重新評估、廢棄八個階段,本部分將上述環節概括為工程技術研發和應用開發部署兩大環節.人工智能倫理治理研究報告(2023 年)6 視風險是由于訓練人工智能的數據集存在偏見內容、缺乏
17、多樣性等數據集質量問題,以及算法對不同群體進行了非公平性設計等,產生歧視性算法決策或內容輸出。隱私泄露風險是指使用包含未經同意的個人數據進行模型訓練,繼而引發模型輸出內容可能產生侵犯隱私的風險。錯誤信息風險主要發生在人工智能基礎模型中,由于大模型是根據前序文本對下一個詞進行自回歸預測生成,預測內容受前序文本影響較大,大模型可能產生“幻覺”(Hallucination),繼而生成錯誤不可靠的內容。不可解釋風險是指由于人工智能算法的復雜性和“黑箱性”,導致人工智能決策原因和過程的無法解釋。在產品研發與應用階段,人工智能產品所面向的具體領域、人工智能系統的部署應用范圍等將影響人工智能倫理風險程度,并
18、可能產生誤用濫用、過度依賴、沖擊教育與就業等倫理風險。誤用濫用風險是指由于人工智能技術使用便利度提高、任務完成能力增強,人工智能容易被用于不當任務的風險,具體包括快速生成大量虛假內容、生成惡意代碼、被誘導輸出不良信息等。過度依賴風險是指由于人工智能技術能力的提升,使用者對人工智能產生過度的依賴和信任,包括在未進行事實核查情況下對大模型生成內容的采信,甚至因長時間交互產生情感依賴等。沖擊教育與就業風險是指人工智能便捷性的提升,使得學生可以借助機器完成作業論文,影響教育學習的基本方法與,而青少年與人工智能廣泛的直接互動也可能帶來心理健康風險。同時,人工智能的就業沖擊已不止于數字化替代,還可能沖擊從
19、事藝術、咨詢、教育等領域的專人工智能倫理治理研究報告(2023 年)7 業人員,加速教育投入的折舊7,引發進一步的就業替代沖擊。需要注意,包括隱私泄露、偏見歧視、產生虛假錯誤信息、歸責不明等倫理風險的發生原因既可能產生在研發階段,也可能產生于應用階段,甚至是兩者疊加產生的負面后果。識別人工智能倫理風險需要進行全生命周期的評估。(二)典型應用場景的人工智能倫理風險 根據人工智能具體應用場景的不同,主要倫理風險、風險影響對象與范圍、倫理治理的客體存在較大差異。目前,包括圖文生成、自動駕駛、智慧醫療等應用領域面臨的典型倫理風險有一定差異,需要分場景分析與討論。1.人工智能生成內容 伴隨大模型的發展,
20、文本生成、圖片生成、代碼生成等生成式人工智能技術應用快速發展,包括 ChatGPT、Claude、Stable Diffusion、Midjourney 等生成式人工智能應用成為 2023 年人工智能應用熱點。但使用大模型生成內容具有三大突出倫理風險。一是誤用濫用風險。生成式人工智能技術應用普及快、使用門檻低,可能成為制作深度偽造內容、惡意代碼等的技術工具,引發虛假信息大量傳播以及網絡安全問題。二是數據泄露與隱私侵犯風險。生成式人工智能使用的訓練數據集可能包含個人信息,繼而被誘導輸出有關信息。同時,在用戶在使用過程中上傳的個人信息、企業商業秘密、重要代碼等都有可能成為生成式人工智能訓練的素材,
21、進而產生被泄露的風險。三是對知 7 段偉文.準確研判生成式人工智能的社會倫理風險 J.中國黨政干部論壇,2023,(04):76-77.人工智能倫理治理研究報告(2023 年)8 識產權制度帶來挑戰。生成式人工智能技術對知識產權體系造成了沖擊。在訓練數據的使用上,哪些數據能用于模型訓練還存在爭議,關于“合理使用”是否能適用于大模型數據訓練還在討論,且已有藝術家開始使用技術工具8阻止未經允許的模型訓練。在生成內容的權利歸屬上,人工智能技術是否僅能發揮工具作用還有探討空間。8 如 Nightshade、Glaze 等通過改變人眼無法識別的像素影響機器學習模型的工具.誤用濫用案例:生成假視頻、圖片、
22、聲音以實施詐騙誤用濫用案例:生成假視頻、圖片、聲音以實施詐騙 2023 年 2 月 28 日至 3 月 2 日的三天內,加拿大至少有 8 名老人因為利用深度偽造內容實施的詐騙損失大量資金。犯罪分子利用人工智能技術,快速克隆聲音、圖片等,并結合詳細的個人信息,使得受害者產生錯誤判斷,按犯罪分子要求支付費用。隱私侵犯案例:泄露用戶信息隱私侵犯案例:泄露用戶信息 2023 年 11 月 28 日,來自谷歌、華盛頓大學等研究團隊發現ChatGPT 數據泄露漏洞。文章指出,讓 ChatGPT 多次重復一個詞后,模型可能會輸出個人信息。2023 年 3 月 25 日,OpenAI 發文證實部分 ChatG
23、PT Plus 服務訂閱用戶的姓名、電子郵件地址、支付地址、信用卡的后四位和信用卡到期時間等被泄露。知識產權爭議案例:是否屬于“合理使用”的爭議知識產權爭議案例:是否屬于“合理使用”的爭議 2023 年 9 月,美國作家協會對 OpenAI 發起集體訴訟,起訴OpenAI 在未經許可的情況將受版權保護的作品用于大語言模型訓練。2023 年 7 月,數千名作家簽署公開信,要求 OpenAI 等人工智能公司停止在未經許可的情況下使用其作品訓練大模型。人工智能倫理治理研究報告(2023 年)9 2.自動駕駛 自動駕駛是人工智能、物聯網、高性能計算等新一代信息技術深度融合的產物,是人機交互領域的重要實
24、踐。自動駕駛在載人、載貨等方面的技術持續發展,并從封閉場景、封閉道路運行向復雜社會化場景進行拓展。自動駕駛倫理與風險控制、生命價值衡量、責任分配等問題關系密切。一是自動駕駛技術復雜性使得風險控制更具挑戰。自動駕駛汽車的風險來自以自動駕駛汽車為載體的各類軟硬件技術,包括自動駕駛算法偏差、軟件安全漏洞、硬件架構不可靠等,并具有風險疊加的危機。二是“電車難題”9“隧道難題”10成為現實的倫理風險。目前,有條件自動駕駛已上路測試,與軟件信息服務、封閉場景下的運行的機器人等風險不同,自動駕駛技術作為面向不確定開放環境,且能夠造成巨大物理損害的技術應用,其風險影響范圍不斷增大、在緊急情況下,自動駕駛算法將
25、可能直接對人的生命利益作出選擇。三是責任分配在自動駕駛場景下更具復雜性。在傳統情況下,損害責任可根據因果關系、過錯程度并結合具體場景進行認定。但在自動駕駛場景下,自動駕駛算法具有一定的自主性,同時,涵蓋自動駕駛汽車的關鍵責任方包括制造商、汽車設計主體,軟件服務主體、使用者等,承擔責任的主體繁多且難以確認,因果鏈條更加復雜,社會風險責任的分配具有顯著的復雜性。9 電車難題(Trolley Problem)由 Philippa Ruth Foot 提出,討論是否能因為追求多數人的利益而犧牲少數人的利益。參見 Philippa Foot,The Problem of Abortion and the
26、 Doctrine of the Double Effect,1967.Oxford Review,No.5.10 隧道難題(Tunnel Problem)由 Jason Millar 提出,討論犧牲汽車乘客還是犧牲行人的兩種判斷。參見Jason Millar(2016)An Ethics Evaluation Tool for Automating Ethical Decision-Making in Robots and Self-Driving Cars,Applied Artificial Intelligence,30:8,787-809.人工智能倫理治理研究報告(2023 年)10
27、 3.智慧醫療 人工智能在醫療衛生領域的應用帶來顯著的機遇,為病灶診斷、藥物研發、疾病風險預測等提供了重要的工具。根據斯坦福大學最新責任歸屬案例:駕駛員責任歸屬案例:駕駛員和汽車廠商和汽車廠商的責任劃分的責任劃分 2018 年 3 月美國亞利桑那州,一輛正在測試中的 Uber 自動駕駛汽車以 69 公里時速撞死了一位橫穿馬路的行人。2020 年 9 月 15 日,亞利桑那州陪審團以過失殺人罪起訴當時 Uber 自動駕駛汽車前安全駕駛員 Rafaela Vasquez,建議判處該安全員 2.5 年有期徒刑。檢察官認為:“當駕駛員操作汽車方向盤時,他們有責任以遵守法律的方式安全地控制和操作汽車”。
28、2019 年,一特斯拉 Model 3 撞樹起火,并造成駕駛司機死亡和乘客受傷。事后,兩名受傷乘客認為特斯拉在出售汽車時知道其自動駕駛系統 Autopilot 有缺陷并提起訴訟。2023 年 9 月,美國加州地方法院陪審團認為車輛沒有制造缺 陷,特斯拉方面稱該案件是由駕駛員人為因素導致。自動駕駛汽車算法設計自動駕駛汽車算法設計問題問題:緊急情況下的處置不當:緊急情況下的處置不當 2023 年 10 月,一行人被人類駕駛的轎車撞倒并滾落至車道上。此時,由 Cruise 運營的自動駕駛出租車 Robotaxi 迎面駛來,該行人再次遭到撞擊并被卷入車下。該 Robotaxi 在緊急制動后又啟動了靠邊
29、停車操作,以 20 英里每小時的速度將這名行人拖行了 7 英尺,導致其全身多出嚴重損傷。人工智能倫理治理研究報告(2023 年)11 發布的人工智能指數報告,2022 年與醫療健康領域相關的人工智能投資超過 60 億美元,是吸引最多投資的人工智能應用領域。然而,由于在醫療衛生領域應用人工智能技術直接影響生命健康,需要謹慎評估人工智能在該領域應用的倫理風險,特別要關注人類監督、隱私保護和醫患知情權。一是缺乏人類監督引發安全控制風險。由于人工智能可用于醫學圖像、診斷特征匹配等醫學場景,能夠影響醫療決策。在直接面向患者的智慧醫療領域,缺乏專業人員介入和監督的醫療診斷風險極大。二是隱私泄露與數據保護風
30、險。醫療活動產生和收集大量個人信息,醫生也需要依靠患者既往病史等做出判斷。隨著電子病歷、基因檢測等應用,以及生成式人工智能在醫療領域應用開發,敏感個人信息11被大量收集和處理,一旦發生泄露、非法使用、篡改等,將可能對患者隱私、患者診療等產生嚴重危害。三是缺乏透明風險。目前谷歌、亞馬遜、微軟等公司已與醫療保健組織開展合作,開發應用于醫療保健領域的大模型,但若急于將缺乏完整理解和透明性的大模型用于醫療,將可能會影響專業人員的診斷,對患者造成損害。11 根據中華人民共和國個人信息保護法,醫療健康數據屬于敏感個人信息.確保人類確保人類監督和監督和決策案例:禁止人工智能替代醫師和生成處方決策案例:禁止人
31、工智能替代醫師和生成處方 2023 年 8 月,北京市衛生健康委發布北京市互聯網診療監管實施辦法(試行)(征求意見稿),明確人工智能軟件不得代替醫師提供診療,禁止使用人工智能等自動生成處方。人工智能倫理治理研究報告(2023 年)12 三、人工智能倫理治理實踐 人工智能成為各國科技發展的重要戰略,各國通過倫理規范明確人工智能技術研發和應用的基本倫理要求,加強全球人工智能倫理治理合作,構建人工智能有序發展的治理機制。全球科技倫理治理主要包括全球合作下的共識性人工智能倫理原則,各國因地制宜的人工智能倫理規范、指南、工具等,并關注增進人類福祉、可持續發展、保護隱私、防止和減少偏見等。(一)國際組織(
32、一)國際組織人人工智能倫理工智能倫理治理治理方案方案 人工智能技術應用可能對人類社會產生廣泛負面影響,成為全球面臨的共同風險。國際社會正加緊推進人工智能倫理治理領域的合作。在人工智能倫理共識性原則層面,聯合國教科文組織 193 個成員國于 2021 年 11 月達成人工智能倫理問題建議書,提出“將倫理視為對人工智能技術進行規范性評估和指導的動態基礎,以人的尊嚴、福祉和防止損害為導向,并立足科技倫理”的要求;明確尊重、保護和促進人的權利、基本自由、人的尊嚴,環境和生態系統發展,確保多樣性和包容性,生活在和平、公正的互聯網社會中,4 項人工智能價值觀;確立 10 項人工智能原則;并提出人工智能倫理
33、治理的 11 項政策建議。同時,ISO、IEC、IEEE、ITU 等國際標準化組織積極推動以人工智能技術為代表的科技倫理標準研制,如 2022 年 8 月 ISO/IEC發布人工智能倫理和社會問題概述標準(ISO/IEC TR 24368)。在人工智能具體應用領域的倫理規范層面,世界衛生組織于 2021 年 6 月發布衛生健康領域人工智能倫理與治理指南,分析在衛生健康領人工智能倫理治理研究報告(2023 年)13 域使用人工智能的機遇和挑戰,并提出在醫療領域使用人工智能的倫理政策和確保人工智能為所有國家的公共利益服務的 6 項原則。目前,人工智能倫理已成為全球人工智能治理討論的重要議題,以人為
34、本、公平公正等人工智能倫理原則在國際合作機制中不斷深化。在聯合國層面,2023 年 5 月 25 日,聯合國發布我們的共同議程政策簡報 5“全球數字契約為所有人創造開放、自由、安全的數字未來”。2023 年 10 月 26 日,聯合國高級別人工智能咨詢機構成立,就人工智能可能產生的偏見歧視等關鍵問題開展討論。12 月,該咨詢機構發布臨時報告以人為本的人工智能治理,將包容性、公共利益等倫理原則作為設立人工智能國際治理機構的指導原則。在區域合作層面,2023 年 8 月,金磚國家領導人第十五次會晤上同意盡快啟動人工智能研究組工作,推動有廣泛共識的治理框架和標準規范,不斷提升人工智能技術的安全性、可
35、靠性、可控性、公平性。2023 年 9月,二十國集團(G20)發布G20 新德里領導人宣言,提出“負責任地使用人工智能以造福全人類”。(二)域外國家和地區(二)域外國家和地區人工智能人工智能倫理治理倫理治理機制機制 為協調人工智能技術發展與風險防范,各國政府制定符合其人工智能治理理念、與技術發展情況相適應的宏觀規劃,并通過頒布人工智能倫理原則、指南、工具包等指導行業實踐。其中,既有以美國為代表的以面向市場和創新為導向的監管模式,也有以歐盟為代表的積極介入模式。本部分主要介紹美國、歐盟、德國、新加坡在人工智能倫理治理領域的實踐。人工智能倫理治理研究報告(2023 年)14 1.美國發展以鼓勵創新
36、為基礎的可信賴人工智能 美國長期將人工智能視作其保持全球競爭優勢的重要技術,并在近年來關注可信賴人工智能建設,在聯邦政府層面規劃和具體事務層面制定相應政策,但目前仍然缺乏以人工智能為規制對象的具有約束力的法律規范。在行政規劃層面,2023 年 10 月,美國總統拜登發布關于安全、可靠、可信賴地開發和使用人工智能行政令,明確進行負責任人工智能技術開發,提出安全可靠、保障權利、隱私保護等倫理要求,并對各行政部門如何促進負責任人工智能技術開發和應用作出安排。此前,2022 年 5 月,拜登政府成立國家人工智能咨詢委員會,圍繞人工智能安全、防止和減少偏見等開展工作,推動負責任且具有包容性的人工智能技術
37、發展。白宮科技政策辦公室于 2020 年提出人工智能應用的監管原則,對政府機構是否監管以及如何監管人工智能提出 10 項原則,并強調公眾參與及機構間的協調;2022 年10 月發布人工智能權利法案藍圖,確定人工智能的 5 項原則以指導自動化系統的設計部署。同時,美國政府積極鼓勵行業自律,2023年 7 月和 9 月兩次推動包括 OpenAI、谷歌、微軟、英偉達等 15 家企業就開發避免偏見歧視、保護隱私的人工智能作出承諾。在具體領域,美國聯邦政府不同部門也依據主責主業發布相應的倫理原則和治理框架。2020 年,美國情報體系發布美國情報體系人工智能倫理原則,要求運用人工智能要遵守法律、確保安全、
38、客觀公正、透明負責等。2023年1月,美國商務部下屬美國國家標準與技術研究院(NIST)發布人工智能風險管理框架,細化開發部署負責任人工智能技術人工智能倫理治理研究報告(2023 年)15 的指南。2023 年 12 月,美國審計署發布報告,公布對聯邦 23 個機構負責任使用人工智能的情況評估。2.歐盟通過健全監管規制落地人工智能倫理要求 歐盟在數字時代積極探索對新技術、新業態的規制方式,著力推動以人工智能為對象的立法,將人工智能倫理原則轉化為規范要求,努力在人工智能治理方面保持全球影響力。在倫理框架方面,2019 年4 月,歐盟高級專家組發布可信人工智能倫理指南,提出可信人工智能的概念和 7
39、 項關鍵要求,包括保證人類監督、魯棒性和安全性、隱私和數據治理、透明度、多樣性、社會和環境福利、問責。在治理落地方面,2023 年 12 月,歐盟委員會、歐洲理事會、歐洲議會達成共識,就 人工智能法案 達成臨時協議,提出基于風險的監管方式,將人工智能系統帶來的挑戰分為不可接受的風險、高風險、有限風險、基本無風險四個級別,并形成對應的責任和監管機制。同時,針對通用人工智能提出具體義務要求,并強調以人為本、保證透明度等倫理價值要求。3.德國關注人工智能具體應用領域倫理風險規制 德國聯邦政府制定國家人工智能戰略,發展德國在智能制造領域的優勢,并積極推進人工智能算法、數據以及自動駕駛等領域倫理規制,強
40、調以人為本,發展負責任、以公共利益為導向的人工智能。在倫理治理機制方面,2018 年 9 月,德國聯邦政府成立數據道德委員會,從政府層面制定數字社會的倫理道德標準和建議。2023 年 11 月7日,德國聯邦教育和研究部更新人工智能行動計劃,提出采用適當、人工智能倫理治理研究報告(2023 年)16 靈活的人工智能治理,推動值得信賴的人工智能發揮作用。在治理落地方面,從數據、算法、自動駕駛應用領域進行分類規范。在數據領域,德國數據倫理委員會強調以人為本的價值導向,提出數據權利和數據義務的認定需要考量不同數據主體的權利、對數據的貢獻、公共利益等。在算法領域,德國數據倫理委員會將與人類決策相關的人工
41、智能系統劃分為基于算法的決策、算法驅動的決策和算法決定的決策三種類型,并提出人工智能算法風險導向型“監管金字塔”,將人工智能算法風險進行 1-5 級評級,對于評級為無潛在風險的人工智能算法不采取特殊監管措施,并逐級增加規范要求,包括監管審查、附加批準條件、動態監管以及完全禁止等措施。在自動駕駛領域,德國聯邦交通與數字基礎設施部推出全球首套自動駕駛倫理準則,提出了自動駕駛汽車的 20 項道德倫理準則,規定當自動駕駛車輛對于事故無可避免時,不得存在任何基于年齡、性別、種族、身體屬性或任何其他區別因素的歧視判斷,認為兩難決策不能被標準化和編程化。4.新加坡積極探索人工智能倫理治理技術工具 新加坡政府
42、通過發布“智慧國家”“數字政府藍圖”等國家政策從多維度提升人工智能發展與應用,著力推動社會數字轉型有利于人的發展。在政府規劃方面,自發布“智慧國家”政策以來,新加坡已有超過 20 個行政機構提交人工智能應用規劃。2023 年 12 月,新加坡發布國家人工智能戰略 2.0,提出人工智能服務公共利益的愿景,再次強調建立一個可信賴和負責任的人工智能生態。在工具方面,2022 年 5 月,新加坡通信媒體發展局和個人數據保護委員會發布 人人工智能倫理治理研究報告(2023 年)17 工智能治理評估框架和工具包,成為全球首個官方的人工智能檢測工具。該工具結合技術測試和流程檢查對人工智能技術進行驗證,并為開
43、發者、管理層和業務伙伴生成驗證報告,涵蓋人工智能系統的透明度、安全性及可歸責性等人工智能倫理要求,并積極吸收不同機構的測試建議,完善評估工具。2023 年 6 月,新加坡成立由政府、企業等組成的 AI Verify 基金會,以打造人工智能治理開源社區,為人工智能測試框架、代碼庫、標準和最佳實踐的使用和發展提供支持。(三)(三)我我國人工智能倫理治理國人工智能倫理治理實踐實踐 1.確立科技倫理治理體制機制 科技倫理是開展科學研究、技術開發等科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障。我國將科技倫理規范作為促進技術創新、推動社會經濟高質量發展的重要保障措施,并逐步完善科
44、技倫理治理頂層設計。2022 年 1 月 1 日起施行的中華人民共和國科學技術進步法第一百零三條從法律層面確認“國家建立科技倫理委員會,完善科技倫理制度規范”并明確禁止違背科技倫理的科學技術研究開發和應用活動,在第一百一十二條明確對違背倫理的活動需要承擔的法律責任。2022 年 3 月,中共中央辦公廳國務院辦公廳印發關于加強科技倫理治理的意見,提出強化底線思維和風險意識,明確科技倫理原則和科技倫理治理要求,提出加強科技倫理治理五項措施。2023 年 10 月 8日,科技部、教育部、工業和信息化部等十部門聯合發布科技倫理審查辦法(試行),對科技倫理審查的基本程序、標準、條件人工智能倫理治理研究報
45、告(2023 年)18 等提出要求,規范科學研究、技術開發等科技活動的科技倫理審查工作,要求從事人工智能等科技活動的單位設立科技倫理(審查)委員會??萍紓惱韺彶檗k法(試行)將對人類主觀行為、心理情緒和生命健康等具有較強影響的人機融合系統的研發,具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統的研發,面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統的研發等 7 項科技活動列入需要開展倫理審查復核的清單。2.細化人工智能倫理要求 我國人工智能倫理治理歷經發展規劃的認可、倫理原則的確立和倫理規范的細化。2017 年國務院印發新一代人工智能發展規劃,指出人工智能發展的
46、不確定性帶來挑戰,影響涵蓋就業、法律與倫理、個人隱私、國際關系等,必須高度重視人工智能可能帶來的挑戰,提出到 2025 年初步建立人工智能倫理規范,并結合法律法規和政策體系,共同促進人工智能安全評估和管控能力,提出建立倫理道德多層次判斷結構、人機協作的倫理框架、人工智能產品研發人員道德規范和行為守則、人工智能潛在危害與收益的評估、復雜場景下突發事件解決方案等,并重視國際合作的重要性。2019 年 2 月,國家新一代人工智能治理專業委員會成立,成員涵蓋高校、研究院所和企業專家,著力推動產學研在人工智能治理方面的合作。2019 年 6 月,國家新一代人工智能治理專業委員會發布 新一代人工智能治理原
47、則發展負責任的人工智能,提出了人工智能治理的框架和行動指南,提出人工智能倫理治理研究報告(2023 年)19 人工智能發展相關各方需要遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷協作的原則。2021 年9 月,國家新一代人工智能治理專業委員會發布新一代人工智能倫理規范,提出人工智能活動的倫理規范包含管理規范、研發規范、供應規范、使用規范,細化 18 項具體倫理要求。同時,行業主管部門推動人工智能應用領域的倫理規范指引建設,發布實施意見、牽頭制定行業標準等,明確具體領域倫理標準和細化措施,促進行業人工智能治理體系的完善。2022 年 10 月,中國人民銀行發布金
48、融領域科技倫理指引行業標準,提出在金融領域開展科技活動需要遵循守正創新、數據安全、包容普惠、公開透明、公平競爭、風險防控、綠色低碳等 7 個方面的價值理念和行為規范。2023年 4 月,工業和信息化部成立工業和信息化部科技倫理委員會、工業和信息化領域科技倫理專家委員會,關注人工智能等重點領域的科技倫理治理,提出從加強科技倫理審查和監管,組織制定重點領域科技倫理審查規范和標準,開展重點領域科技倫理敏捷治理,強化科技倫理管理培訓和宣傳教育,加強人才隊伍建設等方面提升倫理治理能力。3.行業積極探索人工智能倫理治理落地措施 人工智能產業主體作為人工智能倫理管理責任主體,承擔著人工智能向善發展的重要責任
49、。在行業層面,行業組織積極推動人工智能倫理原則落地,包括中國人工智能產業聯盟等開展人工智能倫理技術和管理標準制定、監測認證、典型案例分析匯編等,關注實現人工智能系統可解釋性、隱私保護、公平等技術實施路徑,促進人工智能應人工智能倫理治理研究報告(2023 年)20 用相關行業倫理規范的提升。在企業層面,多家企業積極落實人工智能倫理管理要求,包括建立科技倫理委員會、人工智能倫理委員會等內部機構;加強企業人工智能科技倫理管理機制的完善;加強外部多學科合作,通過引入法學、哲學、管理學、人工智能技術等多個方面的外部專家,提升人工智能倫理治理的外部監督;定期發布企業人工智能倫理治理情況與研究,增強公眾溝通
50、;積極探索人工智能倫理問題技術解決方案,通過技術創新和技術能力升級提升個人隱私的保護力度、算法可解釋性、模型可靠性等。4.積極參與人工智能倫理治理國際合作 近年來,我國不僅在人工智能技術研發應用領域加強技術創新合作,也積極參與全球人工智能倫理治理。2023 年 8 月,在金磚國家領導人第十五次會晤上,金磚國家已同意盡快啟動人工智能研究組工作,拓展人工智能合作,形成具有廣泛共識的人工智能治理框架和標準規范,提升人工智能技術的安全性、可靠性、可控性、公平性。2023 年10 月,我國發布全球人工智能治理倡議,圍繞人工智能發展、安全、治理三方面系統闡述了人工智能治理中國方案,提出堅持倫理先行的原則,
51、提出建立并完善人工智能倫理準則、規范及問責機制。同時,我國專家也積極參與聯合國、世界衛生組織等國際機構的人工智能倫理規則構建。2023 年 10 月,我國兩位專家入選聯合國高級別人工智能治理機構,積極參與聯合國層面的人工智能治理討論,提出全球人工智能治理建議。人工智能倫理治理研究報告(2023 年)21 四、人工智能倫理治理展望(一)(一)協調人工智能協調人工智能產業創新產業創新發展發展與倫理治理與倫理治理 人工智能倫理治理需要關注產業科技創新活動與倫理風險防范協調發展,通過倫理治理對人工智能可能存在的風險進行全生命周期的指導,促進人工智能朝著有利于人類發展、尊重和保障各群體權益的方向發展。重
52、視人工智能技術創新。堅持促進創新與防范風險相統一,鼓勵人工智能基礎技術創新和突破,發展人工智能芯片、數據、算法等基礎核心技術,加強人工智能治理產品開發,以人工智能技術防范人工智能風險。探索建立敏捷的人工智能倫理治理機制。建設快速響應、創新主體與相關政府部門有效溝通的治理合作,增強科技倫理治理的有效性和科學性,推動產業創新與倫理風險防范相協調。(二)完善人工智能倫理治理(二)完善人工智能倫理治理舉措舉措 1.健全多學科多主體合作的治理體系 形成多學科共建的人工智能治理合力。人工智能倫理治理是多學科合作的治理實踐,要推動技術發展、政策引導、管理規范、倫理研究、法律規制等一系列專業知識的交流配合,實
53、現人工智能倫理治理落地。建立多主體參與的人工智能治理生態。人工智能倫理治理是監管主體、創新主體、公眾和其他利益相關協同合作的多元治理。人工智能倫理治理需要監管主體完善審查監管規范,制定可預期的人工智能倫理研發、應用倫理規范。人工智能創新主體需要履行科技倫理管理主體責任,建立科技倫理日常管理機制,及時化解新技術帶來的風險,將人工智能倫理風險在源頭予以防范。公眾可以提升倫理素養,人工智能倫理治理研究報告(2023 年)22 對可能影響個人思維、生活的人工智能技術應用進行了解,并反饋發現的人工智能倫理問題。2.建立分類分級倫理治理機制 根據人工智能倫理治理原則和目標識別人工智能應用的倫理風險。以增進
54、人類福祉、尊重生命權利、公平公正、公開透明、控制風險等人工智能倫理原則要求為基礎,對人工智能從技術研發到部署應用進行全生命的風險識別,并根據技術和產品發展及時進行更新調整。根據人工智能倫理風險大小和影響范圍確定責任義務和監管規則。對于基本不具有倫理影響的人工智能技術應用,簡化監管程序,鼓勵技術創新和發展;對于具有一定倫理影響的人工智能技術,設定倫理要求,建立風險評估機制,明確責任;對于具有長期且廣泛影響的人工智能高風險應用領域,加大監管力度,通過多種監管手段防范倫理風險;對于具有不可接受倫理影響的人工智能應用,考慮禁止部署。3.推動人工智能倫理治理技術化、工程化、標準化 支持人工智能倫理治理工
55、程化和技術化。將人工智能倫理原則轉化為工程問題,用技術工具推動倫理原則落地,以人工智能技術應對人工智能風險。積極發展人工智能產品倫理風險評估監測工具,推動應對人工智能偏見歧視、隱私泄露、不可解釋等倫理風險的技術工具研發。研制人工智能倫理治理有關標準。研制關于人工智能公平性、透明性、可解釋性等技術指標的國際標準、團體標準、行業標準,發揮標準引領性作用,形成人工智能倫理治理經驗示范。人工智能倫理治理研究報告(2023 年)23(三三)提升提升各主體各主體人工智能人工智能倫理倫理風險應對風險應對能力能力 符合人工智能倫理的開發和應用實踐有賴于研發、設計、應用人員承擔起個人責任,也需要公眾加強對人工智
56、能倫理風險的認知及負責任使用。支持高校開設科技倫理課程引導學生和科技工作者提升人工智能倫理素養。通過必修課、選修課等課程設置提升學生科技倫理素養,特別是加強人工智能相關專業人員倫理知識,并為倫理學、法學等專業學生提供人工智能通識課程,形成人工智能倫理學習研討氛圍。要求企業持續推進員工人工智能倫理培訓。將開展面向員工的科技倫理培訓作為企業落實科技倫理管理主體責任的必要環節,特別關注技術研發、產品開發等員工培訓,加強入職培訓和日常的倫理宣傳。引導行業加強科技倫理自律與合作。推動聯盟等行業平臺促進人工智能倫理治理合作,引導制定行業自律舉措,形成人工智能行業、典型應用領域等的倫理實踐指南。鼓勵企業將科
57、技倫理經驗和工具向產業鏈上下游企業、中小企業進行分享,提升行業倫理管理能力。支持科技類社團和行業平臺開展政策解讀、座談交流等,加強人工智能等重點領域科技倫理教育宣傳培訓。加強面向社會公眾的科技倫理教育。引導社會公眾認識科技風險,倡導合理正確使用生成式人工智能等技術工具。通過小說、影視劇、短視頻等多種形式普及科技倫理知識,推動科技倫理問題討論,形成全社會尊重科技倫理的氛圍。(四四)加強人工智能倫理治理加強人工智能倫理治理國際交流國際交流合作合作 人工智能技術具有全球性、時代性,人工智能倫理治理是全球科技治理的重要組成部分,也已成為復雜國際競爭環境中各國合作的重人工智能倫理治理研究報告(2023
58、年)24 要切入點。積極參與全球科技倫理治理雙多邊合作。積極參與聯合國等多邊機構的人工智能倫理治理交流合作,推動科技倫理治理國際共識、國際標準的研討制定。加強區域性科技倫理治理合作,加強與有關國家的科技倫理治理交流,深化科技倫理治理經驗分享與合作。鼓勵國內企業和專家學者參與國際人工智能倫理治理交流合作。鼓勵產業界積極分享國內人工智能倫理治理實踐,推動學術界與研究機構加強與域外機構對人工智能倫理治理議題的深入研討,形成全球人工智能倫理治理合作生態。中國信息通信研究院中國信息通信研究院 知識產權與創新發展中心知識產權與創新發展中心 地址:北京市海淀區花園北路地址:北京市海淀區花園北路 52 號號 郵編:郵編:100191 電話:電話:010-62304212 傳真:傳真:010-62304101 網址:網址: