《騰訊研究院:智能時代的技術倫理觀—重塑數字社會的信任(30頁).pdf》由會員分享,可在線閱讀,更多相關《騰訊研究院:智能時代的技術倫理觀—重塑數字社會的信任(30頁).pdf(30頁珍藏版)》請在三個皮匠報告上搜索。
1、 智能時代的技術倫理觀重塑數字 社會的信任 騰訊研究院騰訊研究院 騰訊騰訊 A AI LI Labab 2019 年 6 月 執行摘要執行摘要 隨著人工智能的發展應用,智能時代的大幕正在拉開,無處不在 的數據和算法正在催生一種新型的人工智能驅動的經濟和社會形式。 與此同時,隱私保護、虛假信息、網絡安全、網絡犯罪、電子產品過 度使用等問題成為全球關注焦點。 旨在對科技行業的狹隘的技術向度 和利益局限進行糾偏和矯正的人工智能倫理開始從幕后走到前臺, 正 如華裔 AI 科學家李飛飛所言,要讓倫理成為人工智能研究與發展的 根本組成部分。在此背景下,從政府到行業再到學術界,全球掀起了 一股探索制定人工智
2、能倫理原則的熱潮,歐盟、德國、英國、OECD、 G20、IEEE、谷歌、微軟等諸多主體從各自的角度提出了相應的人工 智能倫理原則,共同促進 AI 知識的共享和可信 AI 的構建。要言之, 各界已經基本達成共識, 人工智能的發展離不開對倫理的思考和倫理 保障。 從最早的計算機到后來的信息再到如今的數據和算法, 伴隨著技 術倫理的關注焦點的轉變,技術倫理正在邁向一個新的階段。為此, 我們提出新的技術倫理,探索技術、個人、社會三者之間的平衡。包 含三個層面: 技術信任, 人工智能等新技術需要價值引導, 做到可用、 可靠、可知、可控( “四可” ) ;個體幸福,確保人人都有追求數字福 祉、 幸福工作的
3、權利, 在人機共生的智能社會實現個體更自由、 智慧、 幸福的發展; 社會可持續, 踐行 “科技向善” , 發揮好人工智能等新技 術的巨大“向善”潛力,善用技術塑造健康包容可持續的智慧社會。 目錄目錄 引言:智能時代迫切需要面向數據和算法的技術倫理 . 1 (一)人工智能引領第四次工業革命加速變革經濟社會 . 1 (二)人工智能的潛力和價值巨大,但也帶來需要積極應對的問題和挑戰 . 2 (三)各界高度重視人工智能倫理,多舉措促進新技術健康發展 . 4 (四)探索智能時代的技術倫理觀:信任、幸福與可持續 . 8 一、信任(trust) :人工智能需要價值引導 . 10 (一)以人工智能“四可”原則
4、促進人工智能信任 . 12 (二)構建塑造人工智能信任的規則體系 . 16 二、幸福(happiness) :智能社會人機共生 . 19 (一)人人都有追求數字福祉的權利. 19 (二)人人都有幸福工作的權利 . 21 三、可持續(sustainability) :踐行“科技向善”,塑造健康包容可持續的智慧社會 . 23 結論:以智能時代的技術倫理重塑數字社會的信任 . 25 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 1 引言:智能時代迫切需要面向數據和算法的技術倫理引言:智能時代迫切需要面向數據和算法的技術倫理 (一)(一)人工智能人工智能引領第四次工業革命加速變革經濟社會引
5、領第四次工業革命加速變革經濟社會 互聯網的前三十年,是一個連接一切的故事,從連接人到連接商 業再到連接萬事萬物, 互聯網技術以前所未有的速度和規模改變著人 類和人類社會。 截至 2019 年 3 月 31 日, 全球網民規模達到 43.8 億, 占世界總人口 56.8%。中國以逾 8 億網民規模成為全球最大互聯網市 場,個人應用、產業應用、政府應用等各類互聯網應用蓬勃發展,為 人們創造著效率和便利。連接帶來的創新,提升了個體生活,促進了 經濟發展與社會進步。在這一發展過程中,互聯網行業始終引領創新 發展的浪潮。 再者, 人工智能 (包括未來可能出現的強人工智能和超人工智能) 、 機器人、大數據
6、、物聯網、區塊鏈、云計算、虛擬現實、基因編輯、 腦機接口、 3D 打印等新技術集群加速涌現和發展, 有望引領第四次工 業革命。尤其是人工智能,有望像歷史上的火種和電力一樣,重塑人 類生活和人類社會的未來加速的自動化和智能化, 無處不在的連 接,物理與數字世界的融合,甚至人類與技術的融合。我們正在步入 高度依賴技術的社會,生物層、物理層、技術層有可能融合成為三位 一體。未來,包括企業在內的所有組織機構都會數字化、智能化。 智能時代的大幕正在拉開,在其中,無處不在的數據和算法正在 催生一種新型的人工智能驅動的經濟和社會形式。 人們常以 “數據化” 騰訊研究院 X 騰訊 AI Lab 智能時代的技術
7、倫理觀 2 “智能化” “算法決定論” 等詞匯描述這一趨勢, 但核心都是一樣: 人 工智能算法正在改變這個世界。 比如, 算法已在決定向你展示的廣告、 新聞資訊等數字內容,可以評估你能否得到面試機會、獲得貸款、拿 到救助金等,還能預測犯罪、犯罪人的危險性等。當然,人工智能的 應用并不局限于這些方面?;诖罅康臄祿?,人工智能有潛力做出比 人類更優的預測和決策,比如自動駕駛有望比人類駕駛更安全,智能 醫療影像診斷比醫生的診斷結果更準確, 智能語音識別的出錯率也比 速記員更低。人工智能是一項通用技術,只要有數據,就有望普遍應 用于各行各業,進而提高生產力并促進經濟增長。 (二)(二)人工智能人工智能
8、的潛力和價值巨大,的潛力和價值巨大,但也帶來需要積極應對但也帶來需要積極應對 的問題和挑戰的問題和挑戰 以人工智能為代表的這一輪新技術無疑擁有巨大的潛力和價值, 值得在研發和應用上持續投入, 但任何有望變革人類社會的新技術都 必然會帶來社會倫理影響。例如,互聯網技術帶來的用戶隱私、虛假 信息、 算法 “黑盒” 、 網絡犯罪、 電子產品過度使用等問題已經成為全 球關注焦點,引發全球范圍內對互聯網技術及其影響的反思和討論, 探索如何讓新技術帶來個人和社會福祉的最大化。 此外, 2018 年底發 生的基因編輯嬰兒事件在國內外引發激烈的倫理爭議。 人工智能也是 如此,其在隱私、歧視、安全、責任、就業等
9、經濟、倫理和社會方面 的問題正在顯現。 未來可能出現的通用人工智能和超級人工智能則可 能帶來更深遠而廣泛的安全、倫理等影響。 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 3 隱私方面,Facebook-劍橋分析數據丑聞引爆了社會對數據的泄 露、不正當二次利用、濫用等問題的擔憂,而這些問題已是現今互聯 網用戶普遍面臨的問題很多應用軟件會過度收集非必需的用戶 數據、冗長的“用戶須知”或“使用協議”誘導用戶授權廠商過度使 用甚至出售用戶數據等。此外,不法分子利用人工智能技術,可以非 法竊取、識別個人信息,甚至影響、操縱用戶行為和認知。 歧視方面, “大數據殺熟”成為 2018 年度社會
10、生活類十大流行語 之一,反映了人們對算法歧視的擔憂,滴滴、攜程、飛豬等都被質疑 大數據殺熟。此外,語音識別、人臉識別、精準廣告工具等算法應用 都可能存在偏見和歧視,甚至還曾引發了訴訟。 安全方面, 自動駕駛汽車的安全問題尤其引人關注: Uber 的自動 駕駛汽車在測試過程中撞死行人、 特斯拉的 Autopilot 系統在運行過 程中造成致命事故。 人工智能在事關健康安全的醫療領域也出現過問 題,比如 IBM 的“沃森醫生”給出過“不安全且錯誤”的癌癥治療建 議。除了人工智能系統本身可能不完善的問題,人工智能還面臨著被 外部攻擊風險, 比如圖像識別和語音識別技術的對抗攻擊問題一直都 是相關應用頭
11、頂上的一片烏云, 自動駕駛汽車和智能家居等連接網絡 的物理設備也存在被網絡遠程干擾或操控的風險。此外,人工智能還 可能被用作攻擊手段比如用于生成虛假視頻和圖像(所謂的 deepfake 即深度偽造) ,生產和傳播假新聞,甚至被用于攻擊人工智 能系統。 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 4 責任方面,人工智能算法由于可能存在不透明、不可理解、不可 解釋等特性,在事故責任認定和分配上也存在有待討論的法律難題, 比如由于行人橫穿公路而造成交通事故時自動駕駛汽車運營方是否 應該承擔責任、 智能監控攝像頭廠商是否應該為攝像頭被網絡攻擊的 問題負責。 就業方面, 人工智能可能造成大
12、規模失業的風險一直備受社會關 注, 甚至有人認為人工智能的普及將會在人類社會中產生一批史無前 例的“無用階層” ;但同時也有人認為,與過去的蒸汽機和計算機等 技術一樣, 新技術在奪走一部分工作崗位的同時也會創造更多更好的 新型工作崗位。所以,人工智能對勞動力市場的長遠影響究竟是積極 的、消極的還是中立的,目前還很難預測。盡管如此,已經有一些政 府機構和研究者在思考和探索潛在的解決方案了, 比如全民基本收入 以及教育改革等。 (三)各界高度重視人工智能倫理,多舉措促進新技術健康(三)各界高度重視人工智能倫理,多舉措促進新技術健康 發展發展 總體來看, 我們現在就有必要對人工智能等新技術進行更多的
13、人 文和倫理思考,正如華裔 AI 科學家李飛飛所言,要讓倫理成為人工 智能研究與發展的根本組成部分。因為正如基辛格所言,面對人工智 能的興起,人們在哲學、倫理、法律、制度、理智等各方面都還沒做 好準備,因為人工智能等技術變革正在沖擊既有的世界秩序,我們卻 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 5 無法完全預料這些技術的影響, 而且這些技術可能最終會導致我們的 世界所依賴的各種機器為數據和算法所驅動且不受倫理或哲學規范 約束。 顯然,在當前的人工智能等新技術背景下,我們比歷史上任何時 候都更加需要“科技向善”理念,更加需要技術與倫理的平衡,以便 確保新技術朝著更加有利于人類和
14、人類社會的方向發展。一方面,技 術意味著速度和效率, 要發揮好技術的無限潛力, 善用技術追求效率, 創造社會和經濟效益。另一方面,人性意味著深度和價值,要追求人 性,維護人類價值和自我實現,避免技術發展和應用突破人類倫理底 線。因此,只有保持警醒和敬畏,在以效率為準繩的“技術算法”和 以倫理為準繩的 “人性算法” 之間實現平衡, 才能確保 “科技向善” 。 因此, 對倫理的強調和重視成為了當前人工智能領域的一大主旋 律, 社會各界紛紛制定相應的倫理準則或框架。 例如, 德國于 2017 年 為自動駕駛汽車提出了 20 條倫理原則。英國已經成立了數據倫理中 心, 視倫理為人工智能創新的核心之一并
15、考慮制定普適的人工智能倫 理框架。 歐盟人工智能戰略的三大支柱之一即是確保歐盟具有與人工 智能發展和應用相適應的法律和倫理框架, 為此歐盟委員會已經起草 人工智能倫理指南。 中國的人工智能頂層政策要求制定促進人工智能 發展的法律法規和倫理規范。美國、加拿大、新加坡、印度、法國、 意大利等國家和地區都有類似的規劃或政策。在國際層面,2019 年 5 月 22 日,OECD 成員國批準了人工智能原則即負責任地管理可信賴 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 6 的 AI 的原則 ,該倫理原則總共有五項,包括包容性增長、可持續發 展和福祉,以人為本的價值和公平,透明性和可解釋,穩
16、健性和安全 可靠, 以及責任。 2019 年 6 月 9 日, G20 批準了以人為本的 AI 原則, 主要內容來源于 OECD 人工智能原則, 相當于為 OECD 人工智能原則背 書。 這是首個由各國政府簽署的 AI 原則, 有望成為今后的國際標準, 旨在以兼具實用性和靈活性的標準和敏捷靈活的治理方式推動人工 智能發展。 以歐盟為例, 2019 年 4 月歐盟發布 可信 AI 倫理指南 (Ethics Guidelines for Trustworthy AI,以下稱“倫理指南”) ,提出了可 信 AI 框架,包含三個層次:一是可信 AI 的根基,從基本權利(尊重 人類尊嚴, 個體自由, 尊
17、重民主、 正義和法治, 平等、 非歧視和團結, 公民權利)出發,提出 AI 必須遵循的四個倫理原則,即 AI 必須尊重 人類自主性, 必須防止造成損害或者不利地影響人類, 必須確保公平, 必須透明(針對 AI 的能力和目的) 、可解釋(針對 AI 作出的決定) 。 二是可信 AI 的實現,從七項關鍵要求來衡量 AI 是否可信,即人類能 動性和監督,技術穩健性和安全(包括安全能經受攻擊,后備計劃和 一般安全, 準確性, 可靠性和再生性) , 隱私和數據治理 (包括尊重隱 私,數據質量和完整,數據訪問) ,透明性(包括可追溯,可解釋,信 息透明) , 多樣性、 非歧視和公平 (包括避免不公平的偏見
18、, 普遍可用 的設計, 利益攸關方的參與) , 社會和環境福祉, 問責 (包括可審計, 負面影響最小化及報告,權衡和救濟) 。三是可信 AI 的評估,基于前 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 7 述 7 項關鍵要求, 倫理指南提出了試點性的可信 AI 評估清單。評 估清單的目的在于為具體落實這些關鍵要求提供指引, 幫助公司或組 織內不同層級如管理層、法務部門、研發部門、質量控制部門、HR、 采購、日常運營等共同確??尚?AI 的實現。歐盟委員會鼓勵所有利 益攸關方落實這七項關鍵要求。 在業內,電氣電子工程師學會(IEEE)已在推進制定人工智能倫 理標準(即 IEEE P
19、7000 系列標準)和認證框架,AI 白皮書合倫理 設計 (Ethically Aligned Design)提出了八項基本原則。谷歌、 微軟、 Facebook、 DeepMind 等科技公司也多舉措推進人工智能倫理研 究,包括發起成立行業組織(比如 Partnership on AI) 、成立倫理部 門(比如 DeepMind 的倫理與社會部門,谷歌和微軟的倫理委員會) 、 提出人工智能倫理原則(比如谷歌的 7 條正面原則,包括 AI 應對社 會有益,AI 應避免造成或加劇不公平歧視,AI 應安全可靠,AI 應對 人們負責,AI 應融入隱私設計原則,AI 應維持高標準的學術卓越, AI應按
20、照這些原則來使用; 以及4條底線涉及谷歌不從事的AI應用, 包括可能造成普遍傷害的技術, 造成或直接促成人員傷亡的武器或其 他技術, 違反國際準則的監控技術, 與國家法和人權原則相悖的技術。 微軟的六大人工智能原則, 公平: AI系統應公平對待每一個人, 可靠: AI 系統應可靠、安全地運行,隱私安全:AI 系統應是安全的并尊重 隱私,包容:AI 系統應賦能每一個人并讓人們參與,透明:AI 系統 應是可以理解的,責任:設計、應用 AI 系統的人應對其系統的運行 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 8 負責) 。 要言之,各界已經基本達成共識,人工智能的發展離不開對倫理 的
21、思考和倫理保障,以讓人工智能的發展和應用能夠遵循負責任的、 安全的、普惠的實踐道路。因為我們正處在一個正在實現數據化和智 能化的時代,所以當前強調的技術倫理主要面向數據和算法。在計算 機與信息技術的發展史上,技術倫理經歷了三次重大轉變,每個階段 都有其特殊的倫理問題并產生了相應的法律規制。 第一階段的關注焦 點是計算機,各國圍繞計算機的安全、犯罪、欺詐、濫用等問題制定 了一系列法律,這個階段的典型立法包括美國 1984 年的計算機欺 詐與濫用法案等?;ヂ摼W興起之后,技術倫理發展到第二階段,信 息大爆炸趨勢下,信息成為關注焦點,法律規制圍繞信息的隱私、保 護、 傳播、 濫用等問題展開, 這個階段
22、的立法包括歐盟 1995 年的 個 人數據保護指令 、美國 1996 年的通信規范法等。當前,技術倫 理已經發展到了第三階段, 作為關注焦點的數據和人工智能算法帶來 新的倫理問題,預計將出現一系列人工智能法律,例如,歐盟的 GDPR 已經針對人工智能應用作出了一些制度安排,歐盟議會發布的算法 責任與透明治理框架則在考慮建立算法治理框架。 (四)探索智能時代的技術倫理觀:信任、幸福與(四)探索智能時代的技術倫理觀:信任、幸福與可持續可持續 在人工智能倫理方面, 騰訊公司董事會主席兼首席執行官馬化騰 在上?!?018 世界人工智能大會”上發表演講時指出,我們需要充分 騰訊研究院 X 騰訊 AI L
23、ab 智能時代的技術倫理觀 9 考慮未來人工智能發展可能帶來的社會影響, 并從問題的角度思考未 來人工智能如何做到可用、可靠、可知、可控。2019 年 3 月,馬化騰 以全國人大代表的身份向全國人大提交建議案 關于加強科技倫理建 設 踐行科技向善理念的建議 。馬化騰認為,科技倫理是創新驅動發 展戰略、數字中國建設、數字時代商業競爭的重要保障。他呼吁在全 社會、 全行業積極倡導 “科技向善”“負責任創新”“創新與倫理并重” 等理念。并建議加強科技倫理的制度化建設,針對相關新技術制定倫 理準則并積極參與、推動新技術領域的全球治理;加快研究數據、人 工智能、基因編輯等新興技術領域的法律規則問題;加強
24、科技倫理的 教育宣傳并鼓勵全社會踐行“科技向善”理念。他在接受媒體采訪時 表示,對于個人數據利用與隱私保護、個性化推薦算法的規制、AI、 基因編輯等科技倫理、機器人的責任等前沿熱點問題,需要公眾、學 界、業界、監管部門等社會各界積極進行交叉學科、跨界的研究和研 討,但對前沿技術的治理需要避免兩個極端:放任不管和過早過度監 管。 以此為基礎,在新的發展階段,我們提出新的技術倫理 (technology ethics) ,探索技術、個人、社會三者之間的平衡。就 AI 技術自身而言,AI 需要價值引導,應做到可用、可靠、可知、可 控,從而讓人們可以信任 AI,讓 AI 可以給個人和社會創造價值。就
25、AI 與個人之關系而言, 幸福是人生的終極目的, 需要構建和諧的人機 關系, 保障個人的數字福祉和幸福工作權利,實現智能社會人機共生, 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 10 讓個體更自由、 智慧、 幸福地生活和發展。 就 AI 與社會之關系而言, AI 可以成為一股“向善”的力量,發揮出巨大的“向善”潛力,應當 鼓勵社會各界踐行 “科技向善” , 助力經濟社會健康包容可持續發展。 一、信任(一、信任(trusttrust) :) :人工智能人工智能需要價值引導需要價值引導 如前所述,互聯網在過去二十多年中持續帶來的問題,連同最近 的人工智能等新技術帶來的倫理和社會影響
26、, 歸根結底是技術信任方 面的挑戰。在人類的交往活動中,社會習俗、倫理道德、法律規范等 構建起來的信任機制,構成人類合作、交易及表達不同意見的基礎, 可以讓我們信任陌生人和陌生事物。 我們常常將自己及至親的生命財 產安全托付給陌生人(比如乘坐公共交通工具以及將錢存入銀行) , 正是由于這一社會信任機制的存在,而非相信“人性本善”。 那么, 如何讓人們同等地信任人工智能呢?現在人們無法完全信 任人工智能,一方面是因為人們缺乏足夠信息,對這些與我們的生活 和生產息息相關的技術發展缺少足夠的了解; 另一方面是因為人們缺 乏預見能力,既無法預料企業會拿自己的數據做什么,也無法預測人 工智能系統的行為。
27、此外,AI 本身不夠可靠、AI 的可解釋性不夠、 AI 提供商不值得信任等也是造成人們不信任 AI 的主要理由。所以, 當前迫切需要塑造包括 AI 信任在內的數字信任,一般認為,數字信 任體現在四個維度:一是安全的維度,產品服務安全可靠,包括網絡 安全、個人隱私安全等;二是透明的維度,保障用戶的參與和知情; 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 11 三是責任的維度,確保相關主體負責任地提供產品服務,并為其行為 承擔責任;四是倫理的維度,秉持正確的價值觀,不作惡。 就 AI 而言,雖然技術自身沒有道德、倫理的品質,但是開發、 使用技術的人會賦予其倫理價值, 因為基于數據做決
28、策的軟件是人設 計的,他們設計模型、選擇數據并賦予數據意義,從而影響我們的行 為。所以,這些代碼并非價值中立,其中包括了太多關于我們的現在 和未來的決定。而在技術與社會生態系統互動的過程中,技術發展常 常具有環境的、社會的和人類的影響,這些影響遠遠超過了技術設備 和實踐自身的直接目的。因此,我們需要構建能夠讓社會公眾信任人 工智能等新技術的規制體系,讓技術接受價值引導。 作為建立技術信任的起點,我們認為,人工智能等新技術的發展 和應用需要遵循倫理原則。為此,秉持“負責任研究與創新” (responsible research and innovation) 、 “科技向善”等理念, 我們進一步
29、闡述“四可”原則, 用以引導負責任地發展和應用工智能 技術, 使其可以造福于人類和人類社會。 并將 “四可” 翻譯為 “ARCC” (available, reliable, comprehensible, controllable, 即 ARCC, 讀作 ark) 。 正如傳說中保存人類文明火種的諾亞方舟, 人工智能的健 康發展需要以“倫理方舟”為保障,確保將來友好、和諧、共生的人 機關系。 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 12 (一)以人工智能“四可”原則促進人工智能信任(一)以人工智能“四可”原則促進人工智能信任 第一,可用(第一,可用(availableava
30、ilable) 。) 。 發展人工智能的首要目的, 是促進人類發展, 給人類和人類社會發展人工智能的首要目的, 是促進人類發展, 給人類和人類社會 帶來福祉,實現包容帶來福祉,實現包容、普惠和可持續發展、普惠和可持續發展。為此,需要讓盡可能多的。為此,需要讓盡可能多的 人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現技人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現技 術鴻溝。術鴻溝。 可用性,一方面意味著人工智能的發展應遵循以人為本的理念, 尊重人的尊嚴、權利和自由以及文化多樣性,讓技術真正能夠為人們 所用,給人們帶來價值。另一方面意味著人工智能與人類之間不是非 此即彼的
31、取代關系,而是可以成為人類的好幫手,增強人的智慧和創 造力,實現和諧的人機關系。此外,可用性還意味著包容性,要求技 術賦能于人,尤其是殘障人士等弱勢群體及少數族裔。 確保公平正義,防止偏見和歧視,是可用性的一個基本要求。這 意味著人工智能應公平、 平等地對待每一個人, 避免造成不公平歧視, 加劇或者固化社會不公平。 一方面, 應踐行 “經由設計的倫理”(ethics by design)理念,即將隱私、公平、安全、非歧視、福祉等倫理價值 的保障融入到 AI 產品、服務的設計當中,確保算法的合理性和數據 的準確、 時新、 完整、 相關、 無偏見和代表性, 并采取技術方式識別、 解決和消除偏見。另
32、一方面,應制定解決歧視和偏見的指南和原則, 并可通過倫理審查委員會等方式發現、解決潛在不公平歧視。 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 13 第二,可靠(第二,可靠(reliablereliable) 。) 。 人工智能應當是安全可靠的, 能夠防范網絡攻擊等惡意干擾和其人工智能應當是安全可靠的, 能夠防范網絡攻擊等惡意干擾和其 它它意外后果,實現安全、穩定與可靠。意外后果,實現安全、穩定與可靠。 在該原則之下, 一方面人工智能系統應當經過嚴格的測試和驗證, 確保其性能達到合理預期;另一方面人工智能應確保數字網絡安全、 人身財產安全以及社會安全。 就數字網絡安全而言,可靠性
33、意味著,人工智能應遵守隱私法律 要求,加強隱私保護和數據安全,保障個人對數的控制,防止數據濫 用。在技術上,人工智能應遵循“經由設計的隱私” (privacy by design)理念,采取加密、匿名化等技術措施加強隱私保護,探索隱 私友好型的機器學習方法如聯邦學習(federated learning) 。 第三,可知(第三,可知(comprehensiblcomprehensible e) 。) 。 人工智能應當是透明的、可解釋的,是人可以理解的,避免技術人工智能應當是透明的、可解釋的,是人可以理解的,避免技術 “黑盒”影響人們對人工智能的信任?!昂诤小庇绊懭藗儗θ斯ぶ悄艿男湃?。 人們對技
34、術的信任來源于對技術的理解。然而,現代人工智能系 統越來越成為一個“黑盒”, 甚至有時連研發人員都無法理解他們的 造物。 科學雜志將破解這一“黑盒”視為人工智能領域的重大難 題,為此,研發人員需要致力于解決人工智能“黑盒”問題,實現可 理解、可解釋的人工智能算法模型。 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 14 為了實現可知性,不同主體如消費者、政府等需要的透明度和信 息是不一樣的,還需要考慮知識產權、技術特征、人們的技術素養等 事項。一般而言,對于由人工智能系統做出的決策和行為,在適當的 時候應能提供說明或者解釋,包括背后的邏輯和數據,這要求記錄設 計選擇和相關數據,而不
35、是一味追求技術透明。 換句話說,技術透明或者說算法透明不是對算法的每一個步驟、 算法的技術原理和實現細節進行解釋, 簡單公開算法系統的源代碼也 不能提供有效的透明度, 反倒可能威脅數據隱私或影響技術安全應用。 更進一步,考慮到 AI 的技術特征,理解 AI 系統整體是異常困難的, 對理解 AI 作出的某個特定決策也收效甚微。所以,對于現代 AI 系 統,通過解釋某個結果如何得出而實現透明將面臨巨大的技術挑戰, 也會極大限制 AI 的應用;相反,在 AI 系統的行為和決策上實現有效 透明將更可取,也能提供顯著的效益。 此外,在發展和應用人工智能的過程中,應為社會公眾參與創造 機會,并支持個人權利
36、的行使。一方面,由于人工智能對個人和社會 的潛在影響, 確保社會公眾能夠參與到人工智能的研發和應用活動中, 是至關重要的。為此,社會各界應為公眾參與創造機會,諸如用戶反 饋、用戶選擇、用戶控制等,也包括利用人工智能系統的能力促進公 平賦能和公眾參與。另一方面,公眾參與也可以通過行使個人權利的 方式來實現。為此,需要尊重數據保護和隱私權、表達和信息自由、 非歧視等個人權利。同時,對于人工智能做出的決策,在適當的時候 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 15 提供異議和申訴機制以挑戰這些決策;對于人工智能造成的損害,提 供救濟途徑并能追究各參與方的法律責任。 最后,還需要保障
37、個人的信息自決,比如,確保個人能夠合理知 曉其在與人工智能系統直接互動、 其為人工智能系統提供了個人信息 等,并就人工智能系統的目的、功能、限制、影響等向用戶提供相關 信息,以保障用戶對人工智能的預期和一般性控制。 第四,可控(第四,可控(controllablecontrollable) 。) 。 人工智能的發展應置于人類的有效控制之下, 避免危害人類個人人工智能的發展應置于人類的有效控制之下, 避免危害人類個人 或整體的利益?;蛘w的利益。 短期來看, 發展和應用人工智能應確保其帶來的社會福祉顯著超 過其可能給個人和社會帶來的可預期的風險和負面影響, 確保這些風 險和負面影響是可控的,并在
38、風險發生之后積極采取措施緩解、消除 風險及其影響。 只有當效益和正面價值顯著超過可控的風險和消極影 響時,人工智能的發展才符合可控性的要求。此外, “可控”還意味 著,在人與機器關系中,對于機器所做的決定及其后果,需要考慮由 人來承擔最終責任,以確保人機共生的社會不失范。 長期來看, 雖然人們現在還無法預料通用人工智能和超級人工智 能能否實現以及如何實現,也無法完全預料其影響,但應遵循預警原 則(precautionary principle) ,防范未來的風險,使未來可能出現 的通用人工智能和超級人工智能能夠服務于全人類的利益。 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 16
39、 此外, 可控性要求人們必須考慮人工智能應用的邊界和底線問題, 對人工智能技術的武器、 監控、 人類增強等特殊用途進行限制和規制。 (二)構建塑造人工智能信任的(二)構建塑造人工智能信任的規則規則體系體系 當然,信任的建立,需要一套規則體系。最左端,是軟法性質的 規則,包括社會習俗、道德規范等;往右,是強制性規則,比如規制 組織內行為的法律 (如公司法) , 適用于工業產品的標準, 針對醫療、 金融、貿易等細分領域的監管規范,等等;再往右,是刑法的威懾; 最右端,是國際法,比如禁止生化武器的國際公約。 對于人工智能, 人們需要一套類似的規則系統。 在這些原則之下, 人們可以探索制定標準、法律、
40、國際公約等。在技術倫理的最新發展 階段, 未來將可能出現一系列圍繞數據和人工智能算法及其應用的法 律規范。我們認為,需要遵循以下幾個原則: 第一, 避免第一, 避免采取統一的專門監管。采取統一的專門監管。企圖為所有的人工智能應用制 定統一的監管框架是不現實的, 各個行業的專門監管機構最能評估人 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 17 工智能對特定領域的影響并采取適宜的監管措施。 第二,采取包容審慎、敏捷靈活第二,采取包容審慎、敏捷靈活的規制方式。的規制方式。一方面,由于技術 以及商業模式快速發展和迭代, 草率的立法不可能期待會產生正面的 效果,而且成文或專門的立法恐難跟
41、上技術步伐,故應避免嚴格、細 致的法律要求, 而是可以采取事后監管或者通過出臺標準、 行業公約、 倫理框架、 最佳實踐、 技術指南等調整人工智能等新技術的發展應用, 支持行業自律。 另一方面,需要為自動駕駛汽車、人工智能醫療服務等人工智能 新事物革除既有的監管法律政策障礙, 避免過時的法律要求阻礙人工 智能創新發展。因為隨著人工智能技術持續滲透到各行各業,帶來新 的產品和服務,未來新事物與舊制度的沖突會越來越多,呼吁監管法 律政策的革新和創新。 更進一步,作為對技術應用的“軟法”規制,可以通過科技倫理 來對科技行業的狹隘的技術向度和利益局限進行糾偏和矯正。 而且考 慮到當前技術發展的特征,科技
42、倫理在預防和緩解新技術、新業務帶 來的風險挑戰方面將發揮越來越重要的作用。 因為法律規范本身具有 滯后性,難以跟上技術發展的步伐,造成許多規范真空地帶,而科技 倫理可以更好地發揮事前引導作用, 將技術發展引向向上向善的健康 發展軌道。因此,人們需要超越狹隘的技術向度和利益局限,通過預 警性思考、 廣泛的社會參與和多學科評估來充分討論可能存在的風險 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 18 和危害,制定出切實可行的指導方針和倫理準則來引導、規范新技術 研發應用, 以更好地應對前沿領域技術應用可能引發的社會治理危機。 第三,遵循分階段的監管思路。第三,遵循分階段的監管思路。例
43、如,在落實具體監管措施時, 應首先考慮人工智能給公共安全和消費者帶來的風險是否可以通過 既有的監管框架來調整; 其次應當考慮這些既有的監管框架是否可以 充分且有效地規制這些風險; 如果一項風險游離于既有監管框架之外, 最后才應當考慮是否需要對監管框架作出修訂或增加, 以更好地應對 人工智能帶來的獨特問題。 第四第四, 采取多利益相關方協同, 采取多利益相關方協同治理的模式治理的模式??紤]到人工智能等新 技術的復雜性,相應的治理需要廣泛聽取行業、專家和公眾意見,避 免決策者與從業者脫節。更進一步,前沿技術領域的社會治理離不開 廣泛社會參與和跨學科研究。44 年前的阿西洛馬重組 DNA 會議彰顯
44、了科學共同體在應對新技術發展的不確定性決策中的重要作用。 現代 科學技術與經濟社會以異乎尋常的速度整合和相互建構, 但其高度的 專業化、 知識化和技術化使圈外人很難對其中的風險和不確定性有準 確的認知和判斷,沒有來自科學共同體內部的風險預警和自我反思, 任何一種社會治理模式都很難奏效。 因此,一方面需要通過多利益相關方協同參與的方式,讓監管機 構、決策者、學術界、行業、社會公共機構、專家、從業者、公眾等 等都參與到新技術治理中來,各方協同治理好新技術。另一方面,通 騰訊研究院 X 騰訊 AI Lab 智能時代的技術倫理觀 19 過科技倫理教育宣傳增進科研人員和社會公眾在倫理上的自覺, 使其 不僅僅考慮狹隘的經濟利益, 而且對技術發展應用的潛在影響及其防 范進行反思和預警性思考(precautionary thinking) ,才有可能通 過廣泛社會參與和跨學科研究的方式來實現對前沿技術的良好治理。 二、幸福(二、幸福(happinesshappiness) :智能社會人機共生) :智能社會人機共生 互聯網、云計算、人工智能等前沿技術融合發展,加速了更加成 熟的信息社會的到來,人類正在進入更加徹底的技術型社會。各種智 能機器正