《08人工智能倫理、治理與可持續發展.pdf》由會員分享,可在線閱讀,更多相關《08人工智能倫理、治理與可持續發展.pdf(51頁珍藏版)》請在三個皮匠報告上搜索。
1、 1 08人工智能倫理、治理 與可持續發展 2 聯合國副秘書長 Fabrizio Hochschild:聯合國數字合作路線圖整理:智源社區 沈磊賢6 月 24 日下午,在第二屆北京智源大會“人工智能倫理、治理與可持續發展”論壇上,聯合國副秘書長 Fabrizio Hochschild 連線出席,并做了Digital Cooperation in the UN:The SGs Roadmap and implementation的演講。Fabrizio Hochschild 介紹,聯合國數字合作路線圖的首要目標是“連接、尊重和保護數字時代的人們”,在全球新冠疫情大流行的當下,實現可持續和包容性復
2、蘇,推動全球數字合作,以應對在世界范圍內出現的技術被嚴重濫用等問題,其主要內容包括推動數字通用連接,促進數字技術成為公共產品,保證數字技術惠及所有人,支持數字能力建設,建立數字信任和安全等。Fabrizio Hochschild 介紹,這個路線圖是由聯合國秘書長古特雷斯 6 月 11 日在“數字世界現狀和數字合作路線圖實施”視頻高級別活動上正式公布的,涉及諸如確保數字通用連接,通過網絡維護人權,改善互聯網合作架構等時下的重要議題,旨在促進全球數字合作。Fabrizio 認為,當下全球的數字合作正處于歷史較低水平,但面對疫情,數字合作應該享有最高優先級,各國應該通力合作,推動數字合作達到歷史最高
3、水平。Fabrizio希望更多的中國專家能夠與聯合國一起努力,促進數字合作,實現可持續發展的目標,保證數字技術能夠惠及所有人,推動全球各國共同進步。聯合國數字合作路線圖呼吁各國要在如下八個重要的數字領域采取合作,包括:實現全球的互聯互通,到 2030 年,每個人都應能夠以安全且負擔得起的方式訪問互聯網;促進數字公共物品以創造更公平的世界;確保所有人(包括最弱勢群體)享有數字包容;加強數字能力建設;確保數字時代的人權保護;支持人工智能方面的全球合作;促進數字環境中的信任與安全;建立更高效的數字合作架構。這份數字合作路線圖,也是由阿里巴巴馬云共同主持的數字合作高級小組在去年發布報告(編者注:數字相
4、互依存的時代聯合國數字合作高級別小組報告,2019 年 6 月發布)的后續行動,在多方利益相關者討論的基礎上制定。能夠在數字合作項目的一開始就從中國的智慧和經驗中受益,Fabrizio 表示很幸運。而聯合國也將在后續工作中尋求更多的中國專業知識,Fabrizio 希望能夠接觸更多尊重數字人權、保護數字時代弱勢群體的中國專家。同時 Fabrizio 也提到了眼下全球面臨的共同威脅與挑戰:Covid-19 新冠疫情,其后果是毀滅性的,影響范圍波及世界各地,加劇了全球緊張局勢。3 盡管現實世界存在著復雜的地緣政策,但最近幾個月的發展趨勢,需要我們強調采取技術合作的迫切需要。Fabrizio 提到,在
5、全球最不發達國家中,有 46的人口無法享受互聯網訪問帶來的好處。如何使這些人口能夠從人工智能等先進技術中受益?Fabrizio 邀請與會嘉賓與他一起思考這一困境以及解決這一困境的方法。Fabrizio 認為,造成全球政策分裂的最大風險之一是技術分裂,技術分裂將使全世界人民更難平等地獲得先進的技術。當前我們所依賴的技術應用方式,正進一步加劇了現有的不平等現象,并加深了已經非常深的數字鴻溝。這是數字合作必須要解決的問題,不僅要致力于幫助人與人之間建立聯系,而且還要確保每個人可使用的技術是安全的,并保障使用者的人權。和平、安全、保證人權,這是合乎人類利益、合乎道德的 AI 趨勢在全球范圍內不斷得到發
6、展的核心動力。Fabrizio 認為,這種 AI 趨勢十分重要,它凝聚了全球最聰明的人,而聯合國會繼續支持這一積極的趨勢。Fabrizio 表示,北京智源大會上中國專家和學者提出的 AI 倫理和治理原則,給他留下了深刻的印象,特別是呼吁 AI 以人為本,尊重和保護隱私保護政策的普遍人權。此外,Fabrizio 還注意到了會上頻頻被提起的“和諧”這一概念,他認為“和諧”在中國具有悠久而豐富的歷史,在和諧理念的指導下,使用全球一致的方法來開發和使用 AI 技術是十分必要的,這種全球一致的方法可以容納各方不同的觀點,并找到其中的相似點,然后用和諧的心態處理分歧。Fabrizio 認為,這是一種朝著全
7、球一致的目標前進的建設性思路,這種思路既尊重方法和觀點的多樣性需求,也關注相似之處,并利用它們為共同的普遍目標和共同的人類價值觀服務。Fabrizio 指出,這不是理論上的練習?,F在,聯合國擁有來自不同實體的 160 多種全球 AI 道德規范和治理原則,通過認識到各種規范之間的相似之處并利用它們建立一致性,會發現它們之間的相似點大于差異,所以 Fabrizio 相信即使在復雜的主題(如 AI 倫理和治理)方面,也可以達成有意義的全球數字合作。長期以來,這種全球數字合作一直通過科學的方法成功進行,這些方法一次又一次地被證明在開發和平變革性技術(如核能)中扮演了關鍵的角色。為汲取過往的豐富經驗,聯
8、合國也正在尋求嘗試一些合作模式,尤其是在學術界,北京智源人工智能研究院等智囊團在合作時所體現的模式尤其令人鼓舞。最后,Fabrizio 感謝了北京智源人工智能研 究院、阿里巴巴和其他為聯合國的工作做出貢獻的組織和群體。他還邀請與會的各位專家與聯合國共同合作,共同努力執行秘書長的路線圖,以共同塑造一個互惠互利的數字合作未來。4 北京市科委主任許強在“人工智能倫理、治理與可持續發展”論壇上的致辭整理:智源社區 楊香草6 月 24 日下午,在第二屆北京智源大會“人工智能倫理、治理與可持續發展”論壇上,北京市科學技術委員會主任許強出席并致辭。下面是致辭全文。尊敬的法布里齊奧 霍奇希爾德(Fabrizi
9、o Hochschild)副秘書長,各位專家,女士們、先生們,朋友們:大家上午好!非常高興與大家共同探討人工智能倫理、治理與可持續發展的話題。首先,我謹代表北京市科委對面向可持續發展的人工智能智庫及公益研究計劃的發布表示熱烈的祝賀。同時,也向一直以來關心和支持北京人工智能發展的各界人士表示衷心的感謝。一、AI 倫理和治理已經成為全球共識,各方探索落地的機制科技倫理是創新驅動發展、數字中國建設、數字時代商業競爭的重要保障?!皠撔聝r值倫理”形成了一個“鐵三角”。創新性技術給社會帶來了潛在價值的同時,可能還存在著難以預期的風險,并對社會的倫理提出了重大的挑戰。發展人工智能技術,賦能經濟與社會的同時,
10、應該關注人工智能的社會屬性,從社會風險、倫理準則與治理的角度確保人工智能技術和產業的健康、良性的發展。當前,國際社會正探索建立廣泛認可的 AI 倫理原則,推進敏捷靈活的 AI 治理。2019 年 5 月,經合組織(經濟合作與發展組織,OECD)通過首部人工智能的政府間政策指導方針,確保了人工智能的系統設計符合公正、安全、公平和值得信賴的國際標準。2019 年 6 月,二十國集團(G20)部長會議通過了G20 人工智能原則,推動建立可信賴的人工智能的國家政策和國際合作。今年 3 月,聯合國教科文組織經過會員國的推薦和遴選,任命了 24 名全球 AI 倫理、政策等領域的專家組成了 AI 倫理特別專
11、家組,已經啟動編制了人工智能倫理建議書。智源研究院的倫理與安全中心主任曾毅代表我國入選了該國際組織的專家組。2019 年初,我國成立新一代人工智能治理專業委員會,并于 6 月發布新一代人工智能治理原則發展負責任的人工智能,提出人工智能治理框架和行動指南,強調和諧友好、公平公正、包容共享等八項原則。北京人工智能產業發展快速,擁有人工智能企業一千多家,占我們全國的近三成;擁有人工智能人才四萬人,占全國總量的近六成;擁有首個國家新一代人工智能創新發展試驗區和七個國家新一代人工智能開放創新平臺,正在加快打造具有全球影響力的人工智能科技創新高地。2019 年 5 月,智源研究院牽頭發布了人工智能北京共識
12、,為規范和引領人工智能健康發展提供了北京方案。一年以來,相關機構積極推動共識落地。智源研究院推動建設人工智能風險與安全的綜合沙盒平臺,可對人工智能產品以及應用的風險與安全進行綜合檢測與評價,降低人工智能產品的全生命周期的風險,對于實現人工智能的自律、善治、有序起到了重要的作用。5 二、和諧發展是當前人工智能倫理與治理的主旋律,多方協作,實現發展與治理雙輪驅動和諧發展是當前人工智能倫理與治理的主旋律。一方面,為實現通過人工智能增進人類共同福祉這一目標其途徑并不唯一,應當始終秉承與實踐“和而不同、和舟共濟、和合向善”的發展理念;另一方面,應推動人類與技術的和諧共生,避免技術的誤用、濫用、惡用對人類
13、權益的傷害,總體愿景應是發展對人類與生態有益的人工智能。多方協作,實現發展與治理雙輪驅動。治理的目的不是阻礙發展,而是保持發展的健康與穩健。為了確保人工智能向對社會有益的方向發展,應采取發展與治理雙輪驅動的戰略。通過多輪治理方式,實施對人工智能的研發、部署、使用,從自律自查到頂層監管,真正從技術和社會等不同的視角實現人工智能的敏捷治理。三、推動各類機構履行社會責任,發展面向可持續發展的人工智能2015 年,聯合國通過了可持續發展目標,共 17 大項,涉及社會、經濟和環境三方面的發展問題,致力于從2015-2030 年間,通過協同行動,消除貧困,保護地球,確保人類共享和平與繁榮。人工智能是推動社
14、會可持續發展的使能技術。據普華永道預測,到下一個十年年底,將人工智能用于環境應用 可能為全球經濟帶來 5.2 萬億美元的貢獻,同時,將溫室氣體排放減少 4%。麥肯錫的研究顯示,在能源、先進電子器件、半導體等 19 個行業中,人工智能的引用每年可創造 3.5 萬億到 5.8 萬億美元的潛在價值。為引導并推動面向可持續發展的人工智能的實現,北京市依托智源人工智能研究院,邀請全球頂尖的專家,成立了科學委員會,組成面向可持續發展的人工智能智庫平臺,并與全球相關科研機構、企業共同推進面向可持續發展的人工智能公益研究計劃,面向全球開放研究成果,支撐人工智能作為使能技術,促進全球社會、經濟和環境的可持續發展
15、,推進人類命運共同體的構建與實現。各位專家,各位來賓,朋友們,人工智能倫理與治理工作關乎全社會、全人類的未來。在當前全球化的背景下,一個可持續發展的地球需要各國在 AI 技術、產業、倫理、治理等各個方面加強合作。今天,面向可持續發展的人工智能公益研究計劃的發布只是一個開始,希望面向下一個十年,全球各類 AI 機構能繼續秉承以人為本及可持續發展理念,推進人工智能治理的跨學科差異和國際合作,共同攜手推進全球人工智能的健康可持續發展。謝謝大家。6 Danit Gal:人工智能倫理全球合作:東亞人工智能倫理的視角整理:智源社區 羅麗聯合國秘書長技術顧問,劍橋大學智慧未來研究中心兼職研究員 Danit
16、Gal 的報告主題是Global cooperation on the Ethics of AI:A look at East Asia(人工智能倫理全球合作:東亞人工智能倫理的視角)的特邀報告。報告中,Danit Gal 從東亞 AI 倫理發展、歐盟和美國 AI 倫理發展以及 AI 理論發展全球合作三個方面,介紹了東亞人工智能在全球背景下的發展現狀,東亞 AI 倫理發展對全球 AI 理論發展所做出的貢獻以及 AI 理論全球合作的必要性和發展方向。在上海市科學學研究所發表的全球人工智能治理年度觀察 2019中,Danit Gal 論述了 AI 發展由原理轉向應用的必要性,Danit Gal 的
17、研究發現,在不同的國家和地區,AI 的應用方式也會有所不同,她提出只有了解了這些差異,才能對 AI 倫理學進行有意義的全球對話。但在撰寫報告時,Danit Gal 產生了另外一個問題,理解應用中的差異是否足以在 AI 倫理方面建立有意義的全球合作。本次報告中,Danit Gal 更進一步地介紹了 AI 理論在東亞、歐盟以及美國的發展現狀,并提出人工智能倫理全球合作所面臨的問題及發展方向。一、東亞 AI 理論發展東亞人工智能理論(Perspectives and Approaches in AI Ethics:East Asia)的研究是基于 Danit Gal 為牛津人工智能倫理學手冊(202
18、0 年)所進行的研究。Danit Gal 表示,在韓國,人工智能與人類互動被描述為 Shared Social Responsibility,即共享的社會責任。早在 2007 年,韓國就建立了明確的人機交互等級制度,以避免破壞個人利益和集體利益之間的微妙平衡。以人為中心的人工智能是人類和人工智能之間相互作用的結果,韓國政府強調需要避免反社會發展,因為 AI 會轉移和分散人與人之間的交流和互動,以一種損害人類的方式的方向來取代人類。為了避免反社會發展,韓國政府要求用戶、開發人員和公司對 AI 倫理的發展負責。在中國,人工智能與人類合作被描述為 Human-AI Harmony,即人類與 AI 和
19、諧共生。和諧的概念在中國傳統文化中占有特殊地位,根據和諧理念,中國發布了中國 AI 倫理原則,旨在指導 AI 與人類的和諧發展,中國的“和諧人工智能原則”為人類和人工智能提出了共同的原則,即,以共同的命運發展戰略性未來。Danit Gal 認為,在中國的和諧人工智能環境下,中國的 AI 政策、AI 教育、AI 培訓等領域的發展將具有廣闊的探索空間。接下來,Danit Gal 介紹了日本的 AI 治理。在日本,政府提出了 Co-evolution and Co-existence(共同進化與共存)的 AI 發展理念。日本人工智能學會提出的 Society 5.0 旨在創造人類和智能機器在一種完全
20、技術支持的社會中共同進化和發展,并提出想要“成為社會準成員”的人工智能所必須遵循的道德原則。日本認為,將 AI 技術融入社會能取得經濟效益,也是減輕國家孤立、應對超級老齡化社會帶來的挑戰的一種應對手段。二、歐盟和美國的 AI 理論發展Danit Gal 介紹,歐盟的 EU Humane AI project 致力于通過了解我們人類、我們的社會以及我們周圍的世界來 7 增強和授權全人類 AI 系統。歐盟委員會提出,人工智能技術的開發應以人為中心,因此值得公眾參與人工智能應用應賦予公民權利并尊重其基本權利,人工智能應致力于提高人們的能力,而不是取代人類等人工智能發展理念,這些發展理念旨在創造一個清
21、晰的人與機器的等級制度。在 MIT Human-Centered AI Collective中,學者們提出“AI 系統必須通過向人類學習,不斷改進”、“創造有效且充實的人機交互體驗”等理論。人工智能如何提供這些服務,同時創造一種友好和令人滿意的人機交互體制?如果從不同的文化角度來看,答案可能不同。在 Stanford Human centered AI Institute,研究者表示如果人工智能要滿足人類的集體需求,那么它就必須對人類身體上、智力上和情感上的動因進行理解,設計能夠理解人類語言、感覺、意圖、行為和具備區分細微差別和多維互動能力的機器智能,這些都是至關重要。那么,不同國家和地區的人
22、工智能與人類關系的不同之處在于什么?人類與人工智能之間的兼容性語言與英語相似,但重點卻不同,比如,一些西方話語著重于 AI 對人類的理解,而某些東亞語言則著重于人類與 AI 的相互理解。這種差異可能對 AI 本身的發展并不是那么重要,但對采用和使用 AI 的廣大公民而言,這些差異是至關重要的。在牛津人工智能倫理學手冊的研究中,Danit Gal 提出,受歡迎的包含技術的科技動畫文化具有更高的社會采用率和更快、更深入的社會嵌入能力。但是具有科技動畫文化的人工智能應用可能會與其他非技術性動畫文化產生沖突。圖 1:科技動畫文化應用實例上圖為具有科技動畫文化的人工智能理論的應用實例。圖 1 是一個在中
23、國寺院中成長的長袍僧人,通過使用 AI設備來傳播信息,圖(2)是一個被指定提供的機器人 Sarah,機器人 Sarah 能夠以較低的成本來哀悼死者。圖(3)是來自中國和日本的虛擬偶像,其聽眾來自全世界并且具有龐大的粉絲群。圖(4)是日本公司 Gatebok 所設計的虛擬妻子,在沒有出現之前便被預售而空。這些實例意味著,包含技術的科技動畫文化可能具有更高的社會采用率和更快更深的社會嵌入能力,也可能會與其他非技術性動畫文化產生沖突,AI 技術的不同應用對現實生活具有完全不同的影響。8 微軟的成功,是了解區域差異并從中受益的有力示例。一切都是從 Teams 開始的,它是一個聊天框,通過 Twitte
24、r 被發布到外界,但在即時通訊信息發布 24 小時后,仍毫無音訊,剛開始,它被認為是一個失敗的實驗,并且得到了很多負面媒體的報道。之后,設在中國的微軟亞洲研究小組承擔了這個項目,并把它變成了迄今為止世界上最成功的社交聊天箱,目前為止,它已經擁有 6.6 億的用戶互動數,在某種程度上,被認為是一個交互奇跡。研究小組創造的日本用戶聊天機器人 Rinna,在某種程度上得以流行,之后,他們試圖回到西方用戶,通過創造與政策想近的話題來吸引用戶,實驗表明,之后確實有幾百個、幾千個的互動產生,并不斷取得成功。所以,得到的一個有趣的實驗結論是,機器人在東亞的流行和成功,是因為在那里的人們愿意與 AI 進行有意
25、義的交流和對話。三、AI 倫理全球合作Danit Gal 表示,如果微軟沒有成功,我們如何真正追求人工智能倫理的全球合作?Danit Gal 以微軟的成功為例,討論了實現人工 智能倫理的全球合作需要解決的三個障礙:語境、交流、合作。(一)語境在西亞和東亞的用戶與開發人員之間,人與 AI 之間的交互通常在語境上有所不同,這種語境對 AI 的接受和使用起著重要作用,會產生不同的開發和使用軌跡,如果不能正確傳達用戶意見、發展和使用上的差異,將無法解決問題并會阻礙合作。(二)交流語境不同將增加交流難度,需要考慮語境在文化和社會結構中的嵌入程度。語境不同導致有關 AI 倫理全球合作中的一個已知困境,即我
26、們使用相同的語言(英語)來傳達相似的原理,并且(希望)認識到有不同的實現方式。但為什么?如果無法有效地溝通分歧,將導致我們無法有效地溝通如何去解決分歧。(三)競爭人類使 AI 成為一項競爭性技術,因此缺乏交流的動力。AI 的貨幣化和政策化源于對比性敘述和缺乏的交流溝通,以致出現“AI 軍備競賽”、“AI 統治=世界統治”之類的呼聲。因此,如果沒有有意義的動機來處理和解決國家和區域之間的差異,我們就永遠無法解決這些差異,所以只能選擇繼續競爭。那么,如何來解決這些問題呢?Danit Gal 表示,應該從三個方面入手:(1)可以通過探索、理解和交流差異來促進有效的、非競爭領域的合作。(2)創造有意義
27、的激勵機制,比如通過可持速發展和使用開源技術等方式創造一個沒有競爭的合作環境,使每一個人都能從中受益。(3)一起致力于 AI 倫理及其他方面的全球合作。9 圖 2:聯合國數字合作路線圖的報告最后 Danit Gal 介紹了聯合國最近發布的數字合作路線圖,并表示,聯合國秘書長已宣布將建立全球人工智能合作多方利益原則,建立世界上最具包容性和信息量的機構,并歡迎所有有志之士的加入!10 聯合國秘書長數字合作高級別小組前執行主任 Amandeep Singh Gill:通過倫理實現信任解鎖 AI 的可持續發展使用的關鍵因素編輯:智源社區 楊香草Amandeep Singh Gill 的演講主題是 通過
28、倫理實現信任:解鎖 AI 的可持續發展使用的關鍵因素 Amandeep Singh Gill(阿曼迪普 辛格 吉爾)擁有多重身份,他是國際數字健康與人工智能研究合作中心(International Digital health&Artifi cial Intelligence Research Collaborative,簡寫為 I-DAIR)的項目主任。他是聯合國秘書長數字合作高級別小組前執行主任,該特別工作組聯合主席還包括比爾蓋茨的妻子梅琳達 蓋茨(Melinda Gates)和阿里巴巴創始人馬云。Amandeep 曾任印度大使及日內瓦裁軍談判會議常駐代表,印度外交部裁軍與國際安全司司長(
29、2013-2016 年),且于 2017 年協助成立印度經濟轉型人工智能工作組。在演講報告中,Amandeep 認為 AI 應用的關鍵是通過制定倫理原則來建立人類與 AI 之間信任的基本觀點。他描述了 AI 的發展現狀和其面對的機遇與挑戰,強調了 AI 治理的重要性,提出了 AI 治理需要遵循和踐行的原則性方法。圖 1:Amandeep 的演講主題:通過倫理實現信任:解鎖 AI 的可持續發展使用的關鍵因素一、AI 技術和 AI 治理面臨的機遇與挑戰Amandeep 認為,當人們意識到 AI 技術可能有助于實現可持續發展目標(Sustainable Development Goals,SDGs)
30、之后言,AI 技術的機遇存在于:11 1.改變實現方式。AI 技術可以提供橫向思維并節約成本來重塑 SDGs 的實現方式。例如,重塑 SDGs 中的目標3,即健康與福祉(Health and Well-being)1。2.干預措施。AI 技術能將機器學習、大量數據集和計算能力融合在一起,為許多領域提供果斷的干預措施。比如在健康領域,AI 技術能夠精準預防并預測健康情況,所以流行病問卷調查在新冠肺炎疫情期間受到重視。3.數字機遇。受新冠肺炎疫情影響,注意力轉移到了彈性投資上,數字機遇被看好。數字機遇不僅僅是炒作,其前景可觀。機遇總是伴隨著挑戰。Amandeep 將 AI 技術面臨的挑戰歸納為三點
31、:1.缺失數據(Missing Data)。尤其是在中低收入國家,缺少發展數據,沒有數據基準。2.濫用數據(Misuse)。面對數據濫用,公眾會關心數據安全、數據所有權、數據隱私和知情同意等方面的內容。3.漏用數據(Missed Use)。由于數據質量差,數據集分散,缺乏互用性,對于數據持有零和4觀點和態度也會導致信任不足。圖 2:AI 技術面臨的機遇與挑戰AI 治理也面臨著諸多具體的挑戰:1.治理方法不統一。在科學和數據層面,民族主義世風日盛。2.炒作。AI 模型過度擬合(Over Fitting)或欠擬合(Under Fitting),從而導致領導人陷入困惑,判斷失準,不知道是要立即治理
32、AI 還是滯后處理。3.對待數據或技術的集中式方法沖擊了分散式方法。分散式方法尊重本地數據或技術所有權,允許亞洲和非洲等地新興區域創新扮演好自己的角色。4.國際組織和領導人常常終止讓人失望的創新治理,并過早宣布達成共識。5.缺乏治理能力,缺少基本的對健康領域使用數據和 AI 技術的跨域理解能力。12 6.太多的政策原則和抽象性太強,施行擬定的治理方案證據有限。我們需要具體的施行辦法,并用證據來支持。圖 3:AI 治理面臨的挑戰二、AI 技術、價值觀和原則及 AI 倫理治理的辯證關系技術從來都不能脫離一定的價值觀,也做不到中立似流水,隱去特性。事實上,技術反映人類的價值觀和偏好層次,而價值觀和原
33、則(Values and Principles,Vs&Ps)有助于創建倫理文化,構建價值觀驅動的技術發展和技術治理。這有助于形成價值觀倫理行為信任技術和技術治理的良性循環。圖 4:技術,價值觀和倫理治理的關系說明 13 筆者用圖 5 來表達以上概念之間的辯證關系,方便讀者有一個直觀的了解:圖 5:AI 技術、價值觀和原則及 AI 倫理治理的辯證關系圖示(筆者注)三、價值觀和原則:從概念到行動厘清這些關系之后,要從抽象概念落到實處。那么AI 治理政策和行動落實的切入點又在哪里呢?Amandeep 認為:1.價值觀和原則能指導政策制定和實施;2.價值觀和原則能將國際準則通過非正式渠道傳播到各國;3
34、.價值觀和原則使得治理范圍擴展到技術發展周期的早期和模糊不清的部分;4.價值觀和原則能夠跨文化跨國界靈活運用。5.在找到從抽象走向具體的切入點之后,在落實具體措施之前,還有一些因素要考慮到:6.價值觀和原則要出現在每個使用語境中,并與治理成果顯著相關;7.價值觀和原則要反映不同文化或國家背景;8.價值觀和原則要做到透明化,避免被潛在的商業利益或政策利益操縱(“倫理道德洗腦”,ethics wash);9.要避免對價值觀和原則的濫用,尤其是在現有的數字治理不對稱的背景下,避免 AI 治理過程中的集中式決策行為(“治理中的網絡效應”,network eff ects on gov2)。圖 6:從價
35、值觀和原則到政策與行動 14 最后,Amandeep 總結了五種實用的倫理價值觀來指導 AI 技術應用全程有序穩定發展:1.修復世界(Tikkun Ulam)3。當今世界有很多期待解決的難題,SDGs 就是致力于解決這些難題,而這也是善用 AI 技術的重點方向。2.人類繁榮(Human Flourishing)。追求健康,幸福和繁榮,實現經濟向好發展,這是 AI 技術要發力的方向,同時注意平衡社會發展。3.和諧(Harmony)?!昂椭C”的概念源自中國,AI 技術不應該是用來制造社會內部或社會之間的沖突,破壞人權和自由,而是允許人類一起解決問題,實現繁榮發展。4.人道(Ubuntu)4。這是非
36、洲的哲學價值觀,意為你決定我即是我,不管我做什么,都是在修復每個人。所以這種價值觀倡導一種責任感,倡導形成社區,倡導在 AI 技術層面建立人類社會。5.制感(Pratyhra)5。這個價值觀來源于印度,意為內省,但并非與外面世界隔離,意為我不是我的感官意識,我可以向內探索找到我的本質。在使用 AI 技術時,也要融會貫通這種價值觀,多關注技術所服務的本質。圖 7:Ama ndeep 總結的五種價值觀參考注釋:1 據百度百科,聯合國可持續發展目標是一系列新的發展目標,將在千年發展目標到期之后繼續指導 2015-2030 年的全球發展工作。2015 年 9 月 25 日,聯合國可持續發展峰會在紐約總
37、部召開,聯合國 193 個成員國在峰會上正式通過 17 個可持續發展目標。健康與福祉是第三個具體目標??沙掷m發展目標旨在從2015 年到 2030 年間以綜合方式徹底解決社會、經濟和環境三個維度的發展問題,轉向可持續發展道路。2 治理中的網絡效應(network eff ects on governance):網絡效應,也稱網絡外部性或需求方規模經濟,由以色列經濟學家奧茲 夏伊(Oz Shy)在網絡產業經濟學(The Economics of Network Industries)中提出。在具有網絡效應的產業中,“先下手為強”(fi rst-mover advantage)和“贏家通吃”(wi
38、nner-takes-all)是市場競爭的重要特征。由此可知,治理中的網絡效應指的是價值觀和原則強勢國家的集中式治理,會使得治理權力失衡,并帶來一系列的相應影響。15 3 修復世界(Tikkun Ulam):意為 fi xing the world,猶太教中的概念,通常被解釋為渴望表現出建設性和有益的行為。4 人道(Ubuntu):非洲南部祖魯語或豪薩語,意為人性,“我的存在是因為大家的存在”,是非洲傳一種傳統的價值觀。南非總統曼德拉認為它包含了尊重、互助、分享、交流、關懷、信任、無私等眾多內涵,是一種生活方式,提倡寬容和同情他人。5 制感(Pratyhra):是印度瑜伽經八支中的第五支,強調
39、精神從感覺和外部事物的奴役中解脫出來,是指感覺消失,控制內心,也稱調心。16 全球 AI 倫理協會發起人 Christoph Ltge:人工智能和可持續發展 編輯:智源社區 楊香草在本次智源大會“人工智能倫理、治理與客持續發展”論壇中,全球 AI 倫理協會發起人 Christoph Ltge 做了主題為人工智能和可持續發展的報告。Christoph 的報告圍繞著“AI 技術為實現可持續發展目標大有可為”進行展開。Christoph Ltge(克里斯托夫 盧奇)是德國哲學家和經濟學家,慕尼黑工業大學商業倫理學教授兼人工智能倫理學研究所所長,與東京大學,紐約大學和劍橋大學等大學的科學家共同創立了全
40、球人工智能倫理學聯盟。他是全球 AI 倫理協會發起者,以其在商業倫理,人工智能倫理,實驗倫理和政策哲學方面的工作而聞名。在該演講中,Christoph 重點介紹了其所任職的人工智能倫理中心的研究情況,人工智能技術為可持續發展目標服務的可能性和研究領域,以及人工智能倫理原則的內容。這三部分的內容都很精彩,尤其是在倫理原則部分表達出的“以人為本”和“信任是使用的前提”的中心思想是很值得期待的閃耀著智慧光芒的見解。以下為 Christoph 演講全文整理,以供交流學習。圖 1:Christoph 演講主題:人工智能和可持續發展一、TUM-IEAI 研究現狀簡介Christoph 在進入主題之前,先就
41、慕尼黑工業大學人工智能倫理中心進行了介紹。多年來,慕尼黑工業大學(Technische Universitt Mnchen,Technical University of Munich,TUM)是科學、技術和社會的互動研究方面的先驅,立足于“以人為本的工學”。人工智能倫理中心(The Institute for Ethics in Artifi cial Intelligence,IEAI)1成立于 2019 年,隸屬于慕尼黑社會技術中心(Munich Center for Technology in Society,MCTS)。17 圖 2:慕尼黑工業大學人工智能倫理中心(TUM-IEAI)
42、一覽IEAI 的使命不僅是探索 AI 技術更多的可能性,也是確保讓更多的人享受 AI 技術帶來的紅利。IEAI 與自然科學和人文社會科學方向都有合作,構建結合 AI 技術的未來合作指南。IEAI 合作的方向包括法律、治理/政策、商業、倫理、數學、醫學、計算機科學、工程學等,在公平和跨學科原則指導下,建立全球合作,實現全社會的AI 技術倫理發展與實踐。圖 3:IEAI 的使命與技術方向IEAI 的業務內容,包括:1.為工業界和學術界之間的合作提供平臺,還包括研究項目、工作坊和會議等,合作網絡不斷擴大。18 2.支持并協調在慕尼黑工業大學進行跨學科研究,研究包括 IEAI 內部資助項目及其他外部資
43、助項目。接下來,Christoph 介紹了 IEAI 當前的研究重點。IEAI 關注跨學科方向的研究,合作單位包括各個學科部門,工科合作部門有電子與計算機工程系、信息學系、機械工程系、航空航天和大地測量系等,還合作有醫學部,慕尼黑社會技術中心、數學系、數據科學研究所等理科部門,文科合作部門包括 TUM 的教育學院、治理學院、管理學院等。IEAI 研究小組有:AI 與未來的工作,AI、移動出行與安全,AI、選擇與自主性,AI 在醫療保健方面的應用,AI 與線上行為,AI、治理與規約,AI 與可持續發展等。下圖 4 和圖 5 是 IEAI 跨學科研究項目的部分匯總。圖 4:IEAI 跨學科研究項目
44、一覽(一)圖 5:IEAI 跨學科研究項目一覽(二)19 在介紹 IEAI 之后,Christoph 緊接著提到了國際人工智能倫理聯盟(Global AI Ethics Consortium,GAIEC)2。GAIEC 的目標是協調和倡導獨立學術研究,著眼于設計基于 AI 的技術的應用框架和落實倫理發展指南。下圖 6是 GAIEC 的發起單位和代表列表,包括 Christoph 本人所在的 IEAI 以及本場論壇主持人曾毅所在的中國北京智源人工智能研究院倫理與安全研究中心。值得一提的是,包括上述兩個機構在內,該聯盟中的 9 家機構聯合發起了“全球人工智能倫理與抗擊新冠疫情聯盟”3,為抗擊疫情提
45、供幫助。圖 6:GAIEC 的發起單位列表緊接著,Christoph 的演講進入 AI 與可持續發展的主題,該主題涉及范圍很廣,Christoph 介紹了 IEAI 利用 AI技術進行的相關研究項目,即利用 AI 技術觀測地球(AI4EO)4。AI4EO 實驗室由慕尼黑工業大學和德國航空航天中心(The German Aerospace Center,DLR)合作成立,研究期限為 3 年,從 2020 年 5 月至 2023 年 5 月。AI4EO 匯集了 9 個國家 20 個知名國際組織中的 27 名高級別科學家,來共同應對三個基本挑戰:推理(Reasoning),不確定性(Uncertai
46、nties)和倫理(Ethics)。該項目致力于解決數據保護/隱私問題,遵守數據可攜權(Data Portability)5,確保在數據收集層面的公平和平等,以及確保數據使用和傳播的公平和平等,并將其納入倫理治理范疇。Christoph 通過介紹該項目進行的一個關注印度某城市的貧民區的專題研究,展示了 AI 應用于此領域的前景。通過 AI4EO 與水文經濟多智能體模型及利益相關者知識的耦合,該項目計劃創造一個規劃工具,用來捕獲在貧民區普遍存在的復雜供水系統的相關反饋動態。因此,AI4EO 能夠為形成一個全新的基礎設施規劃范式打下基礎,并最終以少花錢的方式,擴展貧民區的公共規劃能力,從而改善地區
47、供水現狀。20 圖 7:城市的全球 3D 模型的一部分6AI4Slums 專題由慕尼黑工業大學、亥姆霍茲環境研究中心(UFZ)、德國航空航天中心、奧地利發展研究基金會(FSE)及斯坦福大學合作開展,預估將于 2021 年啟動,在該專題中,IEAI 扮演著提供技術倫理指導的角色。Christoph 認為這一角色如果缺失,危害性會體現在兩方面:一,如果輸入數據存在的潛在偏見,會導致一系列不準確的輸出結果或信息傳送給利益相關者;二,從 AI4EO 獲取的貧民區及其居民的有關信息,會被不同的使用者濫用,例如,用來壓制貧民區的擴大,剝奪貧民區現有居民和潛在居民的限定財產權(qualifi ed inte
48、rest)7。二、AI 技術應用于 SDGs 的領域聯合國可持續發展目標(Sustainable Development Goals,SDGs)是聯合國制定的 17 個全球發展目標,在千年發展目標8到期之際繼續指導 2015-2030 年的全球發展工作。Christoph 將 17 個目標歸入社會,經濟和環境三個方面,而 AI 技術可以在這三個方面為 SDGs 服務。圖 8:聯合國可持續發展的 17 個目標 21 與社會相關的 SDGs 包括 SDG1 消除貧困,SDG2 消除饑餓,SDG3 良好健康與福祉,SDG4 優質教育,SDG5性別平等,SDG6 清潔飲水與衛生設施,SDG7 廉價和清
49、潔能源,SDG11 可持續城市和社區,SDG16 和平、正義與強大機構;與經濟相關的 SDGs 包括 SDG8 體面工作和經濟增長,SDG9 工業、創新和基礎設施,SDG10縮小不平等差距,SDG12 負責任的消費和產品,SDG17 促進目標實現的伙伴關系;與環境有關的 SDGs 有SDG13 氣候行動,SDG14 海洋環境,SDG15 陸地生態。圖 9:聯合國可持續發展目標與 AI 技術的結合SDGs 是基于現實問題提出來的,21 世紀的世界面臨著許多挑戰,比如人口問題,到 2050 年,地球居住人口將達到 95 億;比如資源與環境問題,我們如何在為人類提供清潔的飲用水、教育及可持續發展能源
50、的同時,保護好環境?那么 AI 技術能幫助 人類解決這些問題嗎?AI 技術作為工具,可以有效解決我們面臨的饑餓、饑荒、流行病等關鍵問題,而且 AI 技術讓縮短尋找解決辦法的時間成為可能。利用 AI 技術實現可持續發展目標(Sustainable Development Goals,SDGs)的應用前景廣闊。Christoph 挑選了幾個 AI 可以大展身手的領域進行了介紹:利用 AI 技術來保護瀕危物種(AI to help Protecting Endangered Species)?,F在的動物保護主義者利用紅外相機等設備來確認物種棲息地,然而這也存在一定的問題,紅外相機允許收集數百萬張照片
51、的數據,這也就意味著處理數據耗費時間長,關鍵信息可能會遺漏或失效。運用 AI 技術之后,我們就擁有了世界上最大的紅外相機數據庫,深度學習模型能為動物保護技術提供最優和最新數據,加速收集、分析及在全球分享野生動物相關數據。AI 技術改革移動出行方式(AI to Revolutionize Mobility)。全球二氧化碳排放量的四分之一歸于運輸行業使用能源排出的廢氣。面對此種現狀,大規模使用自動駕駛汽車有巨大的減排潛能。在互聯移動領域進行創新,創造智能出行工具,建設智慧型基礎設施。這些措施可以有效減少交通擁堵,建設高效和環境友好型運輸系統。22 AI 技術可以救助生命(Life-Saving A
52、I Technology)。AI 技術能夠預測食物短缺。2018 年,聯合國秘書長、難民署高級專員古特瑞斯(Antnio Guterres)建立了饑荒行動機制(Famine Action Mechanism,FAM)。FAM是第一個量化模型處理機制,利用算法實時計算食物安全性。由此看來,AI 系統能夠通過檢測不同變量之間的相關性來預測食物短缺風險。AI 技術使人類具有在早期預警系統開始的同時提前準備資金以預防食物安全危機。AI 技術有助于提高糧食產量(AI for Effi cient Food Production)。AI 系統能幫助農民實時分析天氣狀況、溫度、用水情況及土壤環境,從而提高糧
53、食質量,提供準確作物收獲時間信息。這種精準農業(precision agriculture)利用 AI 技術檢測植物病蟲害情況和農作物營養不良情況。AI 技術創造的季節預報模型提高了農業精準度,提高了生產能力,該模型能夠提前預測好幾個月的天氣情況,有助于農民更好地安排農活。AI 技術可用于循環系統(AI for Recycling)。AI 分類機器人(比如芬蘭澤恩機器人公司,ZenRobotics Ltd.)可以做到智能機器將垃圾分類。機器人使得循環處理更加高效、準確并獲利。除此以外,機器人也能減少環境污染,甚至減小環衛工人每天在回收廠面對的健康危害。三、AI 技術面臨的挑戰及 AI 倫理原則
54、通過以上應用前景可以真切地感受到 AI 技術能夠服務于人類,但同時也面臨著技術挑戰:依賴于技術系統的準確性,就要承擔技術錯誤的風險,比如遠程醫療(Telemedicine)。同時也會有失去自主決策權的危險。針對網絡攻擊變得更加脆弱不堪。侵犯隱私和數據濫用的風險。歐盟通用數據保護條例(GDPR)可以有效應對此風險,但又需要進行條例調整來抗擊疫情及其他流行病。要注意的是,不同的人對此問題有不同的看法。數字素養(Digital Literacy)9?,F在通常缺少對于 AI 技術的數字素養教育。在醫療健康領域,醫生不信任 AI系統。除了技術挑戰以外,還有關于 AI 倫理方面的擔憂。AI 技術出于什么目
55、的使用什么數據在多大程度上是透明的(Transparent),公司能夠提供的信息是可審核的(Auditable),數據使用的全程流向是可解釋的(Explainable and Interpretable)以及數據使用是公平的(Fair)。圖 10:AI 技術倫理方面的擔憂 23 Christoph 提出了 AI 倫理的一個中心和五個原則。一個中心指的是 AI 技術要以人為本(Human centered approach)。五個原則分別是:1.行善原則(Benefi cence)。具體可解讀為提高福祉,維護尊嚴,地球存續。2.不傷害原則(Non-malefi cence)。具體可解讀為保護隱私
56、,數據安全,“能力警告”(capability caution,指的是未來 AI 技術能力的上限預警)。3.自治原則(Autonomy)。具體可解讀為在人類繼續持有的決策權與人類委托給 AI 技術的決策權之間取得平衡。4.公正原則(Justice)。具體可解讀為創造共享可享的利益,保持團結。5.可解釋原則(Explicability)。具體可解讀為要確保其他原則的可理解性(Intelligibility)和可信性(Accountability)。圖 11:AI 倫理的一個中心和五個原則Christoph 隨后列舉了幾個相關例子:經濟合作與發展組織(Organization for Econom
57、ic Co-operation and Development,OECD)10。OECD 有三十多個成員國,其奉行的 AI 原則(2019 年 5 月正式通過 OECD Principles on AI)有:AI 要保證公平、透明、可信,要披露公司內部運行系統,指南不具有強制約束力,發起 AI 相關的政策觀測。電氣和電子工程師協會(Institute of Electrical and Electronics Engineers,IEEE)11。IEEE 有自治與智能系統倫理全球倡議(IEEE Global Initiative on Ethics of Autonomous and Inte
58、lligent Systems),其目標是合乎倫理的設計(Ethically Aligned Design),遵循的基本原則包括人權、福祉、問責、效力、透明、可信、慎用、權限把控,廣泛的倫理和哲學思考應對非道德系統的道德問題,此外還有倫理認證項目。自動駕駛(Autonomous Driving)。2017 年 6 月德國道德委員會于柏林發布德國道德委員會關于自動互聯化駕駛的指導準則(German Ethics Commission on Automated and Connected Driving)12的最終報告,報告包括 20 條關于自動互聯化駕駛的倫理準則,其中第 9 條指出,在車禍不可
59、避免的情況下,自動駕駛系統中任何基于個人特征的選擇傾向(比如:年齡、性別、身體和心理狀況等)都是禁止的;自動駕駛系統在移動中產生危險時不能夠犧牲不相關的第三方。24 對于 AI 倫理行動,Christoph 認為要注意以下幾點:數據安全(Data security)。AI 需要數據,而且常常涉及敏感數據。公司必須自我保護,防止數據外泄,并利用最先進的數據安全辦法。不能在未經客戶允許的情況下售賣數據,例如不能效仿劍橋分析公司(Cambridge Analytica)13。數據偏見(Data bias)。通常數據訓練集會反映出人類的偏見,數據分析師們要想辦法讓數據集擺脫偏見。例如 IBM 公司的
60、trusted AI toolkits 就是在對抗 AI 偏差。AI 技術是可解釋的(XAI)。公司要使用反事實思維等程序來避免算法偏見,例如谷歌公司推出的 What-If Tool 工具。圖 12:AI 倫理行動中的注意事項圖 13:AI 技術的可解釋性 25 最后,Christoph 總結了建立 AI 倫理的關鍵是要由外而內信任 AI,包括:AI 倫理需要實施指南和框架。AI 技術需要更多數據來評估算法的影響。公司使用的技術工具要遵守倫理框架,從而建立起內部和外部的信任。要反思,尋求人類和機器的合作,而不是讓 AI 取代人類。AI 倫理要著眼于迎合社會的接納。圖 14:AI 倫理的關鍵是信
61、任 AI 技術參考注釋:1 人工智能倫理中心(IEAI)官網鏈接:https:/ieai.mcts.tum.de/2 國際人工智能倫理聯盟(GAIEC)相關信息網址:https:/ieai.mcts.tum.de/global-ai-ethics-consortium/3 智源研究院加入“全球人工智能倫理與抗擊新冠疫情聯盟”的更多信息及詳情可參考該文章,鏈接:https:/ 利用人工智能觀測地球(AI4EO)研究項目的更多信息來源于 IEAI 官網,若感興趣可參考官方鏈接進行了解,鏈接地址:https:/ieai.mcts.tum.de/research/ai4eo/5 數據可攜權(Data
62、Portability):根據歐盟通用數據保護條例(GDPR),AI 機器人及 AI 軟件必須遵守數據可攜權,即數據主體(數據生產方)向數據控制方(例如某個軟件)提供其數據后,其有權獲取所提供數據(通用化且機器可讀的),并轉移數據給其他控制方。6 圖源 AI4EO 成員朱曉祥教授,該模型主要使用TanDEM-X衛星數據生成,為全球所有城市創建此模型,需要使用復雜的AI程序。圖片來源:https:/www.tum.de/nc/en/about-tum/news/press-releases/details/36027/7 限定財產權(Qualifi ed Interest):指對財產權益的支配并
63、非絕對完整,限定財產權人在事實上和法律上都不能排除他人對同一財產享有權利。8 千年發展目標(Millennium Development Goals,MDGs):聯合國千年發展目標是聯合國全體 191 個成員國一致通過的一項旨在將全球貧困水平在 2015 年之前降低一半(以 1990 年的水平為標準)的行動計劃,2000 年 9 月聯合國首腦會議上由 189 個國家簽署聯合國千年宣言,正式做出此項承諾。9 數字素養(Digital Literacy):指的是利用數字技術確定、組織、認識、評價和分析信息的能力。26 10 經濟合作與發展組織(Organization for Economic C
64、o-operation and Development,OECD):是由 38 個市場經濟國家組成的政府間國際經濟組織,旨在共同應對全球化帶來的經濟、社會和政府治理等方面的挑戰,并把握全球化帶來的機遇。成立于 1961 年,目前成員國總數 38 個,總部設在巴黎。官方網站:http:/www.oecd.org/11 電氣和電子工程師協會(Institute of Electrical and Electronics Engineers,IEEE):是一個美國的電子技術與信息科學工程師的協會,是世界上最大的非營利性專業技術學會,其會員人數超過 40 萬人,遍布 160多個國家。IEEE 致力于電
65、氣、電子、計算機工程和與科學有關的領域的開發和研究,在航空航天、信息技術、電力及消費性電子產品等領域已制定了 900 多個行業標準,現已發展成為具有較大影響力的國際學術組織。國內已有北京、上海、西安、武漢、鄭州等地的 55 所高校成立 IEEE 學生分會。12 德國道德委員會關于自動互聯化駕駛的指導準則(German Ethics Commission on Automated and Connected Driving):聞名于哲學界的“電車難題”(Trolley Problem)在自動駕駛汽車時代不再只是一個哲學問題,而是每一個自動駕駛系統需要面對的真實問題,系統將決定在發生事故時撞向誰、
66、保全誰。該準則提供了一份自動駕駛汽車道德官方指導文件,首次嘗試對部分自動駕駛涉及的道德難題給出解答。13 劍橋分析公司(Cambridge Analytica,CA):CA 通過技術手段為客戶提供信息精準投放策略,成功案例包括英國脫歐公投及特朗普當選美國總統。2018 年 3 月,CA 被曝出違規竊取巨大規模數據的丑聞。27 瑞士蘇黎世聯邦理工大學教授 Effy Vayena:AI 與健康倫理原則和倫理實踐之間的遙遠距離整理:智源社區 詹好Eff y Vatena 本次的演講主題是AI 與健康:倫理原則和倫理實踐之間的遙遠距離,她以當下的新冠疫情為例,分享了在 AI 倫理實踐上的一些工作與思考
67、。一、AI 健康中的倫理問題Vatena 指出,隨著人工智能技術的流行,無論是私人企業還是政府,對于 AI 健康領域的投資都越來越多,可以說 AI 健康已經是當下一個足夠熱門的話題了。然而,不可避免的,AI 與健康的結合也帶來了諸多的問題,其中最為棘手的就是技術倫理問題,包括七個方面,分別是:(1)可靠性和安全性問題;(2)透明度和問責制問題;(3)數據偏見、公正與平問題;(4)對病人的影響問題;(5)對醫療人員的影響問題;(6)數據隱私和安全問題;(7)AI 的惡意使用問題。Vatena 認為,在此次 COVID-19 疫情中,由于在抵抗疫情的過程中廣泛地使用了 AI 技術,因此上述提到的七
68、個問題或多或少都在此次抗疫過程中得到了體現。這讓我們不得不去思考,在面對 COVID-19 時,我們對于上述問題是否引起了足夠大的重視呢?又或者說人們是否能夠足夠信任被廣泛使用 AI 技術呢?這就是所謂可信 AI的話題。圖 1:AI 技術在抗疫過程中廣泛使用 28 二、AI 倫理指導手冊接下來,Vatena 介紹了不同結構和組織為解決上述七個 AI 健康倫理問題所作出的努力。由于 AI 健康倫理問題紛繁復雜,且與實際引用場景有著非常密切的聯系,因此就需要人們制定一套 AI 倫理指導手冊來進行參考。Vatena 介紹說,在過去一年中,來自公共部門、私人部門和學術界等大約 84 個機構和組織先后發
69、布了類似的人工智能道德指南。例如Nature Machine Intelligence在 2019 年 4 月發布的AI 倫理指導的全球圖景手冊(The global landscape of AI ethics guidelines),該手冊嘗試為 AI 技術的信任問題提供一個討論框架。盡管這些指南由不同的人所撰寫,但是可以看到,在對于道德準則的要求上,它們并沒有太大差別,都強調透明度、公正、平等、無害、責任和隱私。換句話說,這些要求也是人們對于可信 AI 的共識。圖 2:全球圖景的 AI 倫理指導手冊盡管當前人們已經擁有大量著眼于全局視野的 AI 倫理指引手冊,但特定領域中專屬指導手冊卻仍
70、舊非常缺乏。相比于通用領域,這些工作是遠遠不夠的。為此,WHO 成立了一個專家小組來研究全球的 AI 健康倫理。這個小組并不是說要額外產出一系列的指引手冊,而是在現有的通用指引條例基礎上,構建一份針對于特定領域的指引手冊;以及嘗試將這些理論真正地應用于實踐之中。這項工作在今年年底或者明年年初可能會發布。三、AI 健康領域的倫理指導手冊最后,Vatena 圍繞 AI 健康應用程序(AI health apps),向大家介紹了撰寫 AI 健康領域倫理指導手冊所應該注意的問題。AI 健康應用程序是 AI 健康領域一個重要應用,人們使用這一類應用來收集健康信息,從而進行疾病的預測和預防。而正是因為這樣
71、的應用收集了過多的隱私信息,并對人們的健康狀態進行預測,使得大量的 AI 健康應用程序都應當接受審查。因此,一個合格 AI 健康領域倫理指導手冊,應當考察應用與實際預期是否符合問題、是否符合倫理開發標準問題、是否滿足數據收集自愿同意問題、算法透明性問題,等等。29 圖 3:AI 健康應用程序Vatena 舉了瑞士 COVID-19 患者追蹤應用程序的例子。她指出,在該應用程序開發過程中,最受重視的問題就是如何確保隱私安全。應用的開發者嘗試了各種不同的方案,以滿足在合法化的框架下進行信息的搜集,并能夠保證所搜集的信息得到合理的應用和保護。而正是因為在倫理理論層面有如此多的限制,因此如何將理論應用
72、于實踐就變成了一個巨大的挑戰。四、總結最后,Vatena 分享了在理論與實踐結合過程中一些注意事項與要點,主要包括:盡可能地實現其理論;不同行動主體、國家之間應當做好協調工作;至少部分地執行原有計劃;在開展任務時做到逐步和臨時嘗試;碎片化工作;更加協調地進行工作;要意識到這是人工智能的程序而不是一般的項目;保證項目的質量;注重實施與執行;注重創造性思考的激勵。30 阿蘭圖靈研究院 Adrian Weller:超越“平等的”群體統計機器學習中的公平性整理:智源社區 來建新第二屆北京智源大會上,阿蘭圖靈研究院 AI 倫理負責人、聯合國教科文組織(UNESCO)人工智能倫理特別專家組委員、劍橋大學機
73、器學習首席研究員 Adrian Weller 做了題為“超越 平等的 群體統計機器學習中的公平性”的報告。Adrian 認為,機器學習已在人們的工作和生活中被廣泛應用,對人類社會正產生越來越深刻的影響。確保機器學習算法具有“公平性”,避免算法歧視造成社會不公,對人工智能時代人類社會的健康發展至關重要。人工智能領域一般強調算法應對所有的對象一視同仁,即面對某一領域的不同數據集時,使用相同的模型進行計算,“平等”(Parity)地對待所有數據。這種思想使得人們在實操中過度關注通過加強訓練來提升算法結果的公平性,卻無法突破由于對象本身的群體統計差異所導致的算法準確度瓶頸,導致計算結果中總有相當一部分
74、樣本被錯誤地分類。一旦這種機器學習算法被應用于人類社會,這些被錯誤分類的樣本所對應的,就是真實的社會群體權益受到侵害,引發算法歧視和社會不公。如何解決上述原因導致的社會不公,使機器學習能夠助益人類社會?Adrian 認為,應該放松傳統機器學習算法中對于“平等”的過度追求和算法中過于嚴格的條件限制,從對象的特性出發(Preferred-Based),使用與對象特征更匹配的算法分別對不同的數據集進行計算。這種做法會使算法具有更高的準確性,從而使相關的社會群體獲得極大化的社會效益。以下為 Adrain Weller 演講的精彩要點介紹。Adrain Weller 指出,基于大數據的個人征信評級、企業
75、智能招聘、對犯罪率的預測機器學習已經融入到社會生活的方方面面,人們希望機器學習能夠在實現更加精確、有效、可持續的社會,中發揮更大的效能。然而,有一個巨大的隱憂正浮出水面:當機器學習在越來越多的領域中代替人類做出判斷時,人們是否能被這些算法“平等”對待?如何使機器學習在各行業的應用中具備公平性?要解答這些疑問,首先需要回答“公平到底是什么”。一、千古難斷“公平”事“什么是公平”似乎是一個哲學問題,幾千年來無數哲學家、政策家,甚至每一個普通人都為其費盡腦汁。一個有普遍共識的看法是,公平就是“在某件事上取得平等”,但這“某件事”到底是什么事,每個人卻各有各的看法。諾貝爾經濟學獎得主阿瑪提亞 森(Am
76、artya Sen)以哪方面的平等?(Equality of What?)為題的專著就專門探討了這個問題。在出現公平性缺失時,人們常用的方法是通過立法、行政命令等手段,彌補某些群體的先天“缺陷”造成的失能,以此來消除或控制群體間差異導致的社會不公。如美國立法實踐中的民權法、同工同酬法案、移民改革與控制法案等反歧視立法,都在一定程度上保障了弱勢群體的公民權不會因種族、膚色、性別、國籍等差異受到侵害。31 機器學習的核心在于算法。算法的本質是通過分析來獲取某類數據內在的規律(例如回歸方程),并利用此規律對該類數據的更多樣本做出分類或預測。算法性能一般用預測結果的準確度來衡量即對象在特定的場景下是否
77、被正確分類。受反歧視立法啟發,目前機器學習領域主要通過兩種途徑來保證計算結果的公平性:一是過程平等(Parity in Treatment),即計算中不涉及組間敏感變量(比如性別、民族);二是結果平等(Parity in Impact),即確保不同群體的計算結果是相近的?!皺C器學習應用于人類群體分類時,不同群體是否被公平對待”這類問題,被稱為人口統計的平等性(Democratic Parity)問題,這類問題分布極為廣泛,涉及社會的方方面。實現人口統計的平等主要有以下幾種方法:1.統計特征平等(Demographic Parity):例如在信用評級中,對不同性別或民族的申請人使用相同的權重進行
78、計算。2.機會平等(Equality of Opportunity):例如在還款率的預測中,男性群體和女性群體應該能得到相同的評價。3.精度平等(Equal Accuracy):例如性別這類屬性不應該影響機器學習算法的精度。二、基于群組偏好的機器學習算法:實現公平紐約時報在 2019 年 6 月 12 日報道了一個社會歧視的案例:一名美國檢察官發現,在過往的各類判例中,黑人比白人更容易受到指控。這名檢察官在檢視歷史數據和案例后發現,在與白人的行為完全相同的情況下,黑人也更容易受到警察的指控。同一時期,美國出現了一個使用機器學習預測犯罪率的實例,這個實例的計算結果也印證了檢察官的結論:在對不同膚
79、色群體的犯罪率預測中,黑人的犯罪率要遠遠高于白人。由此,一個值得思考的問題浮出水面:在各類犯罪記錄中,黑人的犯罪率更高,但這種高犯罪率受到各種偏見等較大的影響。使用基于這些犯罪記錄訓練出的機器學習算法預測犯罪率時,將可能過度預測(Over Prediction)黑人的犯罪率。為了調和過去偏見導致的“數據歧視”,對黑人使用不同于白人的“犯罪率預測函數”就很有必要了。圖 1:紐約時報報道,發現黑人比白人更容易受到指控 32 基于群體特征選用不同的函數分別預測的方法,一直以來都不被大多數學者接受,承受著各種阻力。但這種方法對于消除算法歧視,從“平等”邁向“公平”來說,是一種值得努力的嘗試。從經濟學的
80、觀點出發,為不同群體使用不同的預測函數進行預測,對機器學習超越單純的平等(Parity)而努力實現公平(Fairness)做出了積極的嘗試。對不同群體使用不同算法的設想,受“無嫉妒分配”(Fair-free fair division)的啟發。在無嫉妒分配中,所有參與者都對分配的結果感到滿意,這時整體的收益和滿足感是最大的。當這個算法應用于人口統計學問題中時,可以表述為:“無嫉妒分配”在群體中的應用可描述為對不同的群體使用更符合其特性的分配方法,只要每個群組都對分配的結果滿意,算法在整體上就具備較高的收益和準確性。2.1基于偏好的模型準確性更高由于限制了計算對象的敏感特征(追求計算過程中的一致
81、性而采用不同群體的共同屬性),過程平等導向(Parity Treatment)的算法只允許構建使用單一指標的分類器進行預測。下圖中 M 代表男性,W 代表女性,括號中的數字代表人數。綠色代表“真正例”(true positive,指模型將正類別樣本正確地預測為正類別),粉色代表“真負例”(true negative,指模型將負類別正確地預測為負類別)??梢钥吹?,基于性別的分布具有明顯的差異性:x 軸方向的分類器對女性有更好的預測性,而 y 軸方向的分類器對男性有更好的預測性。假設這些樣本在每個正方形區域內是均勻分布的。為簡單起見,考慮使用線性分類器劃分類別邊界。在過程平等范式下,每個人都會被相
82、同的分類器分類,當試圖使算法的準確度達到最大時得到如下結果:算法準確度為 0.83,所有的女性都被正確分類(綠色代表的“真正例”位于分類器的+ve 一側,粉色代表的“真負例”位于分類器的-ve 一側)。但這個算法將所有的男性都計為“真負例”(-ve),其中有 100 名男性被錯誤歸類,這對于被錯誤分類的男性來說是不公平的。為了改進男性群體的收益,此處查看基于偏好的過程公平算法(Preferred Treatment)性能。圖 2:過程平等(Parity Treatment)導向的分類器 33 在基于偏好的過程公平算法中,每個群組都將使用更適合其自身特性的分類器(圖 3 中表示為橫向虛線和縱向實
83、線),相較于使用其他分類器,群組通過此分類器得到的收益將是最大的,由此可以實現群組的無嫉妒分配。在新的分類結果中,男性和女性分別使用更適合自身群組特征的分類器,兩個群組都得到了正確的分類。此時,算法整體準確度為 1.00。使用“真正例”數量在該類別中的占比來表示群體收益,在使用女性分類器時(縱向實線),女性群組的收益為 66%,男性群組收益為 0;在使用男性分類器時(橫向虛線),男性群組收益為 33%,女性群組收益為 0,證明男性群組不想使用女性群組的分類器,女性群組也不想使用男性群組的分類器。圖 3:偏好過程(Preferred Treatment)導向的分類器以上過程可以概括為,基于偏好的
84、過程公平算法比單純過程平等算法更具靈活性,正因為沒有對過程平等的過多限制,算法允許在多種組合中使用最佳方案來優化算法的整體準確性。對于結果導向下的兩類算法性能也展示出類似的結果。如果使用單一線性分類器對兩個群組分類,分類后的兩個群組可以得到相同的收益,那么最優的分類方案將如圖 4 所示:由于結果平等的限制,必須以犧牲一些準確性為代價實現男女收益平等,此時算法整體準確率為 0.72,兩個群組的收益均為 22%。圖 4:平等結果(Parity Impact)導向的分類器 34 使用基于偏好的結果公平方案對此算法進行優化。分別使用兩個分類器對目標群組分類(圖 5),每個組都得到了正確地分類,算法整體
85、準確度為 1.00。兩個群組收益分別為 33%(M)和 67%(W)。因此,當從平等導向的嚴格限制中適當放寬限制條件,將更高的準確度和群組收益作為目標而使用多個分類器時,算法的整體性能得到顯著提升。圖 5:偏好影響(Preferred Impact)導向的分類器可以使用一個特定的數據集來驗證以上結論。ProPublica COMPAS 數據集是一個用于預測累犯犯罪率的工具,包含了 Browad Country,Florida 2013-2014 的數據,相關的人口屬性變量包括年齡、種族、性別、青少年犯罪等。被劃分為“真正例”(+ve)的人意味著將不再犯罪,劃分為“真負例”的人被認為將再次犯罪。
86、圖 6:ProPublica COMPAS 數據集對兩個族群累犯率(Recidivism Rates)的描述代表黑人,用紅色柱狀圖表示;代表白人,用藍色柱狀圖表示;柱狀圖的高度表示分類后不同人種的收益,灰色的柱狀圖代表當前算法的準確度。實體柱狀圖表示某群組使用了適用于自身特征的分類器,網格柱狀圖表示其使用的是適用于另一組的分類器。對五組計算結果的描述為:(1)無限制條件(Unconstrain)分類器:此算法的計算結果顯示出較高的準確度,但由于沒有限制條件,分類結果沒有取得基于偏好的過程公平或結果公平。紅色實體柱狀圖低于紅色網格柱狀圖,說明黑人更傾向于使用白人的分類器,亦即此種條件下沒有實現過
87、程平等。(2)平等導向的分類器:兩組的收益都很高,且互換分類器后的計算結果幾乎相等,說明兩個群組的差異性在計算過程中沒有體現出來,算法的整體準確度大幅下降。(3)基于偏好的過程公平分類器:兩個群組獲得的收益與使用對方分類器獲得的收益幾乎相等,算法的整體準確度在所有的計算結果中是最高的。35(4)基于偏好的結果公平分類器:每個群組都得到了不少于平等導向的分類器條件下獲得的收益,算法準確度也得到提升。(5)基于偏好的過程和結果公平分類器:相比于平等導向算法,此算法在群組收益和準確度上都得到顯著提升。圖 7:使用不同分類器對 ProPublica COMPAS 數據集的預測結果綜上所述,通過對基于偏
88、好的兩種公平性概念的算法在人口統計特征下應用過程的描述,證明了基于偏好的算法比平等導向的算法有更好的表現。但還應注意兩個問題:群組規模不同可能對計算結果造成怎樣的影響?以及當討論群組公平時,群組內部的公平性時怎樣的?2.2 群組規模和組內公平對整體公平性的影響在圖 8 中,若將群體劃分為男性和女性,處于兩組中的被接受個體(Accepted Individuals)數量是相等的;但加入藍色人和綠色人這個顏色變量后,組間的公平就被打破了藍色女性(Blue-Female)和綠色男性(Green-Male)兩個群體沒有任何收益。人們嘗試了許多方法來解決這類群組公平問題。此處將引入一種可以在組間公平和組
89、內公平中取得平衡的算法,使每個個體都能被公平對待。圖 8:組內差異與個體公平不平等指數(Inequality Indices)非常適合用于測量不公平性,比如許多人熟悉的基尼指數:圖 9 顯示了一定時期內英國收入的基尼指數,數字越小,收入水平的不平等性越小。圖中信息顯示出,英國的收入不平等現象隨著時間的推移而有所下降。36 圖 9:基尼指數公式和英國歷年基尼指數走勢(圖片來源:ONS)廣義熵也可被用來衡量公平性,它由一系列條件共同定義:個體的零歸一化(zero-normalization:每個人的收入都相等)匿名性(消除身份的影響)規模和人口不變性(預測結果不隨規?;驍盗堪l生改變)轉移原則(從高
90、收入者向低收入者的收入轉移降低收入不平等性)可分解的亞組 整體不平等=組間不平等(將每個人分配給組均值)+加權的組內不平等總和。保持群組分解后依然可以度量其公平性的特性,可以更好地展示組間公平性的變化與組內公平性之間的關系。將廣義熵指數用于此分配分類的情形中時,將給人們審視是否存在利益分配過程中出現不當收益情形的機會。圖 10:廣義熵指數公式使用廣義熵指數計算 ProPublica COMPAS 數據集后得到如下結果:圖 11:廣義熵指數對 ProPublica COMPAS 數據集的計算結果 37 通過控制協方差的閾值從 1 降低到 0,組間不公平性也隨之下降至 0,但此時白人亞組和全體個人
91、的不公平程度都有顯著的上升,亞組和個人的不公平性都經歷了一個不可預測的來回移動過程。因此,若只追求消除組間的不公平,將有可能導致組內產生潛在的不公平,導致整體不公平性上升。因此,廣義熵指數提供了一個能夠同時衡量組間公平性與組內公平性的統一的計算框架。三、機器學習公平性的未來展望在將機器學習應用于越來越廣的領域中時,人們不應陷入一種過度期望于通過算法或數據的平等來實現社會公平的“公平陷阱”,而應該著眼于社會事務的整個決策過程。以上的論述表明,機器學習會產生一些人們無法預料的結果,即使人們有著通過訓練算法使計算結果盡量公平的愿望,機器學習的“黑箱”及其帶來的不確定性,使整個過程的公平性不一定能得到
92、增長。要實現人工智能時代的社會公平,人工智能專家需要與社會學家、政策制定者、律師等所有人攜手合作、共同的努力。四、結語“人人生而平等”是人類作為一個集體對于社會性的宣言,是在社會發展過程中需要全人類共同努力去實現的目標?!叭巳松煌笔抢淇岫制綄嵉默F實,是在社會發展過程中需要人們去認識和接受的真相?;谄玫臋C器學習算法,正是立足于尊重過人與人存在客觀差別這一事實,但又追求人與人應享有平等的權利這一目標而被提出的。它超出了機器學習自身的范疇,從更高維度解決了由于機器學習自身局限性產生的算法歧視問題,使我們有理由期待在未來人類與人工智能共存的社會中,機器學習不僅可以在生產關系中,也能在社會關
93、系中創造價值。參考注釋1 機器學習-維基百科,https:/zh.wikipedia.org/wiki/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0 38 埃因霍溫技術大學 Vincent Muller 教授:非倫理與超級人工智能兩種特性是否能并存整理:智源社區 來建新在 2020 年 6 月 22 日舉行的北京智源大會“人工智能倫理、治理與客持續發展”專題論壇上,埃因霍溫技術大學教授,利茲大學研究員,艾倫 圖靈研究所的圖靈研究員,歐洲認知學會主席 euRobotics 主題組“道德,法律和社會經濟問題”主席 Vincent C.Mller 做了題為 非倫理與超級人
94、工智能:兩種特性是否能并存的演講,對人工智能是否將威脅人類生存的問題給出了他的答案。關于“人工智能的發展將引發人類生存危機”的討論最早源于“奇點主張”(Singularity Claim):許多人認為,人工智能的智力水平超越人類后,就將擺脫人類的控制;人工智能可能為了實現自己的目標而不顧及人類的安危,最終可能因為搶奪資源致使人類滅絕。Vincent 認為這種觀點存在漏洞,它混淆了兩種智能的概念:具備超越人類智力水平的超級人工智能(Superintelligence,概念 1)和只知不顧一切地實現目標,卻不考慮目標本身合理性的工具智能(Instrumental Intelligence,概念 2
95、)?!翱蚣埽‵rame)思考能力”是構成智能和智慧的一種基礎核心要素。Vincent 認為,如果我們發展出了通用人工智能,那么它將具備框架思考能力,即會對目標本身是否符合倫理進行評估。這樣,通用人工智能將不會做出“非倫理”的事情。然而目前的人工智能幾乎不具備框架思考能力,更有可能沿著工具智能的方向發展。在工具智能的發展路徑上,人工智能無法對目標本身進行思考。工具智能雖然可能為了實現目標而做出某些糟糕的事情,但卻不具備跳出框架的能力,在這種情況下人工智能的行為總是可控的,并不會對人類的生存產生威脅。因此 Vincent 認為,我們大可不必為人工智能將威脅人類的生存而擔憂。以下為 Vincent
96、C.Mller 演講的精彩要點。倫理性與超級人工智能(Super Ethical Machines)之間的關系問題,近年來成為越來越多困擾人工智能專家的問題。人們擔心隨著人工智能不斷發展,是否可能在某一天出現不遵循人類倫理規范的“反社會”超級人工智能?如果存在這種可能,人們是否能夠提前準備,將機器的超級智能與倫理能力結合在一起,以避免可怕的后果發生?帶著這個問題,Vincent 參照醫學術語,分為四個階段展開討論:首先明確癥狀,隨后進行診斷,接下來嘗試治療,最后對問題的預后進行展望。39 圖 1:Vincent C.Mller 演講大綱(1.癥狀,2.診斷,3.療法,4.預后)一、提出問題:超
97、級人工智能將威脅人類生存嗎?隨著人工智能發展近年來的突飛猛進,由“奇點主張”(Singularity Claim)引發的“人工智能將威脅人類生存”的觀點甚囂塵上。許多人認為按照目前的發展趨勢,人工智能總有一天會達到或超越人類的智力水平。到那時,人工智能將不再依賴人類,轉而進入一種自我推動的發展中。人工智能超越人類智力的時間點,就是所謂的“奇點”。按照這種邏輯,真正的人工智能其實是其自身制造的東西,因為從奇點開始,機器將自主地開發自己:開發新的系統功能,或不斷完善已有的功能。因此,一旦跨過奇點,人工智能自我推動的發展特性將使其能力遠超出人類的控制范圍正是這種可能的失控,引發了人們對超級智能的恐懼
98、。似乎人人都認同“人類是地球的主人”。當今的人類控制著地球的幾乎每個角落,這種控制力并非由于人類有最強大的體魄、最快的速度等特質,而是源于人類遠高于其他物種的智力水平。因此,當超越人類智力水平的超級人工智能出現后,人類對地球的統治地位將受到威脅,甚至可能由于新的智慧體出現而導致人類的滅絕。傳統技術的發展中總會有利弊兩面,但更多人認為超級人工智能將不像傳統技術那樣,它將變為一種“為達目標不擇手段”的冷血機器,這對人類來說無疑將是一種弊大于利的存在。然而,這種人工智能威脅論中存在漏洞,即他們假定超級人工智能具備超越人類的智力水平,卻又完全不具備對倫理的思考能力。那么對于人工智能來說,智能和倫理之間
99、的關系到底是怎樣的。40 圖 2:智能與道德/倫理的正交論(Orthogonality Thesis)提出人工智能威脅論的人們認為,人工智能的倫理能力與智能水平之間的關系可以用正交理論(Orthogonality thesis)來解釋。如笛卡爾坐標系那樣,該理論將道德/倫理能力定義為一個維度,將智能水平定義為與之垂直的維度,人工智能可能處于坐標軸上的任意一點:它可能是一個憨厚的傻瓜(對人類沒有威脅),也可能是一個窮兇極惡的天才。這種對智能和道德關系兩極化的表述方式具有極強的迷惑性,使得人們在理解人工智能的倫理性時陷入混亂。二、問題解析:混用了“通用智能”和“工具智能”的概念Vincent C.
100、Mller 指出上述困惑產生的原因,是人們在論證“奇點聲明”的不同階段對“智能”這一概念的界定發生了變化。首先,在定義超級人工智能為超越人類治理水平的人工智能時,使用的是通用人工智能(General Intelligence)的概念;隨后,在將人工智能定義為一種不顧一切實現其目標的“瘋狂機器”時,使用的是工具智能(Instrumental Intelligence)的概念。這種“瘋狂機器”的形象甚至出現在了一些學者的論文中:如有的學者定義了一臺專門用來處理國際象棋的機器,給其設定的目標是成為最強大的棋手。這臺機器為了獲取足夠的算力以實現目標,需要不斷獲取更多的電力,于是它開始切斷用于其他用途的
101、電源,關閉居民用電、醫療用電等等,以使越來越多的電力用在提升國際象棋處理能力上在正交理論中,人們認為人工智能具備遠超人類的能力(概念 1),卻無法對目標本身進行評估(概念 2)。正是對這兩種概念的混用引發了一種邏輯上的矛盾和對超級人工智能將威脅人類生存的擔憂。三、解決問題:厘清通用智能和工具智能Vincent C.Mller 認為有兩種方案可以化解上述矛盾。第一種方案是使超級人工智能具備倫理性。這種方案被正交理論的前提假設否定,它假設可以對人類產生威脅的超級人工智能沒有對問題本身進行思考的能力。這是一種很奇怪的假定:假如存在一個擁有智慧的個體,它可以理解各種各樣的事情,但卻無法理解世界上的各種
102、苦難,無法理解何為正義,也不理解為什么人類以現有的方式行事。人類會做自己認為是合乎倫理的事,因為對于人類來說合乎倫理的事就是正確的。但一個具備人類智能的人工智能系統可以做人類能做的一切事情,卻維度無法理解人類這樣做事的原因。這種假設是存在漏 41 洞的。因此,對于超級人工智能“既具備超越人類的智力水平,卻又不具備對道德和倫理判斷能力”的假設是不成立的。第二種方案針對工具智能的觀點。工具智能的觀點堅持認為當我們提到超級人工智能時,其實是指一種工具智能,這種智能始終相信對目標的追求具有某種價值。然而在深入剖析工具智能就會發現,工具智能很難被定義為一種“智能”。要解釋清楚這個問題需要先闡明“框架(F
103、rame)思考”的概念。舉例說明,假設存在如下場景:一個人被困在一個陌生房間里并試圖逃脫(“逃脫”是目標),他看到有一扇門,門上有一個把手。此時,如何逃脫的答案便浮現出來走到門邊,扭動把手。于是這個人走到門邊并轉動把手然而門卻沒有開。這個人試圖弄清楚為什么轉動把手沒有奏效,并為再次開門的嘗試進行建模。他或許會想,是不是門被鎖住了?于是他去檢查,發現門沒有被鎖住??赡芩麜l現門被從外面反鎖了,他會想為什么門被從外面反鎖?此時,這個人從“如何逃脫”的框架跳到“為什么這扇門被反鎖”的框架。他繼續思考:也許是某些人為了阻止他離開房間。于是下一個框架出現:“為什么他們阻止我離開房間”也許因為那些人有什么
104、邪惡的目的,也許因為外面有什么危險以上過程中,這個人從一種工具智能(完成“逃脫”這個目標)轉變到對目標本身的思考(為什么要逃脫、為什么無法逃脫)。很難想象當人工智能發展到超越人類一般智能的智力水平時,卻無法做到這種框架間的轉換??蚣荛g的這種轉換能力對各種智能代理(Agent)來說是一種基礎能力,也是實現“智能”的關鍵組成部分。如果無法提升框架能力,人工智能將很難變得越來越聰明。工具智能不具備框架思考的能力,因此并不能定稱為“智能”。四、問題預后:不必擔憂綜上所述,對于超級人工智能威脅人類存在的擔憂是源于對兩種“智能”概念的混用:人工智能既擁有超越人類智力的水平(通用智能),同時又不具備進行倫理
105、判斷的能力(工具智能),同時具備這兩個特性的人工智能將從溫順的良駒變為肆虐人間的惡魔。通過對目前人工智能領域發展的檢視可以發現,人工智能的發展正朝著工具智能的方向前進,這意味著人工智能并沒有那么“聰明”,因為工具智能對于框架能力的實現做得不好。工具智能無法對目標進行價值判斷而可能做出糟糕的事情,雖然這存在一定的風險,但也意味著工具智能比我們想象的要容易控制得多它們無法跳出人類為其設定的框架約束。通用智能的智慧特性和工具智能的非倫理特性,二者無法并存。因此,對于“人工智能將威脅人類生存”這個問題,我們不必太過擔憂。五、結語侯世達在其代表作哥德爾、艾舍爾、巴赫 中提到,思維如同一個怪圈,按照理性的
106、邏輯永遠無法完成躍遷。對于工具智能來說,無論擁有多強的算力也只能在人類設定的軌道中極速前行;對于通用智能來說,奇點出現或許也意味著人類將隨之發現自身思維軌道的出口,完成對自我認知的巨大突破。Vincent 的演講對于解答長期困擾在人們心頭的困惑,將提供一個有益的參考:具備超強能力卻沒有絲毫同情心的“瘋狂”的超級人工智能,在可預見的未來似乎并不會出現?;诖?,相對于擔心“沒有倫理性的人工智能威脅人類生存”,我們真正該擔心的是人工智能若被缺乏道德倫理的人們利用,將對人類造成哪些威脅。42 圓桌論壇:連接東西方 AI 倫理、治理與可持續發展整理:智源社區 楊香草2020 年 6 月 22 日,在北京
107、智源大會 AI 倫理、治理與可持續發展專題論壇嘉賓演講之后,由曾毅(智源 AI 倫理與可持續發展研究中心主任)主持組織了“連接東西方 AI 倫理、治理與可持續發展”圓桌論壇,出席嘉賓包括劍橋大學未來智能研究中心研究主任 Sen higeartaigh 博士、北京大學光華管理學院院長劉俏教授、曠視人工智能治理研究院院長徐云程、滴滴出行科技生態與發展總監吳國斌博士等。以下為智源社區編輯整理的嘉賓討論內容。Sen higeartaigh:非常榮幸參與本次圓桌會議。我們致力于研究強大的 AI 技術未來可能帶來的風險及其影響,從本質上來說這是兩個全球性課題。英國或中國單獨做這些事意義不大,全球合作才是出
108、路。首先我想講講自己與本次會議的緣分,我是如何通過各種東西方關系牽線搭橋才機緣巧合來到智源大會。我很榮幸與參加會議的一些專家學者有過合作。2017 年我和同事劉洋(注:劍橋大學哲學系及未來智能中心高級研究員)與各位同仁參加了 Benefi cial AI Japan 會議并簽署了東京宣言(Tokyo Statement,網址:http:/bai-japan.org/tokyo_statement/),闡明了 AI 發展的動機,這份宣言的最后一段這樣寫道:最重要的是,合作要面向全球。AI 將會對每一個文化和民族產生深遠的影響,因而所有文化和民族都應該在就如何開發和使用 AI 這一問題上擁有話語權
109、。AI 有望成為我們人類最偉大的成就之一。我們要同舟共濟,盡善盡美。僅僅依靠這次會議還不足以產生交集,幸運的是我們在東京遇到了博古睿研究院中國中心的宋冰主任 43(Berggruen Institute China Center,網址:https:/ 2018-2020 博古睿學者),她邀請我們參加了 2018 年春天在北京舉辦的跨文化 AI 倫理治理工作坊,那應該是我第一次見到曾毅。我們隨后也與新加坡同仁組織了一次會議,我的一些同事參與了北京大學哲學與人類未來研究中心的揭牌儀式。這里我要強調一下劉洋在哲學以及哲學決策論等領域所取得的卓越成果,此外,他還組織來自中國、日本和新加坡的同仁與英美國
110、家學者交流。我們在劍橋大學組織了一個學術工作坊,與北京大學、博古睿研究院中國中心、北京智源研究中心、復旦大學以及日本東京和英國的大學建立了良好關系。那么,我們為何要建立如此廣泛的合作關系網絡呢?因為從 2017 年至今,世界似乎變得越來越不友好。顯然,這是地緣政策導致的,但我覺得這與 AI 研究方法也有關系。近年來,關于 AI 助力全球霸權競賽的言論甚囂塵上,尤其是在中美以及小部分歐洲國家之間。2018 年,我和同事 Stephen Cave 合作發表了一篇論文 An AI Race for Strategic Advantage:Rhetoric and Risks,描寫了東西方國家之間存在
111、的基本而又無法解決的價值觀和權利的差異性。奇怪的是,我們把政策報告、媒體文章中的常見表述與我們近幾年舉辦的工作坊和學術會議中的對話進行對比,發現我們的學術交流對話達成了共識,觀點不同但互補。此外我們還發現,許多分歧實際上是由于誤解和缺乏對彼此文化背景的理解造成的。本次會議前不久,我和曾毅等人發表了論文來解決這個問題(注:Overcoming Barriers to Cross-cultural Cooperation in AI Ethics and Governance,通訊作者為 Sen S.higeartaigh,合作者有 Jess Whittlestone、劉洋、曾毅和劉哲,該論文發表
112、于 2020 年 5 月 15 日),我們研究了對于數碼科技的感知差異。例如,我們感知到的對于數據隱私的差異或許并沒有像人們常說的那樣相差甚遠,再比如中國政府已經積極采取了強有力的措施保護數據隱私,呼吁停用應用程序,重新設計,進行改革,而西方國家對它發展的規模和措施存在嚴重感知錯誤,誘發了爭議;關于社會信用評分系統(Social Credit Score System,SCS),我們參考了宋冰的相關資料。我們還發現某些文件的翻譯也存在差異,比如中國 2017 年印發的新一代人工智能發展規劃(New-generation Artifi cial Intelligence Development
113、Plan),翻譯處理方式極大影響被理解程度,一些譯文里的短語在原文里表達的是“(到 2030 年)要使中國成為世界主要的人工智能創新中心”,但在翻譯時被一遍遍地重新解讀,然后被美國媒體報道暗示“中國計劃在人工智能領域獨霸全球(Dominate the world)”,與中文本意相去甚遠。我們看了一些主要文件,發現絕大部分 AI 原則相關文件來源于人工智能北京共識(Beijing AI Principles)、人工智能白皮書追求卓越和信任的歐洲方案(White Paper:On Artifi cial Intelligence A European Approach to Excellence
114、and Trust)和阿西洛馬人工智能原則(Asimolar AI Principles),盡管有文化上的細微差別,人們可能會優先接受并實踐某些原則,文章還研究了合作帶來的巨大好處。我們知道 AI 技術會變的更強大,在未來社會普及應用,風險也會越來越高,所以人們要在安全、倫理和社會福利等關鍵問題上合作,因為這些問題會越來越突出。如果現在我們無法達成一致的建設性合作意見,將來尋求合作只會變得更困難。學術界在這方面扮演著重要角色,歷來重視跨文化交流觀點,相互學習。這種傳統不限于更好地理解技術應用工具和治理原則,也能讓人類更好地相互理解,相互激勵。如果政策家和公司之間的這種合作方式變的困難,那么學術
115、界的合作就變得更加重要,我們需要繼續為共享 AI 紅利尋求全球合作。我們的論文得到的反饋之一就是要有更多的多語言發表的論文和文件,讓知識分享和交流更加順暢便捷。我很樂意加入 AI 倫理治理和可持續發展相關的翻譯理論中心。我們發表的這篇論文有中英日三種語言版本供君閱讀。最后,我引用偉大的思想家孔子的一句話來結束演講,也是曾毅告訴我的一句話,“君子和而不同”。我認為人類面臨著巨大的挑戰,我們的目標不應該是試圖在 AI 倫理治理原則和實踐的每一個細節上達成全球一致。放眼 44 世界,社會應該是多樣的,有不同的文化背景和價值觀。因此,我們面臨的挑戰是,要在應該一致同意的地方達成共識,并為和而不同之處留
116、有余地,相互學習。劉俏:其實我分不清自己今天代表的是西方還是東方,因為對于本場論壇而言,我是一個陌生人。接下來我想分享對于 AI 倫理治理問題的看法。圖 1:從經濟學家角度尋找 AI 治理辦法從經濟學家角度來看,AI 治理就是 AI 能做什么和不能做什么。一個簡單的標準是 AI 應用程序應該通往“帕累托改善”(Pareto Improvement),指在不減少一方的福利時,利用 AI 技術改變現有的資源配置而提高另一方的福利,也就是說一些人變得更好并不會導致任何人變得更糟。我們如何將抽象的標準具體化呢?一個關于 AI 治理的通俗理解是做好權衡,AI 應用軟件應該解決社會存在的一級問題,并且納入
117、隨機結果。什么是社會的一級事件(First-order Issues in Our Society)呢?舉例來說,一是在中國生產率增長放緩、包容性增長不足、收入和財富不平等、信任削弱、環境惡化等是首要問題;二是勞動力轉移和錯位、收入和財富不平等加劇、訓練數據和算法中的潛在偏見、數據隱私、惡意使用和安全性等都可能導致意想不到的后果,必須加以解決。三是界限模糊。我們如何才能避免“解決方案本身就是問題的一部分”?我的建議是將潛在的問題放在聚光燈下,并努力在社區內外建立共識,這始終是關鍵的第一步。以中國為例講講社會首要問題及其潛在后果。AI 技術最大的潛力是提高生產力,當今世界中國有最大的經濟體量(編
118、者注:目前中國公認是世界第二大經濟體),但提及生產力,中國僅為美國的 43%,與世界上最發達的經濟體相比,中國經濟規模龐大,但效率低。生產力是高質量發展的關鍵,中國和其他國家的 TFP(Total Factor Productivity,全要素生產率,指企業等生產單位作為系統中的各個要素的綜合生產率;TFP 就是生產力,TFP的提高就是產業升級與生產力的發展。)如下圖,其中將美國作為基準 1。45 圖 2:中國:提高生產力是高質量發展的關鍵由此得出結論,到 2035 年,人們相信中國會成為世界上最大的經濟體,TFP 提高到 0.65%,這是非常保守的目標,意味著經濟增長速率要比美國高 1.95
119、%。目前美國的 TFP 增速為 0.7%-1%,中國必須達到或保持2.5%-3%的 TFP 年增長速率,這是很困難的,因為中國已經基本完成工業化進程,幾乎沒有哪個完成工業化進程的國家的 TFP 能達到 2%。因此這是巨大的挑戰,也促使很多人將希望寄托于 AI 技術,AI 技術或許可以幫助中國保持 TFP 的高增長速率,為未來發展目標提供潛力空間。圖 3:2035 年中國經濟增長目標以上就是中國社會的首要問題,我們從 AI 應用角度看到了利好的一面,但是再看另一面。從圖 4 中可以看到中國經濟結構情況,農業轉化 GDP 占比不足 8%,同時,27%的勞動力位于第一產業,這嚴重拉大了城鄉居民收 4
120、6 入差距,很明顯 27%的勞動力只產生了不足 8%的 GDP。未來中國要持續提高生產力,參考目前英德法等國家的勞動力比例,到 2035 年,中國要將超過 20%的農業勞動力轉移到第二、三產業;每一產業內部也將會有更多的重新配置??紤]到 AI 應用,一方面它會造成大量失業,另一方面,我們也要看到希望,希望 AI 技術能夠加速產業重新配置的進程。圖 4:中國勞動力市場轉移和錯位最后,我總結一下,我們要做到如下幾點:1.充分意識到 AI 應用的意料之外的后果,愿意討論倫理問題和治理問題,積極行動,在利益相關者之間達成共識;2.建立有效機制推動社區內外的討論,使 AI 從業者意識到 AI 倫理和治理
121、有關問題,尋找最佳實踐并培養自律意識;3.學習美國經濟學家鮑莫爾(William Jack Baumol)于 1967 年提出的“鮑莫爾成本病”(Baumols disease)的見解:經濟增長未必受制于我們擅長的領域(例如自動化和 AI 應用),而是受制于基礎的而又難以改善的部分;4.AI 治理就是我們如何理解“基礎的而又難以改善的部分”。一個嘗試性建議是我們需要建立一個 AI 應用的約束模型。徐云程:我將從公司層面來闡述,因為 AI 倫理產生約束力以及圍繞這一主題的討論真正落實到行動也離不開這一視角。接下來我會介紹曠視在 AI 倫理治理的行動與收獲以及對于未來的考量。47 圖 5:確保 A
122、I 的可持續發展我先解釋下可持續發展(Sustainability)的概念對曠視而言的重要性。拿曠視公司來說,可持續發展意味著兩方面的內容,一是如何建立一個可持續發展的 AI 公司,進而發展可持續的 AI 產業;二是作為 AI 公司,我們在思考 AI 技術能如何為可持續發展社會略盡綿薄之力。那么,我從曠視自己的故事講起。大約是在一年前,我們意識到引入 AI 倫理并將其納入公司發展策略是多么重要。這一契機源于公司創始人兼 CEO 印奇,他畢業于清華大學,依靠深度學習的專業技術背景,和其他兩位清華大學畢業生于 2011 年共同創建了該公司。創始之初,AI 技術還沒有達到現在的火爆程度??梢钥闯?,他
123、們是堅定的技術擁躉者,跳進了深度學習的技術領域,以計算機視覺為切入點開始探索。他們是技術造福社會的硬核支持者。一年前,他開始給我們傳達 AI 倫理的必要性,認為公司要建立 AI 倫理原則。一開始,這對于我來說是很新鮮的。我通過學習了解到,當時國際上已經有了很多關于 AI 倫理的討論。得益于智源研究院等學術機構、曾毅這樣的支持者以及其他國家的科技公司,我們很快建立了公司的 AI 倫理原則。第一步,在 2019 年 7 月,我們推出了自己的人工智能應用準則,涵蓋了六個維度。這一準則其實是公司信仰的基石,不僅如此,身為務實的 AI 科技公司之一,我們要向外展示如何使準則落地實施。第二步,由于話題太新
124、,我們很難寫出執行計劃。因此,我們需要一個機制,需要一個公司外部的智者來幫助我們。于是我們向董事會報告,成立了 AI 倫理委員會。除了公司內部員工,該委員會還有公司外部委員,他們能夠提出不同的觀點及行動指南,有時會挑明事情的本質并給予真誠反饋,工作復盤,調整走向,指出對錯。我們意識到公司出臺AI 倫理治理原則需要聽見不同的聲音,這就是我們成立 AI 倫理委員會的初衷。第三步,我很自豪的是,在公司內部成立 AI 倫理管理委員會。這么做的理由是,盡管 AI 倫理委員會是高規格的,但公司要在數據庫方面做到領先地位,在公司內部就要有管理團隊來考慮準則的遵守與實施。我們一手提撥了部分符合要求的公司高管,
125、組成了這一管理委員會,委員陣容包括從公司科研主管到 HR 主管。內容包括如何保護數據,如何訓練模型以及告知公司員工遵守倫理原則做出編碼產品,這些是非常有效的模式。公司外部委員及公司內部董事會管理委員形成管理架構,并進行有效運轉。今年年初,公司積極倡導 AI 倫理,試行 AI 治理模式,因為我們很快意識到工業界存在很多共通的問題亟待解決。作為科技公司,這些解決辦法使用了數據庫案例,公司有很多科學家來解決針對數據庫的實際應用問題,48 除此以外,也要與不同對象合作尋求答案,需要進行深度研究項目。這也是為何在年初我們宣稱要建立 AI 治理研究院。該研究院也不單單服務于曠視公司,它表明了公司想要與研究
126、項目的各方建立聯系的態度。以上是關于曠視公司的故事介紹,我們歷時一年半來做這件事,剛才我解釋了公司開展 AI 倫理治理的理由。接下來回答最開始提出的第一點,一個可持續發展的 AI 公司如何引領可持續發展產業。公司這樣做不只是因為我們是理想主義者,更為重要的是,當我們回顧歷史,技術進步的流程是先向前發展,然后遇到風險與問題的時候后退和治理。AI 業界為此付出了慘痛的代價,這對于業界和公司都是沉重的打擊。因此,業界與公司要形成一種平行模式,就是說,在發展技術的同時,AI 倫理考量和 AI 治理也要攜手并進。我們不允許 AI 倫理與治理處于滯后于技術的狀態,這是曠視公司的態度,也是遵循的重要策略。盡
127、管仍有很多問題需要面對,這一模式也要執行?!耙陨碜鲃t,言行一致”(Model the way,walk the talk)是我們公司奉行的原則。以上是對于第一點的闡釋,至于第二點,AI 公司能為社會可持續發展做點什么?我很感謝我們有很好的朋友,包括智源研究院和北大光華管理學院,有如此強大的領導力量,給予了曠視很好的建議來服務于構建可持續發展的社會。接下來我給出一些例子來說明。年初,我和一位學者討論,曠視公司在自身經歷與實踐以外,可以喚起人們的創新意識、推出意見領袖,在中國宣稱 AI 治理是商業的新模式,可以實現很多可理解的工業發展,是可持續的快速發展道路。我們做了一些公司的 AI 倫理的個案分
128、析,發布了全球 AI 治理十大事件的文章。我們在文中梳理清楚了一些典型事件,當然并不代表我們認同它們的處理方式是完全正確的。這是我們做的第一件事,第二件事是我和曾毅多次討論過的,即如何回應公眾的關切和疑問,但目前 AI 產業與公司之間沒有一個現成的交互模式。我從新聞里讀到了很多訊息,我知道哪些是真的,哪些是荒唐的。今天我聽見不止一位演講者提到透明度,透明對話才能建立信任。因此,我們要做的是告訴人們,沒啥可隱藏的。年初,我們在中國與公眾進行對話,其中一些是 AI 倫理的挑戰者,我們將一些普遍的問題匯總成 10 個問題,并邀請觀眾分享自己的觀點。令人吃驚的是,觀點差別很大,記得有篇短文在 72 小
129、時內有超兩千萬的點擊量,有一千多人評論。這件事說明,一旦有了正確機制,且愿意與公眾互動,他們就會和你交流想法。我們隨后消化和整理了這些反饋,快速整合為四點公眾關切的內容:一是 AI倫理與法律的本質在新興領域的作用;二是經濟發展與 AI 技術發展背景下的社會公平;三是問責機制和利益分配;四是個人安全和隱私保護。這四點的共同目標可以驅動集聚經濟、技術、哲學及決策者利益各方,這種團結一致也是我很欣賞智源研究院為可持續發展而努力的方面??沙掷m發展目標(SDGs)有 17 個方面,宗旨是為人類福祉而努力?,F在大家已經達成了共識,AI 技術服務于可持續發展是正確的道路,將人們團結起來,這也是我們研究院加入
130、可持續發展目標項目的原因??偨Y一下,我們聚焦于兩點,一是建立社區 AI 治理模式,這與聯合國 SDGs 的第 11 條契合,因為大部分人生活在城市和社區。;二是信任 AI,具體來說,是信任計算機視覺。作為負責任的 AI 公司,納入 AI 倫理治理,將其內化為公司文化,形成和實施自己的治理模式,與不同的團體合作,建設可持續發展的未來。最后,我講一下機制,本場圓桌論壇主題是連接東西方 AI 倫理治理為 AI 的下個十年努力。雖然是中國人,但我是在美國接受的教育,也在美國公司工作多年,我認為我自身體現了中西方之間天然的連結。單看我們自己,我們生活在某個具體的國家,但從 AI 技術角度來看,東西方并無
131、本質差異,我們聚集起來為了一個共同的目標,利用影響深遠的 AI 技術為未來十年,為子孫后代,積極合作,不管是作為公司一員,還是身為市民。結合曠視和我自身經驗,有三點很重要:一是全球對話與交流,人們需要交流、分享和透明的信息。二是付諸實踐,49 許多事情要植根于應用,因為公司是接近市場和用戶的。三是有很多團體對 AI 治理感興趣,現在就是關注實際和嚴肅話題的時機,指出問題很容易,但解決問題很難,這需要東西方各個團體通力合作,人們不該避開這次挑戰。吳國斌:感謝曾毅的邀請。我會介紹滴滴相關內容以及我對 NGO(非政府組織)的熱情。滴滴是國際領先的便捷移動出行平臺,我們公司提供了基于移動應用的全方位交
132、通和生活方式服務。滴滴在亞洲、拉丁美洲、澳洲等地共有 5.5 億用戶,平臺每年提供出行 100 億旅次,可以說是排名第一。說到此次論壇主題,我想講下滴滴為實現 SDGs 所做的努力和貢獻,它的 AI 項目實施。滴滴是為緩解交通和環境壓力而存在的,我們借助 AI 技術能力把智能出行進行本地化創新。例如,滴滴利用 AI 和大數據技術設計智能出行方案,包括交通出行大數據平臺、智慧信號燈、安全駕駛分析等。我們緩解了交通擁堵,提升了道路安全,促進了可持續的居民社區建設。滴滴采用大數據技術和 AI 算法來設計可預測調度,規劃路徑,計算最優上車點,減少空駛現象,發展共享出行,叫拼車業務(Car poolin
133、g business)。該業務可以提高資源利用率,減少二氧化碳(CO2)排放量,從 2018 年到 2019 年,滴滴 CO2 減排量達到 130.3 萬噸,相當于 68 萬車輛一年的排放量(編者注:口誤說成 1300 萬噸,已據2020 滴滴平臺綠色出行白皮書校正)。2018 年,滴滴開始探索利用 AI 技術平臺為社會謀福祉,與數十家高校、研究機構和社會組織合作,核心研究方向包括安全性(Safety,司機安全、司機健康和環境狀況),移動出行(Mobility)和輔助功能(Accessibility),例如選擇優良空氣質量地圖以解決環境問題,優化新能源整合方案和改進智能出行技術,以及司機智能助
134、手介紹。另一例子是滴滴推出的蓋亞數據開放計劃(GAIA Open Dataset,網址:https:/ dataset)、POI 檢索數據(POI retrieval dataset)和大規模行車視頻數據集(The large-scale driving video dataset)。最后,實現 SDGs 需要創造性與創新性的參與,同時 SDGs 也繪制了發展藍圖,為企業發展模式提供機遇、創新和社會責任實踐。此次圓桌論壇舉辦之前,“新一代人工智能和可持續發展目標(AI for SDGs)”研究項目已經啟動,滴滴非常愿意支持此項目,與其他機構一起推動 AI 創新,實現全球可持續發展,滴滴也有意支
135、持交通出行改革、可持續發展城市、人類福祉等研究項目,以及公眾關切問題,比如利用 AI 技術做一些更有意義和價值的事情,基于 AI 倫理原則實現人類和諧、遠離傷害、實現公平和肩負責任感。謝謝。曾毅:非常感謝。接下來我們進行互動討論,Vicent(編者注:Vicent Muller,埃因霍芬理工大學教授,IEEE 機器人與自動化學會機器人倫理委員會共同主席)提出了一個有意思的問題,我覺得是向劉俏提問的,請 Vicent將問題復述一下可以嗎?Vicent Muller:首先感謝本次會議,受益良多,我想提的一個的問題是:中國是否從負面消極的教訓中汲取了經驗呢?中國發展迅速,不斷追趕美國或其他國家的技術
136、水平,但我作為西方一派,并不覺得我們所取得的成就有多耀眼,發展的曲線進程中也會犯錯,我認為中國也會遇見同樣的問題。我兒時生活在德國的小地方,深受鋼鐵廠等重工業污染影響,中國十幾年后或許也會面臨類似問題。所以要總結教訓,改正錯誤,減少環境污染,避免社會問題,中國避開我們的失敗可以在以后少走彎路。50 劉俏:這是個好問題。中國從美國和其他發達經濟體學到的是做好財富分配。人們很大程度上認為,全球化經濟發展目標不能惠及所有人,中國確實有很多人還未享受到經濟發展帶來的福利。以美國為例,法國經濟學家托馬斯 皮凱蒂(Thomas Piketty)系統評估了美國 1978-2015 年間的財富分配,發現占社會
137、人口 40%的中產階級人均 GDP 在過去四十年里增長不足 1%,證明這部分人并未共享經濟發展的成果,資本過度追求效率且不關心社會問題。人們討論追逐美國夢的過程中出現的財富公平問題,所以中國要在發展過程中警惕分配不公問題。我們討論了 AI 技術應用,同時也要思考如何避免重蹈覆轍,做好財富分配,而這些也屬于可持續發展和AI 倫理治理的內容。Vicent Muller:財富分配確實是一個事關 AI 技術的重要問題。工業發展不依賴大量資本涌入或占據某個具體地段,而是人們使用產品,然后供應方一夜暴富,AI 技術會加速這一進程。您所說的情況在歐美有所不同。曾毅:謝謝。從 Vicent 的提問中,我們可以
138、借鑒西方的發展歷史。我想分享一個我喜歡的近期發生的故事,講講東方可供參考的做法。大約一年前,有些公司想在中國大學教室應用面部情緒識別系統,結果大部分師生都不同意,教育部也叫停該了行動,以防發生不好的事情。不出所料,西方媒體對此批評不斷。而在之后不久,卡耐基梅隆大學(CMU)推出了一款自認為酷炫的應用(注:指的是 CMU 推出的 OpenPose 人體姿態識別項目),除了可以識別面部表情,還可以識別課堂上的手部運動。對于技術革新者而言,他們認為這是很棒的嘗試。同樣的故事才剛剛在中國上演過,卻有評論寫道或許中國并不在意 AI 倫理,這顯然是有失偏頗的。其實在中國大家也不太支持這樣做,又怎么能指望西
139、方社會接受呢?我想表達的是,西方學習的這個東方故事,或許在東方自己的文化里并不被接納。出于各種考量,這樣的嘗試或許應該暫時擱置?;蛟S這就是東西方相互學習的原因吧?,F在有兩千多位觀眾參與這場視頻會議,我們來挑選一個觀眾問題進行回答。我將這個中文問題翻譯一下:現在 AI 分析師可以識別語音、人臉、指紋以及手寫字體,技術獲取這些數據相當容易,尤其在疫情期間,我們必須居家工作,用 Zoom 或者騰訊會議線上辦公,想要獲取我們的數據,尤其是人臉數據,就更簡單了,或許此時我們的面部數據就正在被收集?,F在人類如何戰勝疫情,如何應對 AI 獲取更多的個人隱私數據?是否有更好的方式約束可獲取的信息?尤其在疫情期
140、間,我們怎樣保護自己的個人信息不被泄露?現在視頻會議很流行,初衷是提供交流互動平臺,但現在也引人擔憂。有沒有可以在啟動視頻會議時保護隱私數據的技術呢?請大家回答一下這個問題吧,有請 Vicent。Vicent Muller:我認為這個問題很重要。尤其是在獲得政策力量支持的情況下,現在是否存在用戶滿意的數據使用技術呢?例如,中國政府及其他政府的軟件加工,是對國家的貢獻。我今年開設的數據科學倫理課程中討論了報告新冠疫情的移動應用,這些應用需要的數據或多或少。遵循只獲取運行所需數據的原則,就能做成一個好的系統,比如連接藍牙時不獲取設備位置信息和存儲信息。英國人民也很反感存儲信息和通話記錄等被收集,民
141、眾的反對會導致政策損失甚至經濟損失,而這源于公司技術產品存在不合理收集用戶數據的行為。我們現在使用的 Zoom 視頻會議軟件在疫情期間風靡歐洲,但是我所在的大學明確告知師生不支持使用 Zoom,因為校方認為該軟件存在隱私風險。確保數據安全需要共同努力。Sen higeartaigh:我同意 Vicent 所說的,這是很重要的 AI 技術涉及過度收集數據的倫理問題。目前在英國與此相關的討論很多,而 Vicent 提出的觀點很重要,究竟只獲取應用運行所需數據的界限在哪里?數據存儲期限是多久?數據是如何存儲的?怎樣確保數據安全?是誰在怎樣的情況下有接觸數據的權限?舉例來說,我 51 很愿意將我的信息
142、提供給 NHS(National Health Service,英國國家醫療服務體系),我想知道我的個人數據會被用來做什么。我想強調的是,就算部分信息匿名處理,但將各個軟件獲取的數據拼湊起來也能得到超出我們本來預期的個人信息,我們要做好權衡。比如在英國追蹤新冠患者密切接觸者的過程中,以上信息就很有用,可以集中關注患者活動軌跡范圍,了解英國疫情傳播情況,這有助于拯救生命,考慮到倫理問題,疫情傳播會加重醫療服務人員的負擔,所以要綜合實際情況進行考慮,在危急時刻做出正確決策,收集更多個人信息,而在疫情緩解之后停止這樣的行為。正如 Vicent 所言,在線會議平臺在用戶使用時要求提供個人數據,還收集信
143、息和視頻數據。用戶較多的軟件系統如果有漏洞,可能會發生惡意攻擊性犯罪活動,我們要警惕系統的疏忽。近年來在英國對計算機系統批評的聲音很多,我們要對信息安全提高警惕。徐云程:以上二位發言給人很多啟發,我想從業界和公司的角度講三點個人觀察:首先,應對更大的話題和挑戰需要群策群力。一是決策 者要考慮監管問題,這是重大決策。監管不明的情況下,公司該要如何指導行動呢?比如鼓勵公司自我治理,不止一家公司提出了自己的數據隱私保護原則,這在東西方都越來越普遍。二是經濟機制。劉俏院長在這方面就做得很好,當意識到個人數據也有價值的時候,就像個人財產不容侵犯一樣,人們會更加保護個人信息,這是一種經濟鼓勵的動力。三是技
144、術本身會尋找技術挑戰的解決辦法。業界公司會盡力在節約成本的情況下使用最先進的技術,我認為需要結合各種辦法來解決問題。其次,面部識別技術很火,有很多相關討論,可以利用這項技術找回走失兒童。所以技術應用要設定使用場景,有了具體場景,討論才有意義,才是公平地看待技術應用,才能去思考數據存儲周期等問題,要看重使用的目的。我們要對此更加具體和嚴謹。最后,“不知為不知”。AI 技術處于商業化的早期階段,我們要有敏捷的思維方式,保持學習,不斷思考,及時調整。邊做邊學,先做后學,要有互聯網思維,來有效應對這個宏大話題的未知與未來。曾毅:謝謝。今天我們從東西方視角討論了關于 AI 治理與可持續發展的現在與未來。實現目標的方法多種多樣,在場的各位也付出了很多努力??茖W家和業界從業者有共同的目標,不僅考慮政策因素,還有我們對未來的責任感,全球政策合作非常重要,經濟組織和工業界要共同努力創造全人類的美好未來。感謝各位的參與和努力,我相信這只是一個起點。歡迎各位與智源研究院共同見證面向可持續發展的人工智能智庫(AI4SDGs Think Tank)的成立,以及面向可持續發展的人工智能公益研究計劃(AI4SDGs Research Program)的發布。