《賽迪:人工智能和數據倫理:從一般性原則到指導性原則(2021)(26頁).pdf》由會員分享,可在線閱讀,更多相關《賽迪:人工智能和數據倫理:從一般性原則到指導性原則(2021)(26頁).pdf(26頁珍藏版)》請在三個皮匠報告上搜索。
1、- 1 -2021 年年 12 月月 27 日日第第45期期總第總第 518 期期人工智能和數據倫理人工智能和數據倫理:從一般性原則到指導性原則從一般性原則到指導性原則【譯者按【譯者按】2021 年 8 月, 大西洋理事會發布 人工智能和數據倫理:從一般性原則到指導性原則研究報告。報告認為,人工智能和大數據運用面臨著保證公平公正、隱私、自主、透明度和可說明性方面的挑戰。報告分析了從一般性倫理概念和原則過渡到有指導性和實質性內容原則的重要性及難度,提出了實現公平公正性的指導性舉措,包括從優化組織結構和治理模式、拓展視野與合作方式、加強培訓與教育、注重倫理的應用實踐、構建人工智能和數據倫理社區等。
2、智庫世界工業研究所對該報告進行了編譯,期望對我國有關部門有所幫助?!娟P鍵詞】【關鍵詞】人工智能人工智能數據倫理數據倫理指導原則指導原則- 2 -一、一、概述概述研究人員、企業、政策制定者和公眾已普遍意識到,人工智能和大數據的運用面臨著公平公正、隱私度、自主性、透明度和可說明性等方面的挑戰,為此,人們越來越多地希望各種組織能夠解決這些問題,但是現階段仍缺乏對實際行動強有力的監管指導。為了應對上述問題,私營企業、非政府組織和政府實體等許多組織已經開始制定人工智能或數據倫理框架和原則,表明其致力于解決人工智能挑戰的承諾和決心,最重要的是,如何切實推動這些框架和原則落地。確定一套倫理概念并利用它們制定
3、一般原則是闡明人工智能和數據倫理的關鍵組成部分。此外,已經制定的許多框架之間存在相當大的趨同性,雖然這些框架的重點可能是個人、社會或系統(見表 1),但它們都將圍繞核心概念相互融合。目前基本倫理概念已達成共識,這表明我們在理解負責任的人工智能和大數據開發和應用方面已經取得進展。表 1:規范概念個體導向個體導向社會導向社會導向系統導向系統導向隱私公平公正透明度自主民主可解釋性包容性/可及性社會福祉責任性人工智能和數據倫理規則圍繞若干倫理概念相聚合,其中一些概念重點關注個人利益- 3 -和權利,如保護隱私、促進自主和確??杉靶?;另一些概念則聚焦社會問題,如促進公平公正、維護民主制度和提升社會福祉;
4、還有一些概念側重于技術系統的特性,如系統如何實現充分的透明度或可解釋性,從而確保決策的清晰解讀以及責任劃分。不過,闡明價值觀、倫理概念和一般原則只是應對人工智能和數據倫理挑戰的第一步,而且在很多方面也是最簡單的一步。相關聲明文件雖然看似雄心勃勃,但實際上采納成本很低,只能算是口頭承諾。更艱巨的工作包括:具體說明概念、原則和承諾的實質性內容,即闡明公平公正、隱私度、自主性、透明度和可解釋性在特定環境中的實際內容和要求;培養專有能力,在實踐中實現這些概念、原則和承諾(各項任務的內容及其相互關聯性見表 2)。完成這些任務不僅需要縱向的努力和資源,還需要多學科專業知識的相互配合。 在此過程中, 各個組
5、織需要確定行動的優先次序,修改現有的組織流程和結構,這也是落實指導原則的關鍵步驟。如果做不到這點,任何承諾或原則都只能是“倫理洗白”。人工智能和大數據的開發和應用將不可避免地存在倫理問題,面對這種困境,政策制定者、員工、消費者、客戶和公眾將認為相關行業未能充分履行自己的承諾。表 2:從價值觀到可行性承諾和評估標準倫理倫理根據規范內容,通過治理來指定和滿足價值觀的工作治理治理在整個組織內部指定規范指導并根據具體情況加以應用的能力規范內容規范內容將基本價值觀和核心概念轉化為指導行動的具體規范和承諾的實施過程- 4 -基本組織價值觀基本組織價值觀核心概念核心概念原則原則承諾承諾規范規范基礎基礎實施實
6、施定定義義指出需要促進和保護的內容體現或代表基本組織價值觀說明尊重概念和實現價值觀的一般規范或指導原則描述遵守將要采用或實現的原則的具體方法提供衡量承諾實現水平的標準示示例例尊重個人, 誠信為本, 客戶至上隱私、平等、公平公正、 自主、 民主、 透明及可說明性不歧視、保護、 包容、 平等、 正直行事無差別考量、資格推定、 讓利于顧客是否可以解釋人工智能決策, 不同群體實現客戶服務需要多久本報告旨在實現以下目標:說明從一般倫理概念和原則到可以指導行動的實質性內容(以下稱為規范內容)轉變的重要性和復雜性;對相互關聯的兩個重要核心倫理概念,即公正以及透明度進行詳細討論;指出從一般倫理概念和原則轉變為
7、更具體的規范內容并最終實施這些內容的策略?!耙幏秲热菀幏秲热荨倍x定義“規范”一詞共有兩種用法。一種是作為描述性詞語,用于說明行為特點; 另一種是作為倫理性標準, 用于規定應該做什么。通常情況下,應該做什么(規定性內容)與當前正在做什么(說明性內容)存在差異。人工智能和大數據的倫理規范及廣泛運用需要有效的指導原則,因為目前的許多做法都存在問題。例如,在人工智能和大數據的開發和使用中,應避免存在長期歧視性做- 5 -法和不平等對待。因此,規范內容指的是關于應該做什么樣的指導。相比于單純描述當前正在做什么,規范內容更是針對個人、團體和組織應該做什么所制定的合理標準、原則和實踐。規范內容(從倫理和規
8、定的意義上來看)最終基于社會和組織價值。本報告研究的則是將這些一般價值轉化為具體的可行性指導和承諾的過程。因為具體的原則和承諾與情境密切相關,而且不同的價值觀有時會彼此矛盾,所以這一過程并非易事。二、案例分析:生物倫理學中的知情同意二、案例分析:生物倫理學中的知情同意對現有案例的反思有助于說明從一般倫理概念向指導行動的規范內容轉變過程中所面臨的挑戰。 知情同意 (informed consent)被廣泛認為是醫學倫理臨床實踐和研究的重要組成部分。但我們將要反思這一原則從何而來,有何含義以及實現這一原則需要什么。知情同意可以保護個體的自主權,因此被視為醫學和人體研究的倫理實踐要求。尊重個體的自主
9、性意味著不操縱、不欺騙。自主權包括有權選擇是否參與研究試驗或接受醫學治療。知情同意是實際操作中尊重個人自主權的主要方式。那么,在實踐中滿足知情同意標準的要求是什么?當明確表示知情同意時,必須滿- 6 -足三個主要條件:披露、理解和自愿(見表 3)。披露是指向患者、研究對象或其代理人說明具體情況,為他們將要作出的決定提供清晰、準確的相關信息。理解是指以患者、研究對象或其代理人能夠理解的方式或形式向其呈現信息。自愿是指患者、研究對象或其代理人在沒有不當影響或脅迫的情況下作出決定。披露、理解和自愿三個主要條件本身必須具備可操作性,這也是機構審查委員會、醫院倫理委員會、專業組織和生物倫理學家的工作。他
10、們負責制定能夠滿足知情同意條件的最佳實踐、標準和流程, 例如何種信息需要提供給潛在研究對象; 對患者來說,什么程度的認識才構成理解;以及醫生如何在提供專業意見的同時不對患者的決定產生不當影響。此外,標準和最佳實踐可以且必須根據具體情境而定。例如,急診和住院肯定采取不同的標準和最佳實踐方式。知情同意原則在醫學和研究中的應用已長達幾十年,但為應對新問題、符合新重點和適應新情境,知情同意原則一直在不斷改進,以確保能夠保護個人自主權。知情同意原則旨在保護自主權的價值,表達對個人的尊重,而對知情同意原則的普遍承諾只是一個開始。我們必須清晰地闡明和實施這一原則,以使其在實踐中發揮有效作用。人工智能和數據倫
11、理原則也是如此。表 3:在醫學研究中尊重個人- 7 -基本核心價值觀基本核心價值觀核心倫理概念核心倫理概念原則原則承諾承諾說明說明尊重個人自主知情同意披露理解自愿維持研究對象的同意情境,匯報獨立審查員的整體發現在臨床醫學和醫學研究中,最基本的價值觀是尊重個人,即尊重病人和研究對象,但若要弄清實現這一價值觀的實際需求,就必須對其加以明確和落實。在醫學中,尊重個人被理解為賦予個人自主選擇權,這就需要患者或研究對象具備知情同意權。生物倫理學家、臨床醫生和研究人員已經在披露、理解和自愿等某些選擇條件下,通過一系列具體實踐,比如用病人的母語向其披露信息,保護研究對象的知情權以及清晰表述相關風險信息等,實
12、現自主知情同意,從而實現對個人的尊重。生命倫理學中的知情同意案例為理解人工智能和數據倫理從一般倫理概念到實踐指導的挑戰提供了一些經驗教訓:從一般倫理概念(如公平公正、可解釋性、隱私)到實踐指導,首先需要明確規范內容(如明確一般原則并提供適合具體情境的操作流程);指定規范內容通常需要確定旨在保護或促進知情同意的基本價值觀;一般原則在實踐中的具體要求可隨具體情境不同而存在顯著差別;一般倫理概念或原則的實施通常需要整合技術、倫理,及具體情境等各種專業知識;由于各種不可預測的新因素經常出現,我們需要在組織結構和實踐的支持下,不斷監測、評估和改進原則的執行流程和應用實踐?;竞诵膬r值觀基本核心價值觀核心
13、倫理概念核心倫理概念原則原則承諾承諾說明說明人工智能和數據倫理包括明確基本價值觀和核心倫理概念,明確規范內容(一般原則和具體情境下的原則實施流程)以及在實踐中的實施。圖 1:規范內容指定流程下文將重點討論相互關聯的人工智能和數據倫理概念(公平公正和透明性)從核心概念和原則到實施的復雜性。- 8 -三、人工智能和機器學習中的公平公正三、人工智能和機器學習中的公平公正人工智能與數據倫理中的公平公正問題人工智能與數據倫理中的公平公正問題公平和公正被廣泛認為是人工智能和數據倫理的關鍵組成部分。其中一個原因是,許多案例已經表明,機器學習和自動決策系統會導致偏見、歧視或其他不平等的結果。比如,人工智能招聘
14、廣告系統會復制業已存在的種族、性別歧視及其他因素;醫療情景下的人工智能系統為非裔美國患者分配的風險評分低于白人患者,導致非裔患者獲得日常護理或緊急護理的機會更低;面部識別系統存在種族偏見等。公正在人工智能和數據倫理中是一個至關重要的倫理因素,這已成為共識。機器學習、數據分析以及人工智能的應用至少不應加劇現有不公正現象或引發新的不公正現象。此外,人工智能/機器學習有可能通過發現和糾正當前決策系統中 (通常是無意的)存在的偏見和歧視來減少不公平現象?!肮焦健迸c與“公正公正”的含義的含義在圍繞人工智能和數據倫理的討論中,“公平”和“公正”經?;Q使用,這是為了囊括其包含的所有因素。當然,這些術語
15、有時也擁有更具體的含義。如在研究這些問題的計算機科學家看來,“公平”通常指群體之間某種形式的平等。舉例來說,如果一個算法系統在受保護群體中具有相同的準確率或假陽性率,- 9 -那么這個系統就是“公平的”。一個常見的問題是,這些形式的公平中的哪一種是在該情景下恰當的公平操作(因為通常不可能同時實現多種形式的公平)。在制度背景中,“公平”通常用于特定情境中的處理過程,而“公正”是指構成該情境的制度特征,如果系統缺乏公正性(以有利于某些團體而不利于另一些團體的方式組織系統),屬于該系統的流程(如貸款或刑事司法)將是不公平的??傊?,“公正”的概念存在復雜性,在不同的情境中可以指代不同的事物。為了確定公
16、正在人工智能和數據使用具體情境中的要求,如在決定貸款申請、社會服務獲取或醫療優先級時,有必要明確規范內容和潛在價值。只有這樣才有可能說明具體情況下的需要,以及如何(或在何種程度上)在技術和科技社會系統中實現公正。(一)公正的價值和形式(一)公正的價值和形式公正包含的基本價值是人的價值和政治地位的平等。該領域關注的是如何按照這些價值觀組織社會、政治、經濟以及其他體系和結構。若法律、制度、流程或算法未能體現這些價值,其便失去了公正性。 因此, 最普遍的公正原則就是所有人都應在社會、經濟和政治制度以及流程中享受平等的尊重和重視。這些核心價值觀和公正的普遍原則在很多方面與社會結構和- 10 -制度相互
17、關聯。因此,如表 4 所示,我們擁有一套更加具體和多樣的公正原則。表 4:公正原則程序程序分配分配認知認知非歧視非歧視制度或決策流程不應對某些群體存在偏見。平等享有平等享有所有人應擁有享受相同/相似福利和服務的權利。平等對待平等對待無論屬于何種群體,任何人都應被平等對待。機會平等機會平等所有人應擁有獲得成功 (如教育、社會或經濟)的平等/相似的機會。利益分享利益分享為集體事業作出貢獻的所有人都應有權分享集體成果。準確代表準確代表人們或其團體不應被誤解。參與平等參與平等所有人應在社會和政治決策情境和流程中享有相似權利。良好地位良好地位所有人應享有較好(或起碼體面)的社會和經濟地位。包容包容人們或
18、其團體(及其利益)不應被忽略或排除。勞有所得勞有所得人們的社會和經濟地位能夠反映其努力和貢獻。弱勢群體優先弱勢群體優先實踐和政策應優先考慮最弱勢、最孤立無援或最需要的人。補償性公正補償性公正已經發生的不當行為造成的傷害應得到補償或解決,從而避免產生進一步的傷害或未來的不利現象。每一條原則均涉及社會、政治或經濟體制和結構,其中部分原則涉及體系運作流程(程序公正),部分原則關注結果(分配公正),還有部分原則關注個人感受(認知公正)。雖然促進公正的方法多種多樣,但不公正現象仍不可避免。公正原則在各種具體情境中都非常重要。如機會平等在中小學教育的討論通常至關重要;參與平等在政治環境中意義重大;在某些社
19、會服務情境中,優先考慮弱勢群體影響重大;勞有所得在創新環境中則不可忽略。有關人工智能或大數據的公正原則,- 11 -最需要考慮的不是原則的正確性或重要性,而是在何種情境或情況下最適用何種原則,及在這些情境或情況中,這些原則的需求或要求是什么。(二)人工智能與數據系統中的公正(二)人工智能與數據系統中的公正當某個組織承諾在人工智能和數據實踐中維持公正時,它承諾的到底是什么?在決定何種正義原則有效或優先時,情境至關重要。因此,要明確承諾意義(即明確規范內容),第一步是確定對人工智能或數據系統的工作內容或操作環境至關重要的公正原則。 在此之后, 相關公正承諾才能有效發揮作用并付諸實施。毫無疑問,法律
20、合規(例如關于非歧視原則的法規)與明確最突出的公正因素存在關聯,但正如上所述,僅僅遵守法律并不足以落實公正原則。闡明相關公正原則還需要考慮組織使命,所涉及的產品和服務類型,產品和服務對群體和個人產生影響的模式,以及組織對運作范圍內出現的不公正現象原因的理解。對識別這些問題的有益做法往往包括反思類似案例,及仔細考慮對人工智能、大數據和自動決策的各種擔憂。當再次考慮前面討論的一些問題案例(參見人工智能和數據倫理中的公平和公正問題)時,我們會發現其中一些案例,如量刑和就業案例,提出與機會平等和待遇平等有關的問題;其他案例,如面部和語音識別相關案例,涉及準確代表和參與平等原則;還有一些案例,如醫療保-
21、 12 -健案例,涉及參與平等、待遇平等以及弱勢群體優先、有補償的公正和利益考慮。在此,我們假設兩個簡化示例私人金融服務公司和公共社會服務組織來說明這一點。私人金融服務公司和公共社會服務組織擁有相同的基本價值觀(人們擁有平等的價值觀和政治立場)和核心倫理觀念(公平和公正),但由于算法系統的功能、制度背景和相關社會因素,它們在如何說明、實施和執行這些基本價值觀和核心倫理觀念方面存在分歧(見表 5和表 6)。表 5:私人金融服務公司基本核心價值觀基本核心價值觀核心倫理概念核心倫理概念原則原則承諾承諾說明說明人們擁有平等的價值觀和政治立場公正公平非歧視對待平等參與平等避免基于無關特征的差別考慮或對待
22、鼓勵來自不同群體的申請;申請人有知情權;具備完善的上訴、報告及審查。試圖實現公正和公平的金融服務公司必須致力于實現非歧視、平等待遇和平等參與。如果因為服務適用性之外的原因而采取差別性考慮、對待或參與限制,這些就無法實現。為防止出現這種情況,金融服務公司可鼓勵來自不同群體的申請,要求向被拒絕服務的申請人作出解釋,并參與定期審查和報告過程。類似這些措施將有助于在實踐中促進公平和公正。表 6:公共社會服務組織基本核心價基本核心價值觀值觀核心倫理概核心倫理概念念原則原則承諾承諾說明說明人們擁有平等的價值觀和政治立場公正公平非歧視參與平等弱勢群體受益無差別考慮或對待;資格推定;可及性解釋、上訴與審查;援
23、助;主動幫助;整- 13 -合其他服務因為存在相互關聯的多種公正因素,所以經常需要對其進行權衡。例如,優先考慮最弱勢或長期處于弱勢的群體有時可能涉及放棄待遇平等原則;實現機會和參與平等有時可能需要在勞有所得原則方面做出妥協。因此,至關重要的是確定所有與此情況相關的公正原則;原則識別的過程包括最受影響的群體;盡可能全面地考慮所有實施原則;任何妥協均能夠基于其他公正因素的相關情境重要性證明其合理性。再犯預測與明確適當公正概念的重要性再犯預測與明確適當公正概念的重要性COMPAS 再犯預測算法被廣泛提及, 在預測白人和黑人的再犯機率時, 預測系統的準確性大致相當, 但是當系統出現錯誤時,錯誤類型卻有
24、所不同:系統會高估黑人的再犯率,低估白人的再犯率。這是因為系統使用的培訓數據反映的是歷來對少數族裔社區的過度監管。因此,雖然該算法在某種意義上實現了對一項參數的平等對待(即預測中的同等準確性),但未能考慮到在此情境下更重要的公正相關原則(即過高估計再犯率),也沒有考慮到補償性和代表性因素等其他相關公正因素。將公正原則納入機器學習、數據分析和自主決策系統的嚴格算法存在局限性,這主要是因為公正相關原則多種多樣,需要根據具體情境確定哪些原則是相關原則,哪些原則需要優先考慮。- 14 -首先,不存在具備約束性的、優化的或實用的單一性一般公正原則,也不存在一系列等級有序的公正原則。相反,特定情境的專業性
25、和倫理敏感性對于確定公正原則需求至關重要。在一種情境中以密切關注公正原則的方式設計和實現的系統在另一種情境中可能無法體現公正原則,這是因為兩種情境中公正原則最顯著的方面可能不同。其次,即使已經確定相關公正考慮因素,也會缺少嚴格的算法方法將公正原則完全納入決策。如可能存在數據約束;缺少可用的必要數據;技術限制,如相關類型的公正因素在數學上或統計上不可表示;流程限制,如公正因素要求人們對決定負責。因此,我們不得不提出以下問題:公正因素如何并在何種程度上可以通過算法得以實現?在許多情況下,在人工智能中實現公正需要開發基于公正原則的技術系統。人工智能系統可為大學錄取決策提供支持,或為專業醫療人員提供診
26、斷支持。這些系統甚至有助于減少這些過程中出現的偏見,但不可能復制或替代該過程。且出于流程、認可或相關公正原因,或者因為嘗試使用或收集必要數據會出現問題,這些過程可能完全拒絕使用人工智能或大數據方法,即使此類方法更為準確或高效。如即使有可能建立更準確的(在有罪/無罪判定方面)算法系統,為了實現公正,刑事司法系統仍然需要陪審員。對公正人工智能的承諾包括接受- 15 -人工智能方法有時可能存在不公正。因此,除技術能力和專業知識外,致力于實現公正的人工智能和數據分析的組織需要強大的組織能力和流程來實現承諾,不能完全依賴技術解決方案或在其他情境中制定的標準。人工智能和大數據中的公正:關鍵要點人工智能和大
27、數據中的公正:關鍵要點公正基于所有人擁有平等價值和政治地位的基本價值觀。人工智能和數據分析不應引起或延續不公正現象,而應盡一切努力促進公正原則的實現。明確人工智能中公正的明確規范內容,即公正承諾意味著什么,需要清楚地闡明必須告知自動決策系統的公正因素或原則。公正原則的需求多種多樣,并且和具體情境密切相關。最重要的公正原則和因素通常取決于組織的使命、 產品/服務以及該原則適用的情境。確定最為突出的公正原則和因素需要了解與具體情境相關的專業知識,如人工智能/數據倫理專業知識、組織治理以及技術和技術-社會系統專業知識。同樣,遭遇不公正的人員的觀點也至關重要。人工智能和數據分析中通常缺少用于實現公正原
28、則的嚴格的技術或算法方法,因為這需要對價值觀敏感的技術和技術-社會(或人機)系統設計、監督和審查。在人工智能和數據分析中實現公正原則是一個協作和持續的過程,需要強化組織能力。- 16 -四、人工智能和機器學習中的透明度四、人工智能和機器學習中的透明度為評估一個決策系統是否公正或公平,以及決策者是否要承擔責任, 通常需要理解該決策系統的工作內容及工作模式。 因此,遵循透明度的原則應首先理解公正和可說明性的概念,例如,確保決策主體能夠充分理解算法系統。算法決策令人擔憂的一點是,許多系統都是“黑箱子”,即這些系統的決策模式有時完全不透明,甚至對系統的構建者也不透明。如果算法決策系統是一個黑箱子,那么
29、受系統決策影響的各方將無法評估自己是否得到公平對待,同時系統用戶也無法了解該系統是否實現其有關公正的承諾。雇傭和解雇決定的當事人、假釋決定的當事人等通常很樂于理解如何制定決策或如何設計其所使用的產品。由于黑箱算法可能對實現公正和其他重要價值造成障礙,出于對算法決策不透明的擔憂,人們呼吁算法決策的透明度。然而透明度也同公正原則一樣有很多含義。把透明度需求轉化為對算法決策系統設計和使用的指導,需要明確透明度在具體情境下產生重要影響的原因,需要保持透明的對象,及為履行這些義務采取何種形式。(一)透明度背后的價值觀和概念(一)透明度背后的價值觀和概念- 17 -透明決策對于實現各種價值觀和觀念至關重要
30、,有時甚至必不可少。公正原則就是一個很好的例子。缺乏透明度有時會阻礙決策主體,如貸款申請人或假釋申請人,確定自己是否真的受到尊重和公平對待。在許多情況下,決策者需要考慮決策主體的具體情況。對決策者而言,傾聽別人的意見、嘗試理解其觀點并在做決定時認真考慮這些觀點至關重要。未考慮他人具體情況就單方面做出對他人產生重大影響的決定,往往是不尊重或缺乏充分考慮的行為。例如,當假釋裁決委員會決定是否批準假釋時,決策對象有權了解決策者已經做出努力來了解各種細節,并在做決定時將這些細節考慮在內。除有助于實現公正,透明度還可在執行其他概念和落實價值觀方面發揮重要作用。合規性合規性合規性是與尊重法律這一價值觀相聯
31、系的規范概念。在缺乏透明度的決策系統中,可能會很難確定某個系統或模型是否符合適用的法律、法規、行為準則或其他道德規范。如果再犯預測系統、定向廣告系統或約會應用程序排名系統完全不透明,那么就無法判斷該系統是否在決策中存在種族或民族偏見,也就不可能判斷該系統是否符合反歧視法或公正原則要求。因此,透明度通常是合理或重要要求,因為可通過透明度確定系統是否滿足法律- 18 -和道德義務。自主自主自主是與尊重個人的價值觀相聯系的規范概念。賦予自主權意味著允許人們在知情的情況下做出決定,尤其是當這些決定對人們的生活前景可能產生重大影響時。如果決策系統不夠透明,決策主體將難以采用系統決策來指導未來行為或選擇。
32、如果決策主體在貸款、工作、入學或社會服務中遭到拒絕時,無法得知原因或者如何獲得更令人滿意的結果,他們將很難確定未來將如何重新申請相關資格。因此,透明度的價值往往體現在可以告知決策主體如何改變行為并賦予相關權利,從而影響他們關于未來生活軌跡的決定。認知認知認知是以理解為基礎的規范概念,有助于更好地理解這個世界以及我們在其中所處的位置。算法系統在某些情況下可用于揭示大數據集中的隱含模式。即使我們仍然不清楚這些模式,或不了解形成或解釋這些模式的潛在機制,它們仍可協助診斷或制定治療方案。這些領域的相關認知不僅可以幫助從業者通過干預實現更好的結果,還可以促成關于某個領域的新理解、新見解,及新治療方案。因
33、此,透明度的價值往往體現在它使新發現成為可能。- 19 -信任信任信任是與發展良好關系等各種基本價值觀相關的規范概念。信任基于透明度原則,因為透明度有助于建立信任。為充分發揮算法工具的優勢,從醫學到路線繪制系統的利益相關者必須信任這些系統本身,及其對自己的生活行使權力的各種方式。如果不理解這些系統決策的方式和原因,利益相關者不太可能接受并使用這些技術及決策。因此,透明度的價值往往體現在有助于促進人們對決策系統的信任。(二)具體說明透明度承諾(二)具體說明透明度承諾正如透明度原則的基礎是公正等諸多概念,提高決策系統透明度的方法也多種多樣。 因此, 關于透明度的承諾也有很多形式,比如對算法決策系統
34、可解讀性的承諾,對算法決策可解釋性的承諾,或者對此類決策可說明性的承諾。例如,如果技術專家或決策主體能夠理解系統的個體決策或行為,我們就可以認為該系統具備透明性,比如一位計算機科學家也許能夠解釋用于設定保險費率的算法決策系統對年齡或駕駛經驗等因素的敏感性。一種更廣泛的透明度形式是,即使某些決策系統本身不夠透明,我們也要確保使用這些決策系統的原因的透明性??赏ㄟ^以下方法理解關于透明度的共同承諾:可解讀性可解讀性- 20 -為保證算法決策的透明度,經常提到的方法之一是要求算法決策系統具備可解讀性。例如,因為依賴基于大規模數據集的模型或多層模型,一些算法系統非常復雜,以至于數據和計算機科學家自己也無
35、法以精確的方式確定如何將系統輸入轉化為輸出。此外,系統的可解讀性與上述許多價值觀有關。例如,如果某系統無法解讀,系統所依賴的基礎推理模式將面臨嚴重障礙,且該系統可能無法保證符合某些規范。無論如何,并非所有人工智能和機器學習系統都不可解讀,計算機和數據科學家正在全力開發可用工具,以恢復黑箱系統的可解讀性??山忉屝钥山忉屝躁P于透明度的另一種承諾是要求算法決策系統具備可解釋性。當一個決策系統可以向利益相關者提供決策、行為或結果合理化的解釋時,我們認為該決策系統具備可解釋性,但一個可解釋系統并不一定產生該層面上可解釋的輸出;知道支持系統決策的推論也并不總是有助于證明系統決策的合理性??山忉屝允菍崿F上述
36、價值觀的必要條件。決策主體通常需要知道系統做出與他們有關的決策的原因或考慮因素,以確定他們是否受到尊重或是否可以信任決策者。此外,可解釋性對于確保系統能夠遵守法律和倫理規范往往也至關重要。合理模糊合理模糊- 21 -為確??山庾x性或可解釋性而保持透明度的行為有時會犧牲系統的準確性,也就是說,有時需要在系統準確性和可解讀性之間進行權衡,而且這種權衡并非在所有情況下都具備合理性,如在某些情況下,實現最大化的準確性可能比確保算法決策系統的可解讀性或可解釋性更為重要。即便如此,關于透明度的廣泛承諾仍有助于實現信任等核心概念。如患者可能更愿意接受更加準確的工具,即便這種工具不具備可解讀性或可解釋性。在這
37、種情況下,盡管采用的系統不具備透明性,確保采用該系統的原因透明,便可以用來合理說明其他形式的不透明??蓪彶樾钥蓪彶樾躁P于透明度的最后一種承諾是可審查性。通過定期審查部分決策集或基于在決策中觀察到的特定模式來確定核心價值是否實現,我們有可能對系統進行評估。例如,雖然為自動駕駛汽車系統做出的每項決策提供解釋可能并不可行,但審查可以解釋某些特定決策,而這對增加信任可能至關重要。審查程序的優點之一是,它們不僅能夠確保算法決策的透明度,還能確保融合算法的更廣泛系統的透明度。精心構建的審查流程可以在很大程度上保證決策系統值得信賴、可靠并且符合要求。從透明度原則到適當承諾, 最終到特定環境下的可衡量規范,這
38、一過程包括確定在決策環境中需要實現的核心概念和需要遵- 22 -循的透明度原則,以及最能體現這一原則的具體透明度承諾。提高系統的可解釋性可能有助于最大限度地減少安全問題,但對增加信任或提供關于尊重個人的證據卻收效甚微。表 7:低風險健康狀況診斷工具基本核心價值觀基本核心價值觀核心倫理概念核心倫理概念原則原則承諾承諾說明說明健康和良好關系健康可靠信任透明度合理模糊獨立審查平均API響應時間與錯誤率;知道正在使用模糊算法的用戶比例;每年審查產品組合的比例低風險健康診斷工具是能夠為患者的某些疾病提供可靠診斷的一種工具,但是這種工具的診斷失敗成本較低。在這種情況下,透明度原則源于以健康和良好關系價值觀
39、為基礎的健康、可靠和安全概念。因為這里的透明度以這些核心概念為基礎,適當的透明度是指承諾在系統準確性方面能夠證明使用不透明系統的合理性,并承諾對診斷結果進行審查,以確保結果準確、可靠并值得信任。關鍵要點關鍵要點不透明妨礙實現公正等各種價值觀和核心倫理觀念。為克服這些障礙制定透明度標準,需要認識到透明度在特定環境中能產生價值或重要影響。制定透明度標準還需確定在可解讀性、可解釋性、合理模糊或可審查性中,何種承諾是在特定情境中實現相關價值觀和概念的必要和充分條件。滿足透明度標準并不是要求所有人任何時候都能夠了解如何制定各項決定。在某些情況下,過高的透明度不僅沒有必要,而且會損害系統的效率、準確性等其
40、他重要價值。- 23 -五、結論五、結論在人工智能和大數據使用方面,一般性的倫理承諾現在已經司空見慣。實現這些承諾的第一步是采用原則、價值聲明、框架和準則,闡明負責任的開發和使用所包含的內容。不過,如果這些概念和原則將要產生實質性影響,即如果它們不再僅僅是理論和愿望,那么相關組織不應只對價值觀和承諾泛泛而談,而應明確說明規范概念如何體現基本價值觀,何種原則能夠體現這些概念,這些原則關于特定用例的具體承諾是什么,以及這些組織最終將如何具體評估承諾是否履行。我們經常聽到一些組織聲稱自己支持公正和透明,但真正艱巨的任務是明確這些承諾對它們的意義,并且在實踐中實現這些承諾。在人工智能和數據倫理方面,從
41、一般性承諾轉向實質性具體承諾,該過程具有復雜性。而這種復雜性主要來自以下三個關鍵因素:公正和透明度等倫理概念往往具有多種意義和含義;何種倫理概念具備可操作性或適當性往往與情境相關;倫理概念涉及各個方面,如何種系統需要保持透明、對誰保持透明以及以何種形式保持透明。厘清并規范說明人工智能和數據倫理中的具體內容,其本身并不僅僅是技術層面的問題,因為除了技術系統知識之外,它通常還需要倫理專業知識、對相關情境(或特定領域)因素的認知,- 24 -以及人機交互方面的專業知識。此外,我們不可能切實為公正或透明度(或其他倫理概念)指定一般標準,使其可以應用于所有的人工智能開發和使用情境。由此推論,如果組織要想
42、成功實現其道德承諾和開發負責任的人工智能,它們就必須廣泛思考如何在組織內部及組織之間建立道德能力。隨著人工智能和數據倫理的持續發展,許多組織已經開始采取相關舉措,包括:組織結構和治理組織結構和治理建立人工智能和數據倫理委員會,協助制定相關政策,為項目/產品提供咨詢意見, 并進行審查; 設立負責任的創新管理職位,執行落實道德規范和原則等職責;開發工具、組織實踐和結構/過程,鼓勵員工發現和提出潛在的倫理問題。拓展視野與合作拓展視野與合作與受影響群體進行有意義的接觸,從而更好地理解倫理問題以及人工智能和數據系統長期存在的不平等現象,并確定促進平等、賦權和社會公益的機會;聘請內部倫理和社會科學專家,或
43、咨詢外部專家。培訓與教育培訓與教育為員工、合作伙伴和客戶提供道德培訓/課程,提高對組織承諾的意識和理解;建立流程,鼓勵將倫理教育融入計算機科學、- 25 -數據科學和領導力項目。將倫理應用于實踐將倫理應用于實踐通過負責任的創新實踐,在產品開發中盡早融入考慮價值觀的設計,包括將代表法律、倫理和社會觀點的成員納入研究和項目團隊;利用技術工具和案例審查對數據和人工智能系統進行“倫理審查”;在決策過程中考慮并執行以隱私和倫理為導向的風險和責任評估;開發可向用戶和客戶表明產品和服務符合強有力倫理標準的方法;確保整個組織遵守負責任的創新協議和最佳實踐。構建人工智能和數據倫理社區構建人工智能和數據倫理社區創
44、建行業和跨行業協作小組和論壇,分享與實現負責任人工智能相關的經驗、想法、認知和創新成果;在組織內部建立團隊,在組織之間展開協作,專注于按照定義明確的規范將人工智能作為一種社會福利事業加以推廣;針對組織關注的問題進行基礎人工智能和數據倫理研究。這些相互關聯的措施正在不同領域不斷創新,從初創企業到跨國公司、從地方到國家的商業、醫療、教育、金融服務、政府、非營利組織等多個領域均有涉及??偟膩碚f,這些舉措為組織內部生成倫理能力提供豐富的可能性。它們證實將一般承諾轉化為實質性行動基本上是一項技術-社會挑戰, 需要結合不同群體和專- 26 -業知識制定多層次的系統解決方案。同時,它們也表明將一般人工智能倫理原則轉化為可操作的實質性內容并非易事,需要持續不斷的努力。譯自: Getting from Commitment to Content in AI and Data Ethics: Justiceand Explainability, August 2021 by the Atlantic Council譯文作者:工業和信息化部研究院吳靜 牛曉靚聯系方式:18401256705電子郵件: