《歐盟:2020歐盟人工智能白皮書(翻譯版)(37頁).pdf》由會員分享,可在線閱讀,更多相關《歐盟:2020歐盟人工智能白皮書(翻譯版)(37頁).pdf(37頁珍藏版)》請在三個皮匠報告上搜索。
1、 公益翻譯小組榮譽出品 歐盟人工智能白皮書中譯本 譯校者:李芊曄、羅祥、袁俊、洪瑋、甘丹、劉玲麟 2020年03月12日 版權專有,未經書面授權,禁止商業性使用,禁止演繹 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 2 譯校者簡介及工作分工譯校者簡介及工作分工 【組長】 李芊曄 車企IT合規經理 負責分工、組織翻譯、全文校對及排版 【翻譯】 李芊曄,車企IT合規經理(前言至第4章A節,原報告第1至6頁) 羅祥,華僑大學法律碩士(第4章B節至第5章前言,原報告第7至10頁) 袁俊,對外經貿大學法學研究生(第5章A、B節
2、,原報告第11至15頁) 洪瑋,外資企業信息安全經理(亞太區)(第5章C節,原報告第16至18頁) 甘丹,車企隱私合規(第5章D節,原報告第19至22頁) 劉玲麟,資深法務經理(第5章E節至完,原報告第23至27頁) 【校對】 所有翻譯人員均參與第一輪校對 李芊曄負責第二輪全文校對 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 3 白皮書白皮書 人工智能人工智能 追求卓越和信任的歐洲路徑追求卓越和信任的歐洲路徑 布魯塞爾,布魯塞爾,2 2020020年年0 02 2月月1 19 9日日 C COM(2020) 65 O
3、M(2020) 65 終版終版 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 4 人工智能白皮書:人工智能白皮書: 追求卓越和信任的歐洲路徑追求卓越和信任的歐洲路徑 人工智能發展迅速。它通過我們可以預見的不同方式改變著我們的生活,比如通過改善醫療保?。ɡ?,更準確地診斷,更好地預防疾?。?,提高耕作效率,有助于緩解和適應氣候變化,通過預測性維護提高生產系統的效率,提高歐洲人的安全等等。同時,人工智能也帶來了一些潛在的風險,如決策不透明、性別歧視或其他形式的歧視、侵犯我們的私人生活或被用于犯罪目的。 在2018年4月提出的
4、歐洲人工智能戰略1的基礎上,需要采取一種更切實的途徑應對全球日趨激烈的競爭。為了應對人工智能的機遇和挑戰,歐盟必須根據歐洲價值觀一體行動,確定自己的方式,促進人工智能的發展和實施。 歐盟委員會致力于實現科學突破,以保持歐盟的技術領先地位,確保新技術為所有歐洲人服務提高他們的生活質量,同時尊重他們的權利。 委員會主席Ursula von der Leyen在其政治指導方針2中提到了一種協調一致的歐洲方法關于控制人工智能對人類和倫理意義,以及對更好地利用大數據進行創新的思考。 因此,委員會支持一種以監管和投資為導向的方法以實現雙重目標,一方面促進人工智能的普及,另一方面解決伴隨著這種新技術的使用而
5、帶來的風險。本白皮書旨在就如何實現這些目標提出政策選擇,并不討論人工智能在軍事用途方面的發展和使用。委員會邀請成員國、其他歐洲機構和包含工業界、社會合作伙伴、民間社會組織、研究人員、公眾和任何有關團體在內的所有利益相關者,對如下內容進行了反饋,并繼續支持為委員會今后在這一領域的決策。 1歐洲的人工智能,COM/2018/237終版 2https:/ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 |
6、 | 數據法盟(數據法盟(DataLawsDataLaws) 5 1.1. 導言導言 隨著數字技術成為人們生活中越來越核心的部分,人們應該能夠信任它。值得信賴也是數字技術獲得認可的一個先決條件。這對歐洲來說是一個機會,因為歐洲非常重視價值觀和法規要求,且具備為從航空到能源、汽車及醫療設備行業建設安全可靠的先進產品和服務的能力。 歐洲當前和未來的可持續經濟增長及社會福利越來越依賴數據創造的價值。人工智能是數據經濟最重要的應用之一。如今,大多數數據都與消費者相關,并在集中的云基礎設施上進行存儲和處理。相比之下,未來更為豐富的數據中將有很大一部分來自工業、商業和公共領域,并存儲在各種系統上,尤其是在
7、網絡邊緣工作的計算設備上。這為在工業和“企業至企業間”數字化方面具備優勢地位,但在消費者平臺數字化上相對弱勢的歐洲帶來了新的機遇。 簡而言之,人工智能是將數據、算法和計算能力結合起來的技術集合。因此,計算技術的進步和數據可用性的提高是當前人工智能熱潮的關鍵驅動力。歐洲可以將其技術和工業優勢與高質量的數字基礎設施,以及基于其基本價值的監管框架結合起來,成為歐洲數據戰略中提及的“數據經濟及其應用創新的全球領導者”3。在此基礎上,它可以發展一個人工智能生態系統,為整個歐洲社會和經濟帶來技術效益: 使公民享受新的福利,例如改善醫療保健、減少家用機械故障、更安全清潔的交通系統、更優質的公共服務; 促進商
8、業發展,例如在歐洲的絕對優勢行業(機械、交通、網絡安全、農業、綠色及循環經濟、醫療保健及時尚、旅游業等高附加值行業);以及 為公共利益服務,例如降低服務(交通、教育、能源和廢物管理)成本,提高 3 COM(2020) 66 終版 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 6 產品可持續性4;在尊重公民權利和自由的情況下,為執法機關配備適當工具、合理確保公民安全5。 鑒于人工智能對我們社會的重大影響以及建立信任的必要性,歐洲人工智能必須立足于我們的價值觀和基本權利,如人的尊嚴和隱私保護。 此外,人工智能系統的影響不僅
9、應從個人的角度考慮,而且應從整個社會的角度進行考慮。人工智能系統的使用對實現可持續發展目標、支持民主進程和社會權利方面的影響舉足輕重。隨著最近歐洲綠色協議6的提出,歐洲在應對氣候和環境的挑戰方面處于領先位置。像人工智能這樣的數字技術是實現綠色協議目標的關鍵因素。由于人工智能越來越重要,人工智能系統對環境的影響需要在其整個生命周期和完整的供應鏈中得到適當考慮,例如在算法培訓和數據存儲方面的資源使用。 為了達到足夠的規模,避免單一市場的分裂,歐洲對人工智能采取共同的做法是必要的。引入國家干預可能危及法律確定性,削弱公民信任,并抑制一個充滿活力的歐洲工業的出現。 本白皮書在充分尊重歐盟公民價值和權利
10、的情況下,提出了使人工智能在歐洲得以安全可靠發展的政策選擇。本白皮書的主要組成部分有: 規定了在歐洲、各成員國和地區層面實施一致措施的政策框架。在私營企業和公共部門通力合作下,該框架的目標是通過調動資源實現基于價值鏈的“卓越生態系統”,著手于研究和創新,通過建立適當的激勵機制加速包含中小企業在內的人工智能解決方案的應用。 未來歐洲人工智能監管框架的關鍵要素為創造一個獨特的“可信賴生態系統”。 4總體上看,人工智能和數字化是實現歐洲綠色交易宏偉目標的關鍵驅動力。然而,目前信息和通信技術(ICT)領域的環境消耗估計占全球排放總量的2%以上。本白皮書所附的歐洲數字化戰略提出了數字化實現綠色轉型的措施
11、。 5人工智能工具可以為更好地保護歐盟公民免受犯罪和恐怖主義行為的威脅提供機會。例如,這些工具可以幫助識別網上恐怖主義的宣傳內容,發現銷售危險產品的可疑交易,查明危險的隱藏物或非法物質及產品,向緊急情況下的公民提供援助,并協助指導急救人員。 6COM(2019) 640終版 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 7 為此,它必須確保遵守歐盟的規則,包括保護基本權利和消費者權利的規則,特別是那些在歐盟運行的高風險人工智能系統7。建立一個可信賴的生態系統本身就是其政策目標,同時應該使公民有信心接受人工智能的應用,讓
12、公司和公共組織在法律上有把握利用人工智能進行創新。委員會強烈支持在“以人為中心的人工智能技術中構建信任的溝通函”8中提及的“以人為中心”的方法論,并將把人工智能高級專家組編寫的道德準則試點階段成果納入工作范圍。 本白皮書所附的歐洲數據戰略旨在促使歐洲成為世界上最具吸引力、最安全、最充滿活力的數據敏捷經濟體為歐洲提供數據以改善決策、改善公民的生活。該戰略提出了實現這一目標所需的、包含調動私人及公共投資在內的若干政策措施。最后,本白皮書所附的委員會報告分析了人工智能、物聯網和其他數字技術對安全和責任立法的影響。 2.2. 利用工業和專業市場利用工業和專業市場優勢優勢 歐洲不僅可以作為人工智能的使用
13、者,而且可以作為這項技術的創造者和生產者受益于AI的潛力。它擁有優秀的研究中心、創新型初創企業,并在機器人技術、競爭性制造業和服務業(從汽車到醫療保健、能源、金融服務和農業)領域處于世界領先地位。歐洲發展了強大的計算基礎設施(如高性能計算機),這對人工智能的功能至關重要。歐洲還擁有大量的公共和工業數據,其潛力目前尚未得到充分利用。它在安全可靠的低功耗數字系統方面具有公認的行業優勢,這對人工智能的進一步發展至關重要。 利用歐盟投資下一代技術和基礎設施的能力,以及含數據素養在內的數字能力,將提高歐洲在數據經濟關鍵扶持技術和基礎設施方面的技術主權?;A設施應支撐歐 7盡管可能需要作出進一步安排,以防
14、止和打擊出于犯罪目的濫用人工智能,但這不在本白皮書討論范圍之內。 8 COM(2019) 168 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 8 洲數據池的建立,以實現可信賴的人工智能,例如基于歐洲價值觀和規則的人工智能。 歐洲應該利用自身的優勢,擴大其在生態系統和價值鏈上的地位,從某些硬件制造部門到軟件,再到整個服務業。這種情況已經在一定程度上出現。歐洲生產了全球超過四分之一的工業和專業服務機器人(例如,為精密農業、安全、衛生、物流),并在為公司和組織開發及使用軟件應用程序(企業對企業的應用程序,如企業資源規劃,設
15、計和工程軟件)、以及支持電子政務和“智能企業”的應用程序方面扮演重要角色。 歐洲在制造業應用人工智能方面處于領先地位。超過半數的頂級制造商在其制造運營中實施了至少一種人工智能9。 歐洲在研究方面處于優勢地位的一個原因是,歐盟的資助方案已被證明有助于統籌行動、避免重復,并利用成員國的公共和私人投資。過去三年中,歐盟為人工智能研究和創新提供的資金已增至15億歐元,與前一時期相比增長了70%。 然而,歐洲對研究和創新的投資扔進是世界其他地區公共和私人投資的一小部分。2016年,歐洲人工智能投資約32億歐元,相比之下,北美人工智能投資約121億歐元,亞洲人工智能投資約65億歐元10。相應的,歐洲仍需大
16、幅提高投資水平。事實將表明,與成員國共同制定的人工智能協作計劃11是在歐洲建立更密切的人工智能合作、創造協同效應以最大程度優化人工智能價值鏈投資的良好起點。 3.3. 抓住未來機遇:下一波數據浪潮抓住未來機遇:下一波數據浪潮 盡管歐洲目前在消費者應用程序和在線平臺上的地位較弱,這在數據訪問方面造成了競爭劣勢,但跨領域的數據價值和重復使用所帶來的重大轉變正在發生。世界上 9緊隨其后的是日本(30%)以及美國(28%)。源自:凱捷咨詢(2019) 10人工智能和自動化時代歐洲的十大要務,麥肯錫(2017) 11 COM(2018)795 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 |
17、 | 數據法盟(數據法盟(DataLawsDataLaws) 9 產生的數據量正在迅速增長,從2018年的33澤字節增長到2025年的175澤字節12。每一次新的數據浪潮都給歐洲帶來了機遇,使其在數據敏捷經濟中占據一席之地,并成為這一領域的世界領導者。此外,數據的存儲和處理方式在未來五年內將發生巨大變化。如今,80%的數據處理和分析發生在云計算中的數據中心和集中計算設施中,20%發生在智能連接對象(如汽車、家用電器或制造機器人)以及靠近用戶的計算設施中(“邊緣計算”)。到2025年,這一比例將有顯著變化13。 歐洲是低功耗電子產品的全球領導者,而低功耗電子產品是下一代人工智能專用處理器的關鍵。
18、這個市場目前由非歐盟國家主導。在歐洲處理器計劃(European Processor Initiative)和擬于2021年啟動的關鍵數字技術聯合項目(Key Digital Technology Joint engineering)等舉措的幫助下,這種情況可能會有所改善。歐洲在神經形態解決方案14方面也處于領先地位,這種方案非常適合自動化工業過程(工業4.0)和運輸模式。它們可以提高能源效率幾個數量級。 量子計算的最新進展將使處理能力呈指數級增長15。得益于量子計算方面的學術優勢和在量子模擬器及編程環境方面的強大地位,歐洲可以走在這項技術的前沿。歐洲旨在增加量子測試和實驗設施可用性的倡議,將
19、有助于將這些新的量子解決方案應用于一些工業和學術部門。 同時,歐洲將立足于自身的科學卓越性,在人工智能算法的基礎上繼續引領進步。需要在當前獨立工作的學科之間建立橋梁,例如機器學習和深度學習(其特點為有限的可編譯性,需要大量數據來訓練模型并通過相關性進一步學習)和符號方法(其規則通過人工干預創建)。將符號推理與深層神經網絡相結合可以幫助我們提高人工智能結果的可解釋性。 12IDC (2019) 13蓋特納(2017) 14神經形態的解決方案是指大規模的集成電路系統,以模擬神經系統中神經生物結構的形式進行連接。 15量子計算機將有能力在不到秒的時間內,處理比當今性能最高的計算機大很多倍的數據集,從
20、而允許跨領域開發新的人工智能應用。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 10 4.4. 卓越的生態系統卓越的生態系統 為了建立一個卓越的生態系統,支持人工智能在整個歐盟經濟和公共行政中的發展和吸收,需要在多個層面上加強行動。 A A、 與會員國合作與會員國合作 根據2018年4月通過的人工智能戰略16,歐盟委員會于2018年12月提出了一項與成員國共同制定的協同計劃,以促進人工智能在歐洲的發展和使用17。 該計劃提出了約70項聯合行動項,以便成員國與委員會在諸如研究、投資、市場準入、技能和人才、數據和國際合作
21、等關鍵領域開展更密切有效的合作。該計劃預計將持續到2027年,并定期進行監控和審查。 其目的是最大限度地發揮對研究、創新和部署的投資的影響,評估國家人工智能戰略,在此基礎上建立并向成員國擴展其人工智能協作計劃: 行動1:委員會將根據公眾對白皮書內容的征詢意見結果,向成員國提供一份修訂后的協作計劃,并期望其在2020年底前被采用。 歐盟對人工智能領域的資金支持,應吸引并匯集一些領域投資,這是任何單一國家成員國無法實現的影響力目標是在未來十年內,每年吸引歐盟內超過200億歐元的人工智能投資18。為了刺激私人和公共投資,歐盟將從“數字歐洲計劃”、“地平線歐洲”以及“歐洲結構化及投資基金”中提供資源,
22、以滿足欠發達地區和農村地區的需求。 協作計劃還將社會和環境福祉作為人工智能的一項關鍵原則。人工智能系統承諾幫助解決包括氣候變化、環境退化等在內的、最緊迫的問題。同樣重要的是,這以一 16歐洲的人工智能,COM(2018)237 17人工智能協作計劃,COM(2018)795 18COM(2018)237 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 11 種環保的方式實現。人工智能能夠而且應該嚴格審查自身的資源使用和能源消耗情況,并接受培訓以便做出對環境有利的選擇。委員會將考慮各種辦法,來鼓勵和促進與成員國一道解決人工
23、智能問題。 B B、 關注研究與創新界的努力關注研究與創新界的努力 在當前分散的能力中心格局下,歐洲無法達到與全球領先機構競爭所需要的規模。尤為迫切的是,在多個歐洲人工智能研究中心之間形成更多協同和網絡,共同努力以創造卓越、留住和吸引優秀的研究人員并開發最好的技術。歐洲需要一個集研究、創新和專業知識為一體的領先中心,吸引投資和該領域的最佳人才,成為人工智能領域的世界參考。 這些中心和網絡應集中在歐洲有潛力成為全球引領者的領域,如工業、衛生、運輸、金融、農產品價值鏈、能源/環境、林業、地球觀測和宇航。在所有這些領域,爭奪全球領導地位的競爭仍在繼續,歐洲提供了巨大的潛力、知識和專長19。同樣重要的
24、是創建測試和實驗站點,以支持新的人工智能應用的開發和后續部署。 行動2:委員會將助力卓越,促進結合了歐洲、國家和私人投資的測試中心,可能包括一項新的法律工具。歐盟委員會提出了一項雄心勃勃的專項撥款,以支持建立“數字歐洲”計劃中所提及的世界領先測試中心的建立,并以“地平線歐洲”委員會2021年至2027年多年財務框架的一部分的研究和創新行動,作為輔助。 C C、 技能技能 人工智能的歐洲路徑應立足于對技能的高度重視,以填補能力短缺。20歐盟委員會不久將提出加強技能議程,旨在確保歐洲所有人都能從歐盟經濟的綠色數字化轉型中受益。倡議還將包含對監管部門的支持,以提高其人工智能技能,更優質高效地實施相應
25、規則。最新的數字教育行動計劃將有助于更好地利用數據和基于人 19未來的歐洲國防基金和永久性結構合作(PESCO)也將為人工智能的研發提供機會。這些項目應與更廣泛的歐盟專門針對人工智能的民間方案同步。 20https:/ec.europa.eu/jrc/en/publication/academic-offer-and-demand-advanced-profiles-eu 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 12 工智能的技術,如通過學習及預測分析改進教育和培訓系統,使其適應數字時代。該計劃還將在各級教育中提
26、高對人工智能的意識,以幫助公民做好應對人工智能日益增加的影響的準備。 構建在人工智能領域工作所需的技能,提升勞動力,使之適應人工智能引領的轉型,將是與成員國共同制定的、更新版人工智能協作計劃中的一個優先事項。這可能包含將道德準則中的評估清單轉變為培訓機構資源,向人工智能開發者提供的指示性“課程”。應尤其致力于提高在這一領域接受培訓、就業的婦女人數。 此外,歐洲人工智能研究及創新中心因其豐富的可能性,將吸引世界各地的人才,并在歐洲孕育、傳播其在此領域的卓越技能。 行動3:通過建立和支持由頂尖大學和高等教育機構組成的歐洲數字計劃網絡的高新技術支柱,以吸引最好的教授和科學家,并在人工智能領域提供世界
27、領先的碩士課程。 除了提升技能外,工人和雇主還直接受到工作場所中人工智能系統的設計和使用的影響。社會伙伴的參與將是確保人工智能“以人為中心”進行工作的關鍵因素。 D D、 關注中小企業關注中小企業 確保中小企業可以訪問和使用人工智能也很重要。為此,應進一步加強數字創新中心21和按需人工智能平臺22并促進中小企業之間的合作?!皵底謿W洲計劃”(theDigital Europe Programme)將有助于實現這一目標。 在所有數字創新中心都應為中小企業提供支持,以幫助他們理解和應用人工智能的同時,重要的是每個成員國至少有一個在人工智能方面具有高度專業化的創新中心。 中小企業和初創企業將需要獲得融
28、資,以便調整其流程或使用人工智能進行創新。在即將到來的針對人工智能和區塊鏈的1億歐元試點投資基金的基礎上,歐盟委員 21 ec.europe.eu/digital-single-market/en/news/digital-innovation-hubs-helping-companies-across-economy-make-most-digital-opportunities. 22 www.Ai4eu.eu. 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 13 會計劃根據歐洲投資計劃(InvestEU)23進一
29、步擴大人工智能的融資渠道。在歐洲投資計劃確定的、可使用其資金的領域中明確提到了人工智能。 行動4:委員會將與成員國合作,以確保每個成員國至少有一個在人工智能方面具有高度專業化的數字創新中心?!皵底謿W洲計劃”為數字創新中心提供支持。 歐洲委員會和歐洲投資基金將在2020年第一季度啟動1億歐元的試點計劃,為人工智能的創新發展提供股權融資。在就MFF達成最終協議之前,歐盟委員會擬從2021年起通過歐洲投資計劃大幅擴大該規模。 E E、 與私營部門合伙與私營部門合伙 確保私營部門充分參與制定研究及創新議程,并向其提供必要的共同投資水平也很重要。這要求建立廣泛的公私合作伙伴關系,并確保得到企業最高管理層
30、的承諾。 行動5:在“歐洲地平線”(Horizon Europe)的背景下,委員會將在人工智能、數據和機器人技術方面建立新的公私合作伙伴關系,形成合力,確保在人工智能研究與創新的協作,并與“歐洲地平線”項目中的其他公私伙伴關系通力合作,與上述測試機構和數字創新中心共同工作。 F F、 推動公共推動公共領域領域應用應用人工智能人工智能 關鍵的是,公共管理部門、醫院、公用事業和運輸服務、金融監管機構以及其他公共利益領域迅速開始部署人工智能相關的產品和服務。應當尤其關注技術成熟且可大規模部署的醫療保健和運輸領域。 行動6:委員會將發起公開透明的部門對話,優先考慮醫療保健、農村行政管理和公共服務運營商
31、,以制定促進人工智能發展、試驗和應用的行動計劃。行業對話將用于準備特定的“應用人工智能計劃”(Adopt AI 23 Europe.eu/investeu. 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 14 programme),以支持人工智能系統的公共采購,轉變公共采購流程。 G G、 安全訪問數據和計算基礎設施安全訪問數據和計算基礎設施 本白皮書中提出的行動領域是對根據歐洲數據戰略并行提出的計劃的補充。改善數據訪問和管理是根本。沒有數據,人工智能和其他電子應用的發展無異于紙上談兵。尚未生成的海量新數據為歐洲提供了
32、立足于數據和人工智能轉型前沿的機會。推進相應數據管理實踐并促成數據的FAIR原則符合性,將有助于建立信任并確保數據的可重用性24。同樣重要的是對關鍵計算技術和基礎設施的投資。 歐洲委員會已根據“數字歐洲計劃”提議投資40多億歐元以支持高性能和量子計算,包括邊緣計算和人工智能、數據和云基礎設施。歐洲數據戰略將優先實現這些領域的進一步發展。 H H、 國際方面國際方面 歐洲完全有能力發揮其全球領導作用,圍繞共同價值觀建立聯盟并促進人工智能應用合乎道德。歐盟在人工智能方面的工作已對國際討論產生影響。在制定道德準則時,高級專家組中引入了一系列的非歐盟組織和一些政府觀察員。與此同時,歐盟密切參與制定經合
33、組織關于人工智能的道德原則25。20國集團(G20)隨后在2019年6月關于貿易和數字經濟的部長級聲明(Ministerial Statement on Trade and Digital Economy)中批準了這些原則。 同時,歐盟注意到其他多邊論壇也正在開展有關人工智能的重要工作,包括歐洲委員會(Council of Europe)、聯合國教育科學與文化組織(UNESCO)、經濟合作與發展組織(OECD)、世界貿易組織(WTO)和國際電信聯盟(ITU)。在聯合國,歐盟參與了數字合作高級別小組報告的后續行動,包含其對人工智能的推薦。 歐盟將以符合歐盟規則和價值觀的方式(例如,促進更高的監管
34、趨同、訪問包括數 24如委員會專家組于2018年就FAIR數據在最終報告中所述,FAIR意為可查找、可訪問、可互操作和可重用,https:/ec.europa.eu/info/sites/info/files/turning_fair_into_reality_1.pdf。 25 https:/www.oecd.org/going-digital/ai/principles/ 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 15 據在內的關鍵資源、創造公平的競爭環境),繼續與志同道合的國家及人工智能領域的全球參與者展開合
35、作。委員會將密切監測限制數據流量的第三國政策,并通過世界貿易組織場景下的行動解決雙邊貿易談判中的不當限制。委員會堅信,在人工智能事務上的國際合作方式必須基于促進尊重基本權利,包括人的尊嚴、多元化、包容、非歧視、保護隱私及個人數據26,委員會將致力于向全世界推廣其價值觀27。顯然,負責任地開發和使用人工智能可成為實現可持續發展目標和推進2030年議程的推動力。 5.5. 可信任的生態系統:人工智能的監管框架可信任的生態系統:人工智能的監管框架 與任何新技術一樣,人工智能的使用既帶來機遇也帶來風險。公民擔心因算法決策信息不對稱而無力捍衛自己的權利和安全,企業擔心其法律上的不確定性。雖然人工智能可以
36、幫助保護公民安全并使其享有基本權利,但公民也擔心人工智能后果無法預料,甚至可能用于惡意目的。這些問題需要被解決。此外,除了缺乏投資和技能外,缺乏信任也是阻礙人工智能廣泛應用的一個主要因素。 這就是委員會在2018年4月25日制定人工智能戰略28來解決社會經濟問題的原因,同時歐盟范圍內也在提高對研究、創新和人工智能能力的投資。委員會與成員國制定了協作計劃29來調整戰略。委員會還成立了一個高級專家組,于2019年4月發布了有關可信賴人工智能的準則。30 委員會發表了一份溝通函31,充分肯定了高級專家組準則中確定的七項關鍵要求: 人事代理機構和監管; 26基于合作伙伴文書的記載,委員會將資助一個25
37、0萬歐元的項目,支持與之志同道合的伙伴的合作,以促進歐盟人工智能道德準則,采取共同原則及操作結論。 27主席 Von der Leyen,驅動更多的聯盟我的歐洲日程,第17頁。 28 COM(2018) 237. 29 COM(2018) 795. 30 https:/ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top 31 COM(2019) 168. 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 16 技術魯棒性和安全性; 隱私和數據治理
38、; 透明性; 多樣性、非歧視性公平; 社會和環境福祉; 問責制。 此外,本準則還包含了一份供企業實際使用的評估清單。在2019年下半年,超過350個組織對此評估清單進行了測試并發回反饋。高級專家組正在根據反饋意見修訂其準則,并將于2020年6月之前完成這項工作。反饋意見過程的主要成果是,盡管部分要求已反映在現行法律或法規中,但在許多經濟領域的現行立法中并未明確涵蓋與透明性、可追溯性和人為監管有關的制度。 除了高級專家組定義的該組非約束性準則之外,根據總統的政治準則,明確的歐洲監管框架將在消費者和企業之間建立對人工智能的信任,從而加快對技術的應用。該監管框架應該與其他行動相一致,以提高歐洲在該領
39、域的創新能力和競爭力。此外,必須確保在社會、環境和經濟上達到最佳結果,并遵守歐盟法律、原則和價值觀。這在公民權利可能受到最直接影響的領域中尤其重要,例如執法和司法領域中的人工智能應用。 人工智能的開發者和部署者已受到歐洲有關基本權利的法律(例如數據保護、隱私、非歧視)、消費者保護以及產品安全和責任規則的約束。不管是產品或系統,消費者都期望依賴人工智能達到相同水平的安全性以及權利尊重。但是,人工智能的某些特定功能(例如不透明性)會使該法規的應用和執行更加困難。因此,有必要檢查當前的立法是否能夠解決人工智能的風險并能夠有效執行,是否需要對立法進行修改,或者是否需要新的立法。 在人工智能快速演變的情
40、況下,監管框架必須給將來的發展留有余地。任何更改都應限于明確已識別的問題且具有可行性解決方案。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 17 成員國指出目前缺乏共同的歐洲框架。德國數據道德委員會(The German Data Ethics Commission)呼吁建立基于風險的五級監管體系,從對最無害的人工智能系統的不設監管,到對最危險的人工智能系統的完全禁止。丹麥剛落地了數據道德保證的模型。馬耳他也為人工智能引入了自愿認證體系。如果歐盟未能提供整個歐盟范圍內的解決途徑,這將引致確定的內部市場分裂風險,破壞信
41、任、法律確定性和市場占有率的目標。 可靠的歐洲人工智能監管框架將保護所有歐洲公民、幫助創建無摩擦的內部市場,以進一步發展和推廣人工智能、加強歐洲人工智能的產業基礎。 A A、 問題定義問題定義 雖然人工智能可以做很多好事,包括使產品和處理更安全,但它也可能造成傷害。這個危害可能是物質的(如個人安全和健康,包括失去生命,財產損害)和非物質的(如隱私泄露,言論自由限制,人格尊嚴損害,就業歧視),也可能涉及到多種風險。監管框架應集中于如何最大程度減少潛在危害的各種風險,尤其是特別重大的風險。 與使用人工智能有關的主要風險涉及用來保護基本權利(包括個人數據、隱私保護和非歧視)的規則的應用、安全32和與
42、責任相關的問題。 基本權利面臨的風險基本權利面臨的風險,包括個人數據、隱私保護以及非歧視,包括個人數據、隱私保護以及非歧視 使用人工智能會影響為歐盟奠定基石的基本價值觀,并侵犯諸多基本權利33,包括言論自由、集會自由、人格尊嚴,在特定領域不因性別、種族或民族、宗教或信仰、殘疾、年齡或性取向而受到歧視的權利,個人數據和私人生活受保護的權利34,有 32這包括網絡安全問題,與關鍵基礎架構中的人工智能應用相關的問題或對人工智能的惡意使用。 33 歐洲委員會研究表明,人工智能的使用可能會影響大量的基本權利。https:/rm.coe.int/algorithms-and-human-rights-en
43、-rev/16807956b5. 34“一般數據保護條例”和“電子隱私指令”(新的電子隱私條例正在磋商中)在處理這些風險,但可能需要研究人工智能系統是否構成額外風險。委員會將持續監控和評估“一般數據保護條例”的應用情況。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 18 效的司法救濟和公平審判,以及消費者受保護的權利。這些風險可能源于人工智能系統設計過程中就存在的缺陷(包括人為監督),或者來源于在不糾正可能存在的偏見的前提下使用數據(例如,該系統僅使用或主要來自男性的數據進行訓練,導致生成的與女性相關的結果不太理想)
44、。 人工智能可以執行很多以前只能由人類完成的功能。因此,公民和法律實體將越來越多地受制于人工智能系統做出的或在其協助下做出的行動和決定,這些行動和決定有時可能難以理解,甚至在必要時難以有效挑戰。此外,人工智能增加了跟蹤和分析人們日常習慣的可能性。例如,存在一種潛在風險,即在違反歐盟數據保護和其他規則的情況下,人工智能可能會被政府當局或其他實體用于大規模監控,或被雇主用來觀察員工的舉止是否得體。通過分析大量數據并確定它們之間的聯系,人工智能還可能被用于回溯和去匿名化個人數據。即使數據集本身不包括個人數據,也會產生新的個人數據保護風險。人工智能也被在線中介用于為用戶排列被展示內容的優先順序,并執行
45、內容審核。經過處理的數據、應用程序的設計方式和人類干預的范圍都會影響自由表達、個人數據保護、隱私和政治自由的權利。 某些人工智能算法在被用于預測刑事犯罪累犯的概率時,可能會引起性別和種族偏見,顯示出女性與男性、本國民眾與外國人的不同累犯預測概率。 資料來源:Tolan S.,Mron M.,Gomez E.和Castillo C.“為什么機器學習可能導致不公平:來自加泰羅尼亞青少年司法風險評估的證據”,國際最佳論文獎,2019年人工智能與法律會議。 某些用于面部分析的人工智能應用顯示出對性別和種族偏差的分析結果,在確定淺色較淺的男性時誤差低,而在確定深色較深的女性時誤差高。 資料來源:Joy
46、Buolamwini,Timnit Gebru;第一次公平、問題和透明會議論文集,PMLR 81:77-91,2018年。 偏見和歧視是任何社會或經濟活動的固有風險。人類決策也不能避免產生錯誤和偏差。然而,同樣的偏差在人工智能中可能會產生更大影響,在規制人類行為的社會歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 19 控制機制尚未建立之際影響和歧視許多人。35當人工智能系統在其運行中“學習”時,也可能發生這種情況。在此種設計階段無法預防或預測相應后果的情況下,風險不會來源于系統原始設計中的缺陷,而是產生于系統進行大量數
47、據集訓練時,其所識別出來的關聯性或模式中帶來的實際影響。 包含不透明性(黑盒效應)、復雜性、不可預測性和部分自主行為等在內的諸多人工智能技術的特點,使得人們難以驗證其是否符合現行歐盟法律的規定,從而妨礙了這些規定在保護基本權利方面的有效執行。執法當局和受影響人士可能沒有途經核實在人工智能的參與下決定是如何做出的,繼而無法核實有關規則是否得到遵守。在受到這些決定可能帶來的負面影響的情況下,個人和法律實體在有效訴諸司法方面可能會面臨困難。 安全風險和責任制度有效運作的風險安全風險和責任制度有效運作的風險 當人工智能技術嵌入到產品和服務中時,可能會給用戶帶來新的安全風險。例如,由于物體識別技術的缺陷
48、,自動駕駛汽車可能會錯誤識別道路上的物體,對人類造成人身傷害和物質損失。與基本權利面臨的風險一樣,這些風險可能由人工智能設計缺陷造成,亦或與數據可用性和數據質量有關,也可能與機器學習引發的其他問題有關。雖然其中一些風險并不局限于依賴人工智能的產品和服務,但人工智能的使用可能會增加或加劇風險。 除了個人面臨相關風險外,缺乏應對此種風險的明確法律規定,可能會給在歐銷售人工智能產品的企業帶來法律不確定性困擾。市場監督和執法機構恐陷入一種境地,即由于沒有明確授權采取行動,和(或)不具備適當的技術能力檢驗系統,從而無法對此進行干預。36法律不確定性可能會導致整體安全水平降低,并削弱歐洲公司 35歐盟男女
49、平等咨詢委員會正在編寫一份人工智能意見書,分析人工智能對兩性平等的影響,委員會預計將于2020年初通過該意見。歐盟男女平等戰略(2020-2024)還處理了人工智能與男女平等間關系的問題,歐洲平等機構網絡(Equinet)將發表一份報告(由羅賓 艾倫和迪 馬斯特斯撰寫),題為“監管人工智能:平等機構的新角色-迎接數字化和人工智能使用增加帶來的平等和非歧視的新挑戰”,預計將于2020年初發布。 36兒童智能手表就是一個例子。該產品可能不會對使用它的兒童造成直接傷害,但是由于缺乏最低級別的安全歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDa
50、taLaws) 20 的競爭力。 如果安全風險成為現實,由于缺乏明確要求和前述提及的人工智能技術特點,使得很難追認人工智能系統參與下做出的決定是具有潛在隱患的。相應地,這又可能使遭受損害的人很難依據現行歐盟和國家的責任立法獲得賠償。37 根據“產品責任指令” (Product Liability Directive) ,制造商應對缺陷產品造成的損害負責。 然而,在基于人工智能系統的產品,例如自動駕駛汽車的場景下,可能很難證明產品存在缺陷、已發生的損害以及兩者之間的因果關系。此外,如何以及在多大程度上將“產品責任指令”適用到不同類型的缺陷也存在一定的不確定性,例如,如果這些缺陷是由于產品的網絡安
51、全漏洞造成的。 因此,追認人工智能系統做出的決定有潛在問題是存在難度的,且上述與基本權利的風險同樣導致安全和責任相關的問題。遭受損害的個人可能無法有效地獲得法庭立案所需的證據,且與傳統技術造成損害的情況相比,可能無法那么有效地追償。隨著人工智能的使用越來越廣泛,這些風險將會增加。 B B、 有關人工智能的歐盟現行立法框架可做出的調整有關人工智能的歐盟現行立法框架可做出的調整 大部分歐盟現行產品安全和責任立法38,包括由國家立法進一步完善具體行業規則,是與人工智能相關、可能適用于一些新興的人工智能應用。 關于保護基本權利和消費者權利,歐盟有相應的立法框架包括種族平等指令39(the Race E
52、quality Directive)、雇傭及職業平等待遇指令40(the Directive on equal treatment in employment and occupation)、關于在就業、獲得商品和服 措施,它很容易被用作接觸兒童的工具。市場監管機構可能會發現,在風險與產品本身沒有關聯的情況下,很難進行干預。 37白皮書附錄了委員會關于人工智能、物聯網和其他數字技術對安全和責任立法的影響的報告。 38歐盟產品安全法律框架包括作為安全網的“一般產品安全指令”(指令2001/95/EC),以及涵蓋不同類別產品的不同行業規則,從機器、飛機、汽車到旨在提供高水平的健康和安全的玩具、醫療
53、器械。產品責任法與不同的產品或服務損害產生的民事責任制度共同形成完整的產品責任體系。 39指令2000/43/EC。 40指令2000/78/EC。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 21 務方面男女平等待遇的指令41、大量的消費者保護規則42以及個人數據保護和隱私規則,最為著名的當屬一般數據保護條例,以及涵蓋了個人數據保護要求的其他行業立法43,例如數據保護法律執法指令(the Data Protection Law Enforcement Directive)。而且自2025年伊始,歐洲無障礙法案中關于
54、商品和服務的無障礙要求將會適用。44 此外,當執行其他領域的歐盟法規時,包括在金融服務、移居或者中介在線責任,都需要尊重基本權利。 盡管無論人工智能的參與度如何,歐盟立法原則上仍然適用,但重要之處在于需評估法規能夠得到切實執行以應對人工智能系統產生的風險,或者是否需要調整特定的法律文本。 例如,經濟運營者仍然要對人工智能是否遵守現行保護消費者的規則負全部責任,任何違背現行關于算法利用消費者軌跡的規則都是不被允許的,違反的話應受到相應懲罰。 委員會認為可以改進立法框架,以處理下列風險和情形: 有效應用和執行現行歐盟和國家立法:人工智能的關鍵特性為確?,F行歐盟和國家立法的合理應用和執行帶來了挑戰。
55、人工智能缺乏透明度(不透明性)使得識別和證明可能的違法行為變得困難,包括保護基本權利、責任歸屬和滿足索賠條件的法律條款。因此,為了確保有效的實施和執行,可能有必要對特定領域的現行立法進行調整或說明,比如在本白皮書隨附報告中進一步詳細闡釋的責任問題。 歐盟現行立法的范圍限制:歐盟產品安全立法的一個重要關注點是產品的市場定位。在歐盟產品安全立法中,當軟件是最終產品的組成部分時,必須遵守相關的產品安全規則,獨立軟件是否受歐盟產品安全立法管理是一 41指令2004/113/EC;指令2006/54/EC。 42 例如“不公平商業行為指令”(指令2005/29/EC)和“消費者權利指令”(指令2011/
56、83/EC)。 43歐洲議會和歐洲理事會2016年4月27日關于自然人保護的指令(指令(EU)2016/680),提及關于主管當局為預防、調查、偵查或起訴刑事犯罪或執行刑事處罰而處理個人數據的,以及此類數據的自由流動。 44歐盟產品和服務無障礙條例(指令(EU) 2019/882)。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 22 個公開的問題,雖然在一些行業有明確的規定。45歐盟現行的一般安全法規適用于產品而非服務,因此原則上也不適用于基于人工智能技術的服務(例如衛生服務、金融服務、交通服務)。 改變人工智能系統
57、的功能:將包括人工智能技術在內的軟件集成到產品中,可以在產品和系統的生命周期中更新其功能。這對于需要頻繁升級軟件或依賴機器學習的系統更是如此。這些特點會產生新的風險,這些風險在系統上市時尚不存在。而現行立法主要關注產品上市時是否存在安全風險,并沒有充分提及、解決這些新生風險的問題。 供應鏈中不同經濟運營者之間責任分配的不確定性:通常,歐盟產品安全立法將責任分配給市場上產品及其所有組件的生產者,例如人工智能系統。但如果人工智能技術是由其生產者之外的一方在產品上市后增加進產品中的,那這些規定可能會變得不甚明確。此外,歐盟產品責任立法規定了生產者的責任,卻將供應鏈中其他主體的責任交由國家管理。 安全
58、概念的變化:在產品和服務中使用人工智能技術可能會產生歐盟立法目前沒有明確提及的風險。這些風險可能與網絡威脅、個人安全風險(涉及人工智能新應用,例如家用智能電器)、連接中斷導致的風險等有關。這些風險可能在產品上市時出現,或者在使用產品時因軟件更新或進行自我學習(self-learning)而出現。歐盟應充分利用其所掌握的工具,加強其對與人工智能應用相關潛在風險的證據基礎,包括利用歐洲網絡與信息安全局(ENISA)的經驗評估人工智能潛在威脅。 45例如根據“醫療器械條例”(條例(EU)2017/745),制造商打算用于醫療目的的軟件被視為醫療器械。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全
59、文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 23 如之前指出的,一些成員國早已開始探索其國內立法的可行性來應對人工智能帶來的挑戰。這也帶來了單一市場分散的風險。不同國家的法規很可能會限制那些想到單一市場銷售和運營人工智能系統的公司。從歐盟層面統一使用一個共同的方法,將有助于歐洲公司順利進入單一市場,并支持他們在全球市場中增加競爭力。 根據以上討論,委員會得出結論,除了對于現行立法可能進行的調整外,還可能需要新增一個針對人工智能的立法來使得歐盟法律框架適用于當前及可預見的科技和商業的發展。 有關人工智能,物聯網和機器人安全和責任影響方面的報告有關人工智能,物聯網和機
60、器人安全和責任影響方面的報告 隨附在白皮書的報告分析了相關的法律框架,指出了將此框架應用于解決人工智能系統和其他數字科技方面所帶來的特定風險的不確定性。 它總結得出目前的產品安全立法已經提供了擴展的安全保護的概念,以應對來自產品使用的風險。同時,那些明確涵蓋新興數字科技所帶來的新風險的條款,也能被引用,以提供更多的法律確定性。 一些人工智能系統在其生命周期內的自主行為可能導致對安全有影響的重要產品變更,并可能需要進行新的風險評估。此外,也需要人類對人工智能產品及系統從設計、并貫穿其生命周期實施監管,保障安全。 適當情況下,生產者對于用戶精神安全風險的明確責任也應被考慮進去。 歐盟產品安全立法能
61、夠規定在設計階段解決使用錯誤數據導致的安全風險的具體要求,以及確保人工智能產品和系統使用過程中數據質量的機制。 有關算法系統的不透明性可以通過要求透明度來解決。 一個單獨的軟件投放到市場,或在上市后被下載到一個產品中,此情形下,如果其影響安全,現行的規則可能需要被調整和說明。 隨著新技術使用導致供應鏈變得日益復雜,特別要求供應鏈上的經濟運營者和用戶之間能夠協作的法律條款例可以提供法律確定性。 像人工智能、物聯網和機器人之類的新興數字科技,其特性可能會挑戰責任框架的某些方面,并降低其有效性。由于其中一些特性很難把過失歸咎到個人身上,而這在大多數國家中基于過失的索賠是必須的。這就導致了受害者的成本
62、大大增加,也意味著除了生產者以外的責任追究更難提出和證明。 人類因人工智能系統使用而遭受的損害也應該和被其他技術造成的損害一樣受到同等保護,同時也應允許技術革新繼續發展。 所有確保這一目的的選擇都應該被謹慎評估,包括可能修訂產品責任指示和可能進一步針對國家責任規則的趨同化。譬如,委員會正在征求意見,是否以及應在多大程度上調整國家責任規則要求的、由人工智能應用所造成的損失舉證責任,來減輕舉證復雜性。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 24 C C、 未來歐盟監管框架的范圍未來歐盟監管框架的范圍 對于將來的人工
63、智能監管框架而言,關鍵之處在于確定它的應用范圍??尚械脑O想是它將適用于依賴人工智能的產品和服務。人工智能因此應在本白皮書的目的及未來可能的政策制定參考中被清晰的定義。 在對歐洲有關人工智能的溝通函中,委員會首次定義了人工智能46。高級專家組47對這個定義又進行了完善。 在任何新的法律文書中,人工智能的定義應在足夠精準、滿足法律確定性需要的同時,還要足夠靈活以適應科技發展。 對于本白皮書的目的,和將來任何可能的政策提議討論,明確“數據”和“算法”是組成人工智能的主要元素尤為重要。人工智能可以被集成到硬件中。被認為是人工智能子集的機器學習技術中,算法被訓練成基于數據集來推導特定模型,從而確定完成既
64、定目標所需的動作。使用中,算法會繼續學習。雖然基于人工智能的產品可以通過感知其周邊環境而不需通過預先設置的指令而行動,但它們的在行為很大程度上還是被開發者定義和約束的。人類決定并規劃目標,而人工智能 46 COM(2018) 237 最終版,第1頁: “人工智能指的是通過分析周邊環境后采取行動一定程度的自動化來達到特定的目的,從而展示智能行為的系統。 基于人工智能的系統可以是純軟件基礎,在虛擬世界中展示(如,語音提示,圖像分析軟件,搜索引擎,語音和人臉識別系統)或是集成在硬件設備中的人工智能(如,高級機器人,自動駕駛汽車,無人機或是物聯網的應用等)。 47高級專家組在人工智能定義一書的第8頁中
65、提及:“人工智能系統是人類設計的軟件(也可能是硬件)系統,在給定一個復雜目標的情況下,通過獲取數據而感知周圍的環境,解讀收集到的結構或者非結構化的數據,推理知識,或者處理從數據中得出的信息,從而在在物理或者數字維度行動,并確認最佳的行動來達到特定目的 。 人工智能系統既可以使用象征性的規則,也可以學習數字化模型,同時它們也可以通過分析環境如何受他們以前的行為的影響來對自身行為進行調整。 以自動駕駛為例,其算法使用來自于車輛產生的即時數據(如車速、引擎消耗、減震器等)和感應器掃描到的車輛所處環境的數據(如路況、信號燈、其他車輛、行人等)來決定車輛到達指定目的地應采取的駕駛方向、加速度和速度?;?/p>
66、觀察到的數據,算法能夠適應路況和外部條件,包括基于其他駕駛員的行為來得出最舒服、安全的駕駛。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 25 系統來對其進行優化。 歐盟有嚴格的法律框架來確保對消費者的特別保護,以消除不公平的商業行為并保護個人數據和隱私。此外,這些法律還包括了對于特定行業(如:健康,運輸)的特別規則。這些現行的歐盟法律條款仍將繼續適用于人工智能,盡管可能有必要對這些框架進行更新以反映數字化轉型和人工智能的使用(參見章節B)。因此,此框架仍將繼續監管那些目前已經被現行橫向或部門內立法涉及的方面(如:醫
67、療設備48,運輸系統)。 原則上,針對人工智能的新的監管框架應該更有效地達到其監管目的,而不應增加過度的指令造成不合理的負擔,尤其是對中小企業。為了實現這樣的平衡,委員會認為應該采取基于風險的方法。 基于風險的方法對協助確認監管干預程度是否合理恰當非常重要。然而,它需要清晰的標準來區分不同的人工智能應用,尤其是那些關系到他們是否屬于“高風險”49的問題。對高風險人工智能應用的判定應是清晰、易理解且對相關各方適用的。然而,盡管有的人工智能應用不被認為有高風險,它仍會受到現行歐盟法則的約束。 委員會認為應將特定的人工智能應用視為是高風險的,同時考慮其所應用的行業和預期用途是否牽涉重大風險,尤其應從
68、安全保護、消費者權利和基本權利的角度出發。更確切地說,如果一個人工智能應用同時滿足以下兩個的判斷標準,那它就應該被認為認為是高風險的: 首先,結合某行業的典型活動的特點,人工智能應用在該行業中使用時極有可能引發重大風險。這個判斷標準為了確保監管的介入是針對那些大概率會發生風險的特定領域。被涵蓋的行業應該在新的監管框架中被具體、詳盡地列出。例如,健康、運輸、能源和公共行業的多個部分。50此清單 48舉例來說,對于人工智能系統向醫師提供的特別的醫療信息,人工智能系統直接提供給患者的醫療信息和人工智能系統自行執行的對患者的醫療任務,有很多不同的安全考量和法律提示。委員會在逐一檢查這些不同于健康的安全
69、性和責任問題。 49歐盟立法會對在這里提到的“風險”根據不同方面進行分類,譬如,產品安全。 50公共行業包括救濟所、移民局、邊境防控和法院、社會安全以及就業服務等。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 26 應被定期審閱,并根據實踐的相關發展進行及時修正。 其次,在有爭議的行業使用人工智能應用有可能會增加重大風險。這個標準反映出并非在特定行業中使用人工智能應用就都隱含了高風險。比如,健康行業可以被認為是存在這種情況的行業,但醫院預約系統的缺陷并不會造成需要法律介入的重大風險。對人工智能應用在既定使用場景下的風
70、險等級的評估應基于相關各方所受到影響的程度。例如,因人工智能應用的使用,給個人或公司造成了法律上的或類似的重大影響;造成傷亡或重大物質或非物質損失的風險;對個人或法律實體造成不可避免的影響。 這兩個累計標準的使用能夠確保監管框架范圍的針對性,并提供了法律的確定性。原則上,新的人工智能監管框架所包含的強制性要求應僅適用于符合上述兩條累計標準定義的高風險應用。 盡管有上述規定,但也可能出現一些例外情況,例如由于風險的存在,為某些特定目的使用人工智能應用仍會被視為是高風險的,且適用51如下規定,而與其所應用于的行業是否受關注無關。作為說明,可以特別考慮以下內容: 鑒于其對個人及解決歐洲平等就業問題的
71、重要性,在招聘過程及影響勞工權益的情形下時下使用人工智能應用應始終被認為是“高風險”的。因此,下文中的要求應將始終適用。還可考慮影響消費者權益的其他具體應用場景。 出于遠程生物識別52(remote biometric identification)及其它侵入式監控技術的目的而使用人工智能應用,應始終被認為是“高風險”的。因此,下文中的要求應將始終適用。 51尤其應該強調的是,其他歐盟法律在此處仍可能適用。例如,當包括消費品時,一般商品安全指令能適用于人工智能應用的安全性。 52遠程生物識別應與生物特征認證相區別(后者是基于單一個體獨特的生物特征的一種安全程序,用以保證某人即其所稱)。遠程生物
72、識別是在生物識別標識(指紋、面部圖像、虹膜、血管性狀等)的幫助下,通過遠程、公共空間和連續或持續的方式,將多重主體身份與數據庫中存儲的數據進行核驗。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 27 D D、 要求的類型要求的類型 在設計未來的人工智能監管框架時,有必要確定針對相關參與者的強制性法律要求的類型。這些要求可通過標準進一步明確。如上文章節C所述,除現行立法外,這些要求將僅適用于高風險的人工智能應用,從而確保所有監管干預措施的針對性和適當性。 考慮到高級專家組的指導方針以及上文所述,對高風險人工智能應用的要
73、求可能包含如下幾項關鍵特點,后續各小節將分點進行詳細討論: 訓練數據; 數據及記錄保存; 所提供的信息; 魯棒性及準確性; 人類監督; 為某些特定人工智能應用所設立的具體要求,如那些以遠程生物識別為目的人工智能應用。 為確保法律確定性,這些要求將被進一步詳細說明,為所有需照此執行的參與者提供一個明確的基準。 a)a) 訓練數據訓練數據 促進、加強和捍衛歐盟價值觀及規則,尤其是公民從歐盟法律中獲得的權利,這比以往任何時候都更重要。這些努力也將毫無疑問地延伸適用于那些正考慮在歐盟市場上銷售和使用的高風險人工智能應用上。 如前所述,沒有數據就沒有人工智能。許多人工智能系統的功能以及它們可能導致的行動
74、和決策在很大程度上取決于對系統進行訓練的數據集。因此,應采取必要的措施,確保在用于訓練人工智能系統的數據能夠符合歐盟的價值觀和規則,特別是歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 28 與安全性和保護基本權利的現行立法規則相關聯時。如下是有關用于訓練人工智能系統的數據集的要求: 要求旨在合理保證人工智能系統支持的產品或服務的后續使用安全,基于此,它應滿足歐盟安全規則(現行及可能的補充規則)中適用的一系列標準。例如,要求確保人工智能系統接受足夠廣泛的、涵蓋了所有相關場景以避免危險情況的數據集培訓。 采取合理措施的要求
75、旨在確保人工智能系統在后續使用中不會產生禁止的歧視結果。這些要求可能需要在特定的義務下使用具有足夠代表性的數據集,尤其確保這些數據集適當地反映了性別、種族和其他禁止的歧視原因的所有相關維度; 要求旨在確保使用基于人工智能的產品和服務的期間,充分保護隱私和個人數據。通用數據保護條例和執法指令就屬于其各自范圍內的問題進行了規定。 b)b) 保留記錄和數據保留記錄和數據 考慮到許多人工智能系統的復雜性和不透明性等因素,以及在有效核實相關適用規則符合性和執行方面存在困難,因此要求對與算法編程、及用于訓練高風險人工智能系統的數據有關的記錄進行保留,在某些情況下,還需保留數據本身。這些要求基本上可以支持追
76、溯和驗證人工智能系統的有問題的操作或決策。這不僅有利于監督和執行,而且也可能激勵相關經濟運營者,使他們在早期階段就考慮到尊重這些規則的必要性。 為此目的,監管框架可以要求對如下內容進行保存: 有關用于訓練、測試人工智能系統的數據集的準確記錄,包括對主要特征的描述及如何選擇數據集; 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 29 在某些合理情況下,數據集本身; 有關編程53和訓練方法,構建、測試和驗證人工智能系統的過程和技術等的記錄文件,包括在安全性和避免可能導致禁止性歧視的偏差的相關信息。 記錄、文件和相關數據集應
77、在有限的合理期間內進行保存,以確保有效執行相關法律。應采取措施確保對應記錄及資料在需要時及時可用,尤其在監管當局進行測試或檢查時。必要時,應做出安排以確保機密信息(例如商業秘密)受到保護。 c)c) 信息提供信息提供 除上文章節C中討論的記錄保存要求外,透明度也是必不可少的。為了實現既定目標,尤其為促進人工智能的負責任使用、建立信任并在需要時方便救濟,主動提供高風險人工智能系統使用的充分信息至關緊要。 相應地,應考慮如下要求: 確保提供清晰的信息,說明人工智能系統的功能和局限性,特別是系統的預期用途、按預期運行所需的條件,以及實現該用途的預期精準度。這些信息對系統部署者尤其重要,但也可能與監管
78、部門和受影響的各方相關。 另外,應明確告知公民與其互動的是人工智能系統而非人類。盡管歐盟數據保護法規已經包含某些此類規則54,但仍可能需要其他附加要求以實現上述目標。即便如此,仍應避免增加不必要的負擔。因此,存在例外情況無需提供此類信息,例如在公民能很快意識到與他們互動的是人工智能系統的情況下,無需告知。更為重要的是,提供的信息必須客觀、簡明且易理解。提供信息的方式應根據特定的場景進行調整。 d)d) 魯棒性和準確性魯棒性和準確性 53例如,包括模型應優化的內容,針對某些參數起初設計權重等在內的算法文檔。 54特別是,根據通用數據保護條例(GDPR)第13(2)(f)條的規定,控制者必須在獲取
79、個人數據時向數據主體提供必要的進一步信息,以確保對自動決策的存在以及某些其他附加信息進行公平和透明的處理。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 30 人工智能系統包含高風險人工智能應用在內必須具備技術上的魯棒性和準確性,才值得信賴。這意味著這些系統應以負責任的方式開發,并預先適當考慮其可能產生的風險。它們的開發和功能設計必須可以確保人工智能系統按照預期可靠運行。應采取合理措施最大程度降低可能造成損害的風險。 相應地,應考慮以下幾方面: 要求確保人工智能系統在其生命周期的所有階段都具有魯棒性和準確性,或至少正確
80、反映了它們的準確性程度; 確保結果可復現; 要求確保人工智能系統能夠在其生命周期的所有階段均能充分處理錯誤或不一致性。 要求確保人工智能系統能夠抵御公開攻擊和更隱蔽的數據或算法操縱企圖,并在這種情況下采取緩解措施。 e)e) 人類監督人類監督 人類的監督有助于確保人工智能系統不會違背人類自主性或造成其他不利影響。只有通過人類對高風險人工智能應用的適當管理,才能實現可信賴的、合乎倫理的和“以人為中心”的人工智能的目標。 盡管本白皮書中基于特定法律制度的人工智能應用被認為是高風險的,但需要進行人類監督的適當類型及程度因情況而異。這尤其取決于系統的預期用途以及該用途對受影響的公民和法人實體可能產生的
81、影響。當人工智能系統在處理個人數據時,亦不得損害通用數據保護條例(GDPR)所確立的合法權利。例如,人類監督可能具有以下尚未詳盡羅列的表現形式: 除非事先經過人工審核和驗證確認,人工智能系統的輸出將不會生效(例如,拒絕社會保障福利申請的決定只能由人類做出); 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 31 人工智能系統的輸出立即生效,但其后必須進行人工干預。(例如,信用卡申請被拒可能由人工智能系統處理,但之后必須進行人工審核); 監控人工智能系統的運行,且人類有能力實時干預、并使其失效(例如,在無人駕駛模式中,當人
82、類認為汽車運行不安全時,可以使用停止按鈕或操作程序); 在設計階段,對人工智能系統施加操作限制(例如,當感應器不那么可靠時,無人駕駛模式應停止在某些能見度較低的條件下運行,或在任何情況下與前保持一定距離)。 f)f) 遠程生物識別的具體要求遠程生物識別的具體要求 諸如通過在公共場所部署人臉識別系統等,為了遠程識別55而收集和使用生物特征數據56會給基本權利57帶來特定的風險。根據使用目的、環境和范圍的不同,使用遠程生物識別人工智能系統對基本權利的影響可能會有很大差異。 歐盟數據保護規則原則上禁止單純為識別自然人的目的而處理生物識別數據,但在特定條件下除外58。具體而言,根據GDPR該處理只能基
83、于有限的理由,其中主要理由是出于實質性公共利益的考慮。該情況下應根據歐盟或本國法律處理,且遵守相 55在人臉識別方面,識別是指將一個人的面部圖像的模板與數據庫中存儲的許多其他模板進行比較,以查明他或她的圖像是否存儲在數據庫中。另一方面,身份驗證(或驗證)通常被稱為一對一匹配。它可以比較兩個通常被假定屬于同一個個體的生物特征模板。兩個生物特征模板進行比較,以確定兩個圖像上顯示的人是否是同一個人。例如,這種程序在機場邊界檢查的自動邊境控制(ABC)登機口處使用。 56生物特征數據被定義為“有關自然人的身體、生理或行為特征的特定技術處理所產生的個人數據,允許或確認該自然人的唯一認證或身份證明,如面部
84、圖像或指印指紋數據。(執法指令,第3(13)條;通用數據保護條例(GDPR),第4(14)條;條例(EU)2018/1725,第3(18)條。 57例如,關于人的尊嚴。與此相關的是,在使用面部識別技術時,尊重私人生活和保護個人數據的權利是基本權利關注的核心。對兒童、老年人和殘疾人等特殊群體的非歧視和權利也有潛在的影響。此外,言論、結社和集會的自由不應因使用技術而受到損害。參見:人臉識別技術:執法中的基本權利考量,https:/fra.europa.eu/en/publication/2019/facial-recognition。 58GDPR第9條,第10條執法指令。另請參見第10條法規(E
85、U)2018/1725(適用于歐盟機構和組織)。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 32 稱性要求、尊重數據保護權的實質并采取適當的保障措施。根據執法指令須嚴格執行該處理,原則上應獲得歐盟或國家法律的授權并采取適當保障措施。由于為單純識別自然人而進行的任何生物識別信息的處理可能與歐盟法律中一項禁止條款的例外情形有關,因此這種情況仍受到歐盟基本權利憲章的約束。 因此,根據當前的歐盟數據保護規則和基本權利憲章,只有在用途合理、目的相稱且保障充分的情況下,才可將人工智能用于遠程生物識別。 為解決在公共場所使用人工
86、智能可能產生的社會關注、避免內部市場分歧,委員會將在歐洲就合理使用人工智能的具體情況(如有)及普適性保障措施展開廣泛討論。 E E、 接受者接受者 關于適用上述高風險人工智能應用相關的法律要求的管理接受者,應考慮兩個主要問題。 首先,如何在相關經濟運營者之間分配責任。諸多角色參與在人工智能系統的生命周期中,包括開發者、使用人(使用配備了人工智能技術的產品或服務的人員)以及潛在人員(生產商、分銷商或進口商、服務提供商、專業或私人用戶)。 委員會認為,在未來的監管框架中,每項責任都應由最有能力應對對應潛在風險的角色承擔。例如,人工智能的開發者可能最適合解決開發階段所產生的風險,而他們在使用階段控制
87、風險的能力可能會受到更大限制,所以在使用場景下使用人應該承擔相關責任。這并不妨礙承擔對最終用戶的責任,或在遭受損害的他方訴諸司法時確定哪一方應對損害承擔責任。根據歐盟產品責任法,由生產者承擔缺陷產品的責任,但不影響國家法律規定允許向他方追償。 其次,存在立法干預的地域問題。委員會認為,最重要的是將該要求適用于在歐盟境內提供基于人工智能技術的產品或服務的所有經濟運營者,無論其是否在歐盟境內設立。否則,就不能完全實現上述提及的立法干預的目的。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 33 F F、 合規與執法合規與執
88、法 為了確保人工智能可信、安全且遵守歐洲的價值觀和規則,必須在實踐中遵守適用的法律規定,并由國家和歐洲主管部門以及相關方有效執行。主管部門應有權調查個別案件,并相應評估其社會影響。 鑒于一些人工智能應用會對公民和我們的社會造成高風險(參見上文章節A),委員會認為在此階段有必要進行客觀的事前合規評估,以驗證和確保高風險應用程序(參見上文章節D)符合上述某些適用的強制性要求。事前合規評估可能包括測試、檢查或認證的程序59??赡馨z查開發階段使用的算法和數據集。 針對高風險人工智能應用的合規評估應成為歐盟內部市場現有的諸多產品合規評估機制的一部分。若沒有現成機制,可借鑒最佳實踐、利益相關方和歐洲標
89、準組織的相關輸出以建立類似的機制。此類新機制應遵循國際義務,如相稱、非歧視、使用透明及標準客觀。 基于事前合規評估進行系統設計和實施時,應特別注意以下幾點: 并非以上概述的所有要求均適合通過事前合規評估進行驗證。例如,要求提供信息通常不適合通過此類評估進行驗證。 應特別考慮某些人工智能系統進化發展并從經驗中學習的可能性,可能需要在該人工智能系統的整個生命周期中反復進行評估。 需要驗證用于訓練的數據,以及用于構建、測試和驗證人工智能系統的相關編程、訓練方法、過程和技術。 若合規評估表明人工智能系統不滿足要求(如與用于訓練它的數據有關的要求),則需要糾正已識別的缺陷,例如,在歐盟對該系統進行再訓練
90、以確保滿足所有適用要求。 59系統將基于歐盟的合規評估程序,請參閱第768/2008 / EC號決定或基于法規(EU)2019/881(網絡安全法),考慮人工智能的特殊性。請參閱歐盟產品規則實施藍皮書指南,2014年。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 34 對于所有適用要求的經濟運營者(無論其設立地點如何60),都必須進行合規評估。為了減輕中小企業的負擔,可以設立支持性架構(包括通過數字創新中心)。此外,標準以及專用在線工具也可以協助合規。 任何事前合規評估均不應影響國家主管部門對合規情況的監控和事后執行
91、。不僅是高風險的人工智能應用,其他人工智能應用也需要符合法律規定,雖然前者因其高風險特點而尤其引起國家主管部門的特別關注。事后控制應基于相關人工智能應用的充分文檔記錄進行(參見上文章節E),并在適當情況下由第三方(如主管部門)測試此類應用程序。因在某些場景下可能會對基本權利造成風險,所以上述措施尤其重要。相應的合規監控也應成為市場持續監控計劃的一部分。下文章節H將進一步討論與治理相關的內容。 此外,高風險人工智能應用和其他人工智能應用都應確保對受到人工智能系統負面影響的相關方實施有效的司法補救。與責任相關的問題將在本白皮書附錄中“關于安全與責任框架的報告”中進一步討論。 G G、 無高風險人工
92、智能應用的自愿標簽無高風險人工智能應用的自愿標簽 對于不屬于“高風險”(參見上文章節C)且因此不受上述強制性要求約束(參見上文章節D、E和F) 的人工智能應用,除法律要求外,應建立自愿標簽計劃。 根據該計劃,無需遵守強制性要求但對此感興趣的經濟運營者可以自愿決定遵從該要求或特別為自愿標簽計劃設立的具體類似要求。相關經濟運營者也將相應獲得其人工智能應用的優質標簽。 自愿標簽允許那些考慮了加強要求的經濟運營者向市場釋放信號,表明其人工智能產品和服務是可信賴的。它也方便用戶意識到其心存疑慮的產品和服務其實是符合特定目的和歐盟范圍內的標準化基準的,是超越了通常適用的法律責任要求的。這有助于增強用戶對人
93、工智能系統的信任,并促進該技術的大范圍適用。 60關于相關治理架構,包括指定進行合規評估的機構,請參閱下文章節H。 歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 35 此選項要求創建一個新的法律工具,來為非高風險人工智能系統的開發者和/或使用者制定自愿標簽框架。盡管參與標簽計劃是自愿的,但一旦開發者或使用者選擇使用標簽,相關要求將自動產生約束力,并將結合事前和事后的執行確保其遵守所有要求。 H H、 治理治理 應以國家主管部門合作框架的形式建立關于人工智能的歐洲治理架構,以避免職責分散、提升成員國能力,并確保歐洲逐步具
94、備與其需求匹配的、測試和認證人工智能產品和服務的能力。在該場景下,支持國家主管部門在人工智能使用時完成其任務將是有益的。 歐洲治理架構可包含多個任務,例如作為定期交流信息和最佳實踐、識別新興趨勢、提供標準化活動和認證建議的論壇。它還應在促進法律框架的實施中發揮關鍵作用,例如發布指引、意見和專門知識。為此,它將依賴于國家主管部門、國家和歐盟層面行業組織和監管部門的支持。此外,專家委員會也可以協助歐盟委員會。 治理架構應確保利益相關方最大限度地參與進來。應就框架的實施和進一步發展征詢利益相關方(如消費者組織和社會合作伙伴、企業、研究人員和公民社會組織)的意見。 考慮到業已存在的架構,例如金融、制藥
95、、航空、醫療設備、消費者保護、數據保護,建議治理架構不應重復現有職能。相反,它應與各行業的其他歐盟和國家主管部門建立緊密聯系,以補充現有的專業知識,并幫助現有部門監控和監督涉及人工智能系統以及支持人工智能的產品和服務的經濟運營者的活動。 最后,若采用該方法,則可以將合規評估委托給成員國指定的機構。測試中心應根據上述要求,對人工智能系統進行獨立審核和評估。獨立評估將增加信任并確??陀^性。它還可以促進有關主管部門的工作。 歐盟擁有出色的測試和評估中心,并應在人工智能領域發展其能力。在第三國設立歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDa
96、taLaws) 36 委員會通過以下網站公開邀請公眾對白皮書提出建議并發表意見: https:/ec.europa.eu/info/consultations_en.該意見的征詢將開放至2020年5月19日。 委員會一般會發布關于征詢公眾意見的回復函。其中可能包含部分或全部建議的內容,但會確保內容的機密性。此情況下,請您在提交內容的首頁明確標明禁止公開,并將您所提交內容的非保密版本發送至委員會以供發布。 的經濟運營者擬進入內部市場的,可使用在歐盟設立的指定機構;或者在與第三國達成互認協議的前提下,向指定進行該評估的第三國機構求助。 與人工智能有關的治理架構以及可能進行的合規評估不會影響相關主管
97、部門在現行歐盟法律下關于特定行業或特定問題(財務、藥品、航空、醫療設備、消費者保護、數據、相關法規等)的權力和責任。 6.6. 結論結論 人工智能是一項可以為公民、公司和整個社會帶來諸多好處的戰略技術,只要其立足于“以人為中心”、合乎道德、可持續發展并尊重基本權利和價值。人工智能帶來了重要的效率和生產力收益,可以增強歐洲工業競爭力并改善公民福利。它還有助于找到最緊迫社會問題的解決方案,包括應對氣候變化和環境退化、與可持續性和人口變化有關的挑戰、以及保護我們國家民主,并在必要和適當的情況下打擊犯罪。 為了充分抓住人工智能提供的機會,歐洲必須發展并加強必要的工業和技術能力。正如隨附的歐洲數據戰略所
98、述,還需要采取措施使歐盟能夠成為全球數據中心。 歐洲實現人工智能的途徑旨在提升歐洲在人工智能領域的創新能力,同時支持整個歐盟經濟中符合道德要求、且可信賴的人工智能技術的發展和使用。人工智能應該為人們服務,并成為造福社會的力量。 借本白皮書和隨附的關于安全與責任框架的報告,委員會茲向成員國民間組織、行業和學術界廣泛征詢關于歐洲人工智能解決途徑的具體建議。包括增加研究和創新投資、增強技能發展并支持中小企業使用人工智能的政策手段,以及針對未來監管框架關鍵要素的建議。該征詢允許與所有有關方面展開全面對話,并為委員會的下歐盟歐盟人工智能白皮書人工智能白皮書全文中譯本全文中譯本 | | 數據法盟(數據法盟(DataLawsDataLaws) 37 一步工作提供參考。