《WIPO:2024年生成式人工智能知識產權導航報告-前沿技術概況(15頁).pdf》由會員分享,可在線閱讀,更多相關《WIPO:2024年生成式人工智能知識產權導航報告-前沿技術概況(15頁).pdf(15頁珍藏版)》請在三個皮匠報告上搜索。
1、生成式人工智能知識產權導航知識產權和前沿技術概況介紹圖:Getty Images/Laurence Dutton生成式人工智能(AI)工具正在快速地被許多企業和組織應用于內容生成。這類工具既為協助企業運營提供了大量機會,又由于當前的各種不確定性而帶來重大的法律風險,包括知識產權問題。許多組織正在尋求制定指導性意見,以幫助員工降低這些風險。盡管每種業務情況和法律背景各不相同,以下指導原則和清單旨在幫助各組織了解知識產權風險,提出恰當的問題,并考慮潛在的保障措施。生成式人工智能帶來眾多風險和問題。企業和組織應考慮實施適當的政策,并就此項技術的機遇和局限性向員工提供培訓。這種積極主動的方式在應對與使
2、用生成式人工智能相關的挑戰中至關重要。什么是生成式人工智能?生成式人工智能工具可以根據用戶的提示(比如對期望輸出的簡短書面描述)創建文本、計算機代碼、圖像、音頻、聲音和視頻等新的內容。目前生成式人工智能工具的實例包括ChatGPT、Midjourney、Copilot和Firefly。生成式人工智能以機器學習為基礎,生成式人工智能工具則使用大量數據進行訓練,這類數據通常包括數十億頁的文本或圖像。訓練數據集可由免費獲取且無產權負擔的信息(純數據)、受保護數據(比如受版權保護的作品)或兩者混合組成,具體取決于人工智能工具開發人員所采用的方式。然后,經過訓練的人工智能工具受到人工輸入的提示,觸發通常
3、高達數十億次的一系列復雜計算,以確定輸出。一般來說,無法預測輸出,也無法確定訓練數據的某些部分是否以及在多大程度上影響所產生的輸出。圖:Getty Images/imaginima問題概述開發生成式人工智能的成本可能非常高昂,可達到數千萬美元,大多數企業和組織都選擇采用第三方生成式人工智能工具,或者使用自己的數據對此類模型進行微調。一般存在的問題和企業風險包括:確定用例生成式人工智能可以執行許多任務,最佳用例仍在不斷發展中,不同企業和組織的情況將會各不相同。合同條款的差異生成式人工智能工具是新生的,商業合同條款的最佳實踐和規范仍在發展中。開發人員許可其人工智能工具的條款可能存在相當大的差異,包
4、括商業秘密和其他機密信息的處理方法、輸出的所有權、賠償的可獲性以及用戶通過實施員工監測和訓練來緩解風險的義務。訓練數據問題一些生成式人工智能工具使用從互聯網上抓取的材料進行訓練,包括版權作品、個人信息、生物識別數據以及有害的非法內容。關于材料的抓取、下載和處理、受過訓練的人工智能模型及其輸出是否涉及侵犯知識產權、隱私和合同,這方面的訴訟尚在進行中。有關知識產權所有人和人工智能開發者之間利益平衡的爭論仍在繼續。輸出問題生成式人工智能可能會產生不適當或非法的輸出,包括不正確的信息、知識產權侵權、深度偽造、個人信息、誹謗性指控以及有偏見的歧視性和有害內容。技術保障措施正在制定,但鑒于相關計算的復雜性
5、,預測人工智能在所有情況下的行為是一件棘手的事情。此外,大多數國家的知識產權法是在人工智能出現之前制定的,導致在人工智能輸出的權利歸屬方面存在不確定性。圖:Unsplash/Googledeepmind改變監管環境政府和監管機構正在考慮為生成式人工智能制定新的法律、法規、政策和指導方針。這些法律、法規、政策和指導方針可能會對使用生成式人工智能的企業和組織提出要求。中國已出臺具體法規,歐盟打算不久也實施相關法規。該問題清單并非詳盡無遺,可能還有許多其他挑戰,包括訓練和使用生成式人工智能的高耗能特性。聯合國教科文組織、經合組織和人工智能全球伙伴關系等許多國際組織就負責任地使用人工智能的一般原則發布
6、了指導意見。企業和組織應針對生成式人工智能考慮實施員工政策和培訓,以鼓勵進行負責任的實驗和使用。生成式人工智能和知識產權生成式人工智能有許多知識產權方面的接觸點和不確定性。雖然不可能徹底緩解這些知識產權風險,但以下因素可能有助于在這一不斷演變的技術領域中引導知識產權方面的考慮。機密信息機密信息是指不能公開獲得的、可能具有也可能不具有商業價值,且在私下交流和受到合理保護的信息。它包括商業秘密,這是一種具有(潛在)經濟價值或因其秘密性而可以提供競爭優勢的機密信息。圖:Getty Images/Floriana 如果使用生成式人工智能工具的企業和組織將商業敏感信息用于人工智能工具的訓練或提示,則可能
7、會無意中泄露商業秘密或放棄對商業敏感信息的保密。它們應該考慮并用技術、法律和實際保護措施,防止發生這種情況。風險生成式人工智能工具可以保存用戶提示并基于用戶提示進行訓練。如果用戶提示中包含機密信息,由于人工智能供應商擁有機密信息的副本,且機密信息可能成為與其他用戶公開共享的模型和輸出的一部分,機密信息就會喪失機密性。當企業和組織從零開始訓練生成式人工智能工具或使用其機密信息微調現有工具時,存在著信息被公眾獲取的風險。黑客可以使用“提示注入”等技術提取訓練數據,包括機密信息。私人生成式人工智能工具的供應商可能會監測和存儲提示,以檢查不當使用的行為。在某些情況下,可能由供應商的員工審查提示。緩解辦
8、法檢查生成式人工智能工具的設置,盡量減少供應商存儲或利用你的提示進行訓練的風險??紤]使用在私有云上運行和存儲的生成式人工智能工具。檢查人工智能工具的供應商是否會存儲、監測和審查你的提示。就任何機密信息向供應商尋求適當的保護和保證。將使用機密信息的生成式人工智能工具的訪問權局限于被授權獲取該信息的員工。實施員工政策,并就提示中包含機密信息的風險提供培訓??紤]讓信息安全專家審查和監測生成式人工智能工具。圖:Getty Images/kumpman electric知識產權侵權許多生成式人工智能工具都是基于大量(有時是數十億)受知識產權保護的項目進行訓練的?,F有幾起正在進行的法律糾紛,它們指控抓取和
9、使用這些作品來訓練人工智能、受過訓練的人工智能模型及其輸出屬于知識產權侵權行為。這些案件主要聚焦于版權和商標,但從理論上講,也可能涉及其他知識產權權利,比如工業品外觀設計、數據庫權利和專利發明。人工智能工具及其訓練、使用和輸出是否構成知識產權侵權,在法律上存在很大的不確定性。不同司法管轄區可能會給出不同的答案。企業和組織應該考慮通過使用符合知識產權規范的工具,盡可能尋求賠償,審查數據集,并實施技術和實際措施來減少侵權的可能性,從而降低風險。風險對于判定使用受知識產權保護的項目訓練人工智能、使用此類受過訓練的人工智能模型及其生成的輸出是否構成知識產權侵權,世界各地均有未決訴訟。風險不僅限于人工智
10、能開發人員,還可能延及生成式人工智能工具用戶。在許多國家,各種形式的知識產權侵權責任(比如復制版權作品)并非取決于被控侵權人的意圖或認知。法院尚未解決生成式人工智能開發人員、供應商、客戶和用戶是 緩解辦法考慮使用僅基于許可、公有領域或用戶自己的訓練數據所訓練的生成式人工智能工具。在選擇一款人工智能工具時,要考慮是否有供應商愿意為知識產權侵權(特別是版權侵權)提供賠償。評估賠償的范圍和適當性。例如,保護可能僅限于第三方賠償,并以遵守合同限制和實施緩解風險為條件。在訓練或微調生成式人工智能時,徹底審查數據集。核實知識產權所有權、人工智能訓練的許 圖:Getty Images/Laurence Du
11、tton否可對知識產權侵權、賠償款以及銷毀侵權模型或輸出承擔責任的問題。尚不清楚法院是否會認為下令禁用基于受知識產權保護項目進行訓練的人工智能模型是適當的。關于潛在的版權侵權問題,一些國家的知識產權法包括可能適用于生成式人工智能的例外情況,例如正當使用、文本和數據挖掘以及臨時復制。但是,各國之間缺乏協調統一,以及這些例外對生成式人工智能的適用仍是未知數,由此帶來了不確定性。即使法院已作出判決,這些也可能取決于具體的案情以及國家法律的規定??煞秶?,以及遵守知識共享許可協議或公有領域地位的情況。確保在預定的司法管轄區采取適當的版權例外。請注意,監管機構正在考慮對用于模型訓練的、受知識產權保護的項目
12、履行細節披露的義務??紤]保存記錄,記載人工智能模型是如何接受訓練的。實施員工政策和培訓,以盡量減少產生侵權輸出的風險。告誡不要使用提及第三方企業名稱、商標、版權作品或具體作者/藝術家的提示。使用輸出之前,考慮采取措施檢查侵權行為。這些可能包括抄襲檢查程序、圖片搜索和自由實施審查。根據具體情況評估緩解措施、相關成本和業務風險。圖:Unsplash/hugo barbosa開源義務人工智能生成的代碼可能會受到開源義務的約束。當一個軟件應用或代碼是開放源代碼時,意味著該源代碼對公眾開放,用戶通常被授予使用、修改和分發該軟件的特定權利和自由。不過,這些權利和自由伴隨著用戶必須遵守的義務,例如署名問題,
13、并且這些義務根據管理軟件的特定開源許可不盡相同。企業和組織應考慮這種風險是否與其代碼相稱,調查潛在的補償,并實施技術和實際措施,以減少開源義務產生的可能性。風險生成式人工智能可基于符合開源要求的代碼進行訓練,因而可能會違反關于商業使用或署名的限制條件等義務。在美國,一直有這方面的法律糾紛。一些開源許可證規定,含有開源代碼的任何代碼都要遵守同一個開源許可證的要求。因此,集成人工智能生成代碼的用戶可能會無意中將開源義務引入其項目。緩解辦法考慮從專門基于許可示例進行訓練的供應商處獲取生成式人工智能工具,或者實施技術保障措施,例如發現相關開源許可??紤]從提供開源侵權賠償的供應商處采購生成式人工智能工具
14、。檢查保護的范圍和適當性以及適用條件。在訓練或微調生成式人工智能工具時,徹底審查訓練數據,以獲得足夠寬松的許可。在編碼中使用生成式人工智能時采用風險收益法。如果確保代碼不受開源義務的約束至關重要,則應考慮禁止供應商和員工就這些項目使用生成式人工智能。圖:Getty Images/SIphotography深度偽造:肖像權和聲音權肖像和聲音在許多國家都受到保護,但這種保護并不統一。保護的形式包括一些知識產權權利(比如普通法系國家的假冒)、不正當競爭法、人權、憲法權利和公開權。生成式人工智能具有模仿特定人物的肖像或聲音的潛力,因為有些工具專門為此而設計。企業和組織應該考慮到與這些功能相關的風險。風
15、險未經授權使用或模仿某個人的聲音或肖像可能導致侵犯知識產權或其他權利,并因各司法管轄區的法律框架不統一而帶來挑戰。模仿肖像和聲音還可能面臨名譽受損或法律訴訟的風險,例如欺詐或誹謗。許多國家正在考慮針對深度偽造制定具體的法律法規。例如,中國已經通過了適用于“深度合成”的法規。緩解辦法制定員工政策,并提供明確限制使用“深度偽造的”生成式人工智能工具的培訓。對于經批準的生成式人工智能工具,實施禁止在提示中提及特定個人的政策。在有合法的商業理由合成某個人的聲音或肖像的情況下,要獲得主體的必要同意和許可。圖:Unsplash/Googledeepmind人工智能輸出的知識產權權利和所有權尚不明確人工智能
16、工具生成的新內容(比如文本、圖像或其他創意作品)是否受到知識產權權利保護,以及如果受到保護,誰擁有這些權利。即使人工智能輸出不受知識產權保護,可能還有約束其使用的合同條款。生成式人工智能輸出中的知識產權權利的存在和所有權尚不清楚。企業和組織應該尋求在合同中明確所有權,只有在輸出中的知識產權所有權對其業務模式并非至關重要的情況下才考慮使用生成式人工智能。風險大多數國家的知識產權法在編寫時都沒有考慮到生成式人工智能,導致不確定人工智能輸出中是否可以有知識產權以及誰將擁有任何此類權利。對于像商標這樣的一些知識產權權利來說,這可能不算問題,但對于版權而言,這是一個廣泛關注的問題。最近,將人工智能系統“
17、DABUS”命名為發明人的專利申請,因無法確定人類發明者而在已作出判決的國家被一致駁回。目前尚不清楚生成式人工智能是否可以不依賴人類發明者做出發明,或者這些發明是否可取得專利權。美國版權局就注冊包含人工智能生成材料的作品發布了指導意見,緩解辦法審查生成式人工智能工具的條款和條件,以了解誰是輸出中知識產權(如有)的所有者。通過納入品牌名稱和標識等知識產權元素,或在修改或創建新版本的輸出中引入人類的創意,探索各種途徑,加強對輸出的控制或權利。記錄人類在發明或創造過程中的作用。在可能的情況下,就誰擁有計算機生成作品的版權訂立協議。不同國家的法律標準不同,可能難以適用,因此協議可增加確定性。在委托創作
18、時,可考慮尋求獲得未使用生成式人工智能的保證。圖:Unsplash/Googledeepmind指出作品中需要有人類的創造性貢獻。版權局的裁定表明,僅憑用戶的文字提示不能確定版權,因為提示僅僅“影響”輸出。然而,北京互聯網法院最近裁定,由于用戶調整了提示和參數,使圖像反映出用戶的審美選擇和判斷,因此用戶對人工智能生成的圖像擁有版權。這些對人工智能生成作品的版權的不同解釋,給全球識別生成式人工智能輸出的版權帶來了法律上的不確定性。少數幾個國家(比如印度、愛爾蘭、新西蘭、南非和聯合王國)為沒有人類作者的“計算機生成的作品”提供版權保護。烏克蘭對計算機程序生成的“非原創物品”提供權利??紤]只在知識產
19、權權利并非必需的情況下使用生成式人工智能,例如供內部使用、創意生成以及(個人)社交媒體帖子等短暫用途。圖:Getty Images/gorodenkoff檢查清單企業和組織可以采取許多措施,促進負責任且合法地使用生成式人工智能。以下檢查清單可能有助于希望實施負責任的做法并駕馭這一快速發展領域的企業和組織。員工政策和培訓 實施員工政策和培訓,以引導適當的使用,并鼓勵對生成式人工智能進行負責任的實驗和使用,包括:了解與生成式人工智能相關的機會、風險和限制。避免在提示中使用機密信息。將應用商業秘密訓練的生成式人工智能的訪問權局限于被授權訪問的員工。在提示中避免使用第三方知識產權,以盡量減少侵權輸出。
20、避免使用“深度偽造的”生成式人工智能工具。風險監測和風險狀況管理 監測判例法和法規的變化。根據不斷變化的風險和法院裁決,定期評估和更新政策。向業務部門明確傳達法律風險,以便根據業務風險偏好采取相應措施。保有一份人工智能工具清單,并根據風險狀況對其分類,例如,所有員工均可使用的工具、使用機密信息的受限工具以及禁用工具的白名單。記錄保存 考慮記錄如何訓練人工智能工具。讓員工給人工智能生成的輸出做標記,并對所用提示進行記錄保存。記錄創作過程中人的作用。Photo:Getty Images/-圖:Unsplash/hishahadat人工智能工具評估 審查外部采購工具的條款、條件和設置(包括基于內部數
21、據進行訓練的工具),以便 了解供應商是否儲存有你的提示。了解這些工具基于哪些數據進行了訓練。尋求使用獲得適當許可或公有領域訓練數據的工具,或者擁有技術保障措施以防范使用受保護數據的工具。確定供應商是否針對知識產權侵權提供補償,以及有哪些條件。由信息安全專家審查和監測生成式人工智能工具。探索存儲在內部或私有云中的私人生成式人工智能工具,以加強控制和保證。就機密信息向供應商尋求適當的保護和保證。數據評估 在訓練人工智能時檢查數據集,并考慮知識產權的所有權和許可范圍。人工智能輸出 檢查生成式人工智能供應商關于輸出中的知識產權權利和所有權的條款。在使用輸出之前檢查知識產權侵權情況。將人工輸入和創意與人工智能輸出相結合,以保持對輸出所有權的控制。就輸出的所有權訂立協議。記錄創作過程中人的作用。獲得合成某個人的聲音或肖像的必要同意和許可。WIPO,2024年/署名4.0國際(CC BY 4.0)/CC許可不適用于本出版物中非產權組織的內容 封面:Getty Images/Laurence Dutton,Just_Super/產權組織文號:RN2024-8ZH;DOI:10.34667/tind.49473wipo.int