《浙江大學:2025生成式人工智能賦能智慧司法及相關思考報告(64頁).pdf》由會員分享,可在線閱讀,更多相關《浙江大學:2025生成式人工智能賦能智慧司法及相關思考報告(64頁).pdf(64頁珍藏版)》請在三個皮匠報告上搜索。
1、生成式人工智能賦能智慧司法及相關思考況琨 浙江大學計算機學院提綱l生成式人工智能發展脈絡l生成式人工智能賦能智慧司法l生成式人工智能的不能2什么是生成式人工智能什么是人工智能?什么是生成式模型?什么是人工智能?人工智能(Artificial Intelligence):是以機器為載體所展示出來的人類智能,亦稱為機器智能(Machine Intelligence)讓機器模擬人類在視覺、聽覺、語言和行為等方面的某些功能什么是生成式模型5生成式模型學習“數據如何生成的”(聯合概率分布)目標:學習數據背后的“完整故事”,包括數據的分布規律,甚至能自己“編故事”(生成新樣本)。像什么:一個畫家,不僅會判
2、斷“這是貓還是狗”,還能親手畫出一只貓或狗。怎么做:先分別學習貓和狗的特征(比如貓的尖耳朵、狗的尾巴形狀),然后建模它們的整體分布規律。判別式模型學習“如何區分數據”(條件概率或決策邊界)目標:直接找到“區分貓狗的關鍵線索”,不關心數據本身如何生成。像什么:一個偵探,專注研究“貓和狗有什么不同”,快速抓住關鍵證據。怎么做:直接學習貓狗之間的“分界線”,不關心貓狗各自長什么樣。什么是生成式模型6生成式模型學習“數據如何生成的”(聯合概率分布)目標:學習數據背后的“完整故事”,包括數據的分布規律,甚至能自己“編故事”(生成新樣本)。像什么:一個畫家,不僅會判斷“這是貓還是狗”,還能親手畫出一只貓或
3、狗。怎么做:先分別學習貓和狗的特征(比如貓的尖耳朵、狗的尾巴形狀),然后建模它們的整體分布規律。判別式模型學習“如何區分數據”(條件概率或決策邊界)目標:直接找到“區分貓狗的關鍵線索”,不關心數據本身如何生成。像什么:一個偵探,專注研究“貓和狗有什么不同”,快速抓住關鍵證據。怎么做:直接學習貓狗之間的“分界線”,不關心貓狗各自長什么樣。區分芒果和榴蓮:生成式模型:研究芒果的顏色、形狀、氣味,以及榴蓮的尖刺、氣味,甚至能“合成”一個虛擬的芒果。判別式模型:直接記住“有尖刺的是榴蓮,黃色橢圓形的是芒果”,遇到水果時快速對比。什么是生成式人工智能生成式人工智能技術,是指具有文本、圖片、音頻、視頻等內
4、容生成能力的模型及相關技術。生成式人工智能服務管理暫行辦法XRn生成式人工智能的典型代表:ChatGPTnChatGPT:大數據+超算力,現象級AI應用引發范式革命生成式人工智能的到來生成式人工智能發展脈絡-以GPT為例 GPT-1(2018):開啟預訓練范式9 核心突破:基于Transformer解碼器架構,采用“無監督預訓練+任務微調”的訓練模式,參數1.17億。任務微調指在預訓練模型的基礎上,使用特定任務的數據繼續訓練,來優化其在目標任務上的性能。通俗來說,就是給一個“什么都會一點但不精通的通才”做專項特訓。能力特點:掌握基礎語義規律,但生成文本較機械,像剛學會造句的小學生。GPT-12
5、018GPT-22019GPT-32020ChatGPT2022GPT-42023生成式人工智能發展脈絡-以GPT為例10 規模升級:參數增至15億,訓練數據擴展至40GB網頁文本。技術亮點:證明了無需任務微調即可完成翻譯、摘要等任務,生成文本連貫且富有創意,如撰寫短篇小說。社會爭議:因可能生成虛假信息,OpenAI一度限制其開源。GPT-12018GPT-22019GPT-32020ChatGPT2022GPT-42023 GPT-2(2019):展現零樣本學習能力生成式人工智能發展脈絡-以GPT為例11 參數躍遷:1750億參數創紀錄,訓練數據涵蓋45TB互聯網內容。能力質變:a.少樣本學
6、習:對于一個全新的任務,只需要給其提供1-5個示范案例,AI就能根據原有知識,迅速掌握全新的技能任務b.通用性突破:具有卓越的語言理解能力,和一定的歸納、演繹邏輯推理能力。局限性:存在“幻覺”問題,可能編造看似合理但錯誤的內容。GPT-3(2020):參數爆炸與少樣本學習GPT-12018GPT-22019GPT-32020ChatGPT2022GPT-42023生成式人工智能發展脈絡-以GPT為例12 技術革新:基于GPT-3.5,引入三階段訓練:a.海量文本預訓練:構建語言知識庫;b.人工標注示范:學習對話禮儀與安全準則;c.人類反饋強化學習:通過人類反饋減少無益、有害輸出。應用爆發:成為
7、寫作助手、編程導師、多語言翻譯工具。ChatGPT(2022):對話式AI的里程碑GPT-12018GPT-22019GPT-32020ChatGPT2022GPT-42023生成式人工智能發展脈絡-以GPT為例13 架構升級:參數規模上,1.8萬億參數,采用混合專家(MoE)架構提升效率;多模態融合上,支持圖像輸入與文本生成,如解析醫學影像生成診斷報告。能力躍遷:GPT-4在美國法考、GRE、SAT等排名提升至人類考生前10%水平;在法律、醫療等垂直領域表現接近人類專家。GPT-4(2023-2024):多模態與系統化思維GPT-12018GPT-22019GPT-32020ChatGPT2
8、022GPT-42023GPT的訓練三板斧之一:完形填空形式下文字接龍(自監督學習)原話:一輛 列車 緩慢 行駛 在 崎嶇 的 山路上預測填空:一輛 列車 緩慢 行駛 在 崎嶇 的 山路上移除單詞:一輛 列車 行駛 在 崎嶇 的 山路上在訓練時,人工智能模型會不斷地在句子中挖去一個單詞,根據剩下單詞的上下文來填空,即預測最合適的填空詞出現的概率,這一過程為自監督學習。在訓練時,人工智能模型會不斷地在句子中挖去一個單詞,根據剩下單詞的上下文來填空,即預測最合適的填空詞出現的概率,這一過程為自監督學習。GPT的訓練三板斧之二:提示學習與指令微調(人教機學)l 讓人工智能模型說人話、做人事。讓人工智
9、能模型說人話、做人事。l 手工設計提示和指令微調被譽為人工智能私語者(手工設計提示和指令微調被譽為人工智能私語者(AI whisperer)l 經師易得、人師難求經師易得、人師難求提示學習l情感預測任務。情感預測任務。輸入:“I missed the bus today.I felt so_.”其中“I felt so”就是提示詞(prompt),然后使用 大模型 用一個表示情感的詞填空。l翻譯任務。翻譯任務。輸入:“English:I missed the bus today.French:_.”其中“English:”和“French:”就是提示詞,然后使用大模型 應該再空位填入相應的法語
10、句子。指令微調“提示”是一種提供給預訓練語言模型的線索,讓預訓練語言模型能更好的理解人類的問題。指令微調,是指在已經訓練好的語言模型的基礎上,通過使用有標注的特定任務數據進行進一步的微調,從而使得模型具備遵循指令的能力。GPT的訓練三板斧之三:人類反饋下強化學習(嘗試與探索)謀定而后動,知止而有得人工智能三大要素:數據是燃料、模型是引擎、算力是加速器lMCP神經元lPerceptronlfeedforward NN神經網絡早期前向神經網絡神經網絡早期前向神經網絡seq2seq序列學習循環神經網絡seq2seq序列學習循環神經網絡lrecurrent NNlLSTMWord2vec詞向量Word
11、2vec詞向量引入Self-attention引入Self-attention單詞之間關聯關系單詞之間關聯關系transformerSelf-supervisedPromptTransfer&Fine-tuneSelf-supervisedPromptTransfer&Fine-tune語言大模型Large Language Model語言大模型Large Language ModelChatGPTChatGPT數據:訓練中使用了45TB數據、近 1 萬億個單詞(約1351萬本牛津詞典所包含單詞數量)以及數十億行源代碼。據估計全球高質量文本數據的總存量在5萬億token左右,人工智能算法可能在
12、一個數量級內,耗盡世界上所有有用的語言訓練數據供應。模型:包含了1750億參數,將這些參數全部打印在A4紙張上,一張一張疊加后,疊加高度將超過上海中心大廈632米高度。算力:ChatGPT的訓練門檻是1萬張英偉達V100芯片、約10億人民幣,模型訓練算力開銷是 每秒運算一千萬億次,需運行3640天(3640 PetaFLOPs per day)。大數據、大模型、大算力下以“共生則關聯”原則實現了統計關聯關系的挖掘。人類反饋強化學習(instrucGPT)人類反饋強化學習(instrucGPT)codexcodex(chain-of-thought,120億參數)(chain-of-though
13、t,120億參數)大模型的擴展定律:數據是燃料、模型是引擎、算力是加速器GPT-12018GPT-22019GPT-32020ChatGPT2022GPT-420231.17億15億1750億1750億1.8萬億模型參數數據規模損失函數大模型的“擴展定律”(scaling law),即隨著模型規模、訓練數據和計算資源的增加,模型性能會得到顯著提升,并且這些關系遵循可預測的模式。DeepSeek崛起之因:模型算法和工程優化的系統級協同創新DeepSeek模型在2048塊英偉達H800 GPU(針對中國市場的低配版GPU)集群上完成訓練,打破了大語言模型以大算力為核心的預期天花板,為在受限資源下探
14、索通用人工智能開辟了新的道路。算法和工程創新主要包括了混合專家模型、低秩注意力機制、強化學習推理、小模型蒸餾,以及諸如FP8混合精度和GPU部署優化等工程創新。生成式人工智能發展脈絡-以DeepSeek為例20DeepSeekLLM2023.11DeepSeek-V22024.05DeepSeek-V32024.12DeepSeek-R12025.01 參數量:參數規模達 670 億,擁有 7B 和 67B 的 base 及 chat 版本 特色:具備強大的語言理解與生成能力,采用先進注意力機制和大規模無監督預訓練技術,能處理文本生成、問答系統、文本摘要等多種自然語言處理任務,語言泛化能力突出
15、。意義:標志著 DeepSeek 正式進軍通用人工智能領域,為用戶提供全新自然語言處理解決方案,推動通用大模型技術發展和應用。DeepSeek LLM:Scaling Open-Source Language Models with Longtermismhttps:/ 參數量:總參數達到 2360 億 特色:開源混合專家(MOE)模型,通過 MOE 架構,能根據任務特點動態分配計算資源,在長文本處理、復雜語義理解方面表現出色,可實現更精準的語言理解和生成。意義:展示了 DeepSeek 在大規模模型架構設計上的技術實力,為整個大模型領域引入新思路,推動混合專家架構在實際應用中的發展。Deep
16、Seek-V2:A Strong,Economical,and Efficient Mixture-of-Experts Language Modelhttps:/ 參數量:總參數高達 6710 億,每 token 激活 370 億參數 特色:采用創新的 MoE 架構和 FP8 混合精度訓練,在長文本生成、代碼理解和數學推理等任務中表現卓越,能處理復雜數學問題,準確解析各類編程語言,長文本生成內容連貫、邏輯清晰。意義:鞏固了 DeepSeek 在大模型領域的領先地位,展示其在技術創新和性能優化方面的卓越能力,為行業樹立新標桿。DeepSeek-V3 Technical Reporthttps:
17、/ 參數量:最大 6710 億,也有通過蒸餾得到的參數在 15 億到 700 億之間的不同規模版本 特色:新一代推理模型,性能與 OpenAl的 o1正式版持平并開源。在僅有少量標注數據的情況下,通過大規模使用強化學習技術,極大提升模型推理能力,在數學、代碼以及各種復雜邏輯推理任務上表現出色。意義:打破了國際社會對 AI 研發“高投入、長周期”的固有認知,其開源和低成本特點,有助于普及 AI 技術,讓更多開發者參與到人工智能的創新中,影響全球人工智能競爭格局。DeepSeek-R1:Incentivizing Reasoning Capability in LLMs via Reinforce
18、ment Leamninghttps:/ LLMDeepSeek MoE作為首個開源代碼大模型,支持 多 種 編 程 語 言作為首個開源代碼大模型,支持 多 種 編 程 語 言,基 于 Transformer 架構優化,能有效助力代碼生成、調試以及數據分析任務,開啟了 DeepSeek 在人工智能細分領域的探索n代碼智能領域開拓者具備強大的語言理解與生成能力,采用先進注意力機制和大規模無監督預訓練技術,標志著 DeepSeek 正式進軍通用人工智能領域,為用戶提供全新自然語言處理解決方案,推動通用大模型技術發展和應用。n進軍通用人工智能DeepSeek MathDeepSeek V2DeepS
19、eekCoder V2DeepSeek VL2DeepSeek V3DeepSeek R1JanusPro2023.11.022023.11.29采用混合專家(MoE)架構,可根據任務動態分配計算資源,大幅提升模型效率與性能,增強模型在復雜任務處理上的表現。革新了大模型架構設計思路。nMoE核心技術創新以 DeepSeek-Coder-v1.5 7B 為基礎,在從 Common Crawl 中提取的數學相關 token 以及自然語言和代碼數據上進行預訓練,訓練規模達 5000 億 token,在數學推理任務上表現優秀。n數學推理領域開拓者數學推理領域開拓者開源的混合專家(MoE)代碼語言模型,
20、在代碼特定任務中達到了與 GPT4-Turbo 相當的性能,在代碼生成、理解和代碼智能相關任務上有顯著提升。進一步提升了代碼大模型的性能表現。n代碼智能第二代采用創新的 MoE 架構和 FP8 混合精度訓練,在長文本生成、代碼理解和數學推理等任務中表現卓越,能處理復雜數學問題,準確解析各類編程語言,長文本生成內容連貫、邏輯清晰。n技術創新性能飛躍市面上唯一能同時兼顧多模態理解和文生圖且保持高性能的模型,在圖像生成和視覺分析方面成果顯著。n多模態生成2024.01.112024.02.052024.05.072024.06.172024.12.132024.12.262025.01.20 202
21、5.01.28第二代開源混合專家(MoE)模型,通過 MoE 架構,能根據任務特點動態分配計算資源,在長文本處理、復雜語義理解方面表現出色,可實現更精準的語言理解和生成。n混合專家架構新突破混合專家(MoE)視覺-語言模型,在多模態理解,尤其是視覺與語言結合的任務上表現出色,增強了模型對圖像內容理解并關聯語言描述的能力。n多模態理解大模型新一代推理模型,性能與新一代推理模型,性能與 OpenAI 的的 o1 正式版持平并開源。正式版持平并開源。在僅有少量標注數據的情況下,通過大規模使用強化學習技術,極大提升模型推理能力,在數學、代碼以及各種復雜邏輯推理任務上表現出色。n推理技術重大改革http
22、s:/ 并且持續上升簡單案件花費大量精力,重復勞動多案件審理周期長,群眾滿意度不高ABC法官智慧司法智能審判智慧司法智能審判算法公平算法公平提速升效提速升效裁判標準難統一,同案同判缺標尺D模型可解釋模型可解釋智慧司法智能審判系統框架28本院認為自動生成29n問題:給定原告訴請和事實描述,目標是生成法官對原告述請支持與否 的文本描述(判決及其理由)n挑戰:數據混淆偏差,因為原告只在勝訴率高時下才起訴,導致超過 76%的民間借貸案件的原告訴請是被支持的n想法:引入因果反事實模型,解決數據驅動所導致的混淆偏差基于法律知識的可解釋性判決30n問題:給定原告訴請和事實描述,目標是預測法官對原告訴請支持與
23、否n挑戰:數據驅動+知識指導,如何讓模型學習法律判案知識n想法:使用一階謂詞邏輯對法律知識進行編碼,并將一階謂詞邏輯表達式轉化為可微的、端到端訓練的神經網絡組成部分小模型賦能智慧司法業務應用爭議焦點生成爭議焦點生成裁判文書生成裁判文書生成法官話術生成法官話術生成智能法官助理“小智”智能法官助理“小智”裁判文書生成完整度9095%當庭宣判率當庭宣判率90%(before:40-50%)縮短庭審時間庭審時間2-3小時 20-30分鐘大模型引發范式革命 ChatGPT:高算力+大數據,現象級AI應用引發范式革命 類ChatGPT通用大模型在法律領域存在的一些問題 法律知識問題:無法提供可靠的參考內容
24、(如法條引用),法律需要權威可靠的知識 知識更新問題:無法檢索案件、文書;無法實施更新數據,法律業務需要可更新信息 業務對其問題:問題話術不夠準確,存在知識混淆問題(夾帶西方法學觀點)32評估測試時擴展大語言模型的法律推理能力:OpenAI o1、DeepSeek-R1及其他33評估的大模型與法律任務17個法律推理任務(10項中文任務和7項英文任務)9個通用及相應的擴展大模型評估測試時擴展大語言模型的法律推理能力:OpenAI o1、DeepSeek-R1及其他英文法律推理任務上的評測結果:DeepSeek-R1英文法律推理能力不俗,在多個任務上媲美OpenAI-o1模型。評估測試時擴展大語言
25、模型的法律推理能力:OpenAI o1、DeepSeek-R1及其他中文法律推理任務上的評測結果:DeepSeek-R1展現了強大的中文法律推理能力,在多個任務上超過OpenAI-o1模型。但其在法律多跳任務推理(71.67%),法律判決預測(78%),辯論挖掘(57.79%)等方面準確率還有待進一步提升。評估測試時擴展大語言模型的法律推理能力:OpenAI o1、DeepSeek-R1及其他錯誤分析DeepSeek-R1在中英文法律任務中的錯誤分析揭示了幾個關鍵不足:法律知識儲備不足且滯后 法律問題理解能力有限 推理過程中存在事實性幻覺構建高質量法律數據與知識訓練司法垂直領域大模型從通用到垂
26、直領域專用:司法領域垂直大模型“智海-錄問”中文司法知識數據 40G3189部法律50504部法規第一輪:“instruction”:本院查明,被告人酒后.請分析案情?!皁utput”:根據上述內容,可以認定本案的核心要素包括醉酒駕駛、致人受傷、酒后逃逸.,第二輪:“instruction”:根據上述分析,請預測罪名?!皁utput”:本案預測的罪名是危險駕駛罪第三輪:“instruction”:請給出處罰意見?!皁utput”:結合嫌疑人逃逸的情節,建議考慮拘役三個月,并罰款6000元指令微調數據140K條指令預訓練指令微調智海智海-錄問錄問基座模型基座模型中華人民共和國刑法中華人民共和國民
27、法典.知識庫如果喝了兩斤白酒后開車,會有什么后果?已知信息:危險駕駛罪是指在醉酒狀態.根據上述已知信息,回答用戶的問題。問題是:如果喝了兩斤白酒后開車,會有什么后果?喝了兩斤白酒后開車可能會面臨以下法律后果:1.危險駕駛罪2.行車證和駕駛證吊銷3.罰款4.綜上所述,請勿酒后駕車。最高人民法院、最高人民檢察院、公安部關于辦理醉酒駕駛機動車刑事案件適用法律若干問題的意見.知識注入多輪指令-回答對20多種司法子任務法條庫類案庫邏輯學習知識增強司法解釋法律教材“智海-錄問”整體架構從通用到垂直領域專用:司法領域垂直大模型“智海-錄問”Github開源:https:/ 阿里巴巴魔搭(ModelScope
28、)社區開源和開放https:/ 70億),PaLM-Gecko(谷歌,細節未知),ChatGLM-60億(60億),Flan-T5(110億)微調方法指令微調,提示學習,反饋學習,合成數據學習,前綴微調,低秩適配(LoRA),p-tuning方法領域大模型生物大模型法律大模型教育大模型化學大模型大小模型協同賦能智慧司法司法判決預測輔助任務司法判決預測輔助任務Yiquan Wu,Kun Kuang,Fei Wu,et al.Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model Collaboration.EM
29、NLP,2023.智海-錄問 2.0智海-錄問1.0智海-錄問2.0意圖識別與反問智能體學習大小模型協同端云協同學習提問回答小結 通用大模型具有很強的推理能力,在法律專業領域的能力需要進一步提升??梢酝ㄟ^構建司法垂直領域大模型的方式來提成大模型在司法領域的推理能力,實現由通用到垂直領域專用的轉變。DeepSeek-R1政法場景面臨關鍵理論技術瓶頸,亟需突破大模型幻覺問題政法知識不完備思維鏈缺乏政法行業專業性政法部分專業任務效果欠佳存在的問題缺乏政法數據、知識以及政法推理思維鏈構建政法場景高質量數據、知識和政法領域專有思維鏈預訓練、有監督微調、強化學習數據和知識蒸餾因果邏輯與知識注入政法思維鏈推
30、理增強大小模型多智能體協同政法場景測評與賦能打造國內首個原生政法大模型,構建政法行業領先的推理大模型(R1)解決方案在政法領域案情理解、知識問答、邏輯推理、文書生成等任務上表現專業性和準確性方案一:基于DeepSeek-R1數據蒸餾訓練政法大模型已經準備了60萬條回復偏好對,涵蓋超過10種政法場景和任務,正在生成“幻覺”更低、回復更專業的政法專用思維鏈Qwen-14B政法大模型偏好學習思維鏈模擬政法知識庫政法知識檢索增強問題:問題:村里有一對父母,為了收受彩禮錢,竟然把自己的女兒許配給了一個女兒不喜歡的人。這種情況,是不是違法的?回答思維鏈回答QA對拒絕采樣數據蒸餾DeepSeek-R1-Di
31、sti-Qwen-14B方案二:基于GPT+Deepseek實現路徑訓練政法大模型Qwen-14B政法大模型政法基座預訓練模型政法數據與知識注入政法指令與任務理解政法推理能力增強Q:請你仔細計算文書中涉及的犯罪總金額無需給出計算過程,只需要給出最終金額。文書:A:上文涉及到的犯罪金額2600.0元。0本院認為:最高人民法院、最高人民檢察院、公安部關于辦理醉酒駕駛機動車刑事案件適用法律若干問題的意見政法預訓練法律法規司法解釋 指令微調數據收集數據清洗數據改造政法語料價值觀對齊安全性設計獎勵規則 強化學習 知識蒸餾 高知識密度指令問答對政法領域特有復合推理邏輯法學期刊提綱l生成式人工智能發展脈絡l
32、生成式人工智能賦能智慧司法l生成式人工智能的不能46人工智能算法在我們生活中無處不在478:30 am8:00 am10:00 am4:00 pm6:00 pm8:00 pm人工智能的不能48Source:The New York Times特斯拉第一次車毀人亡(2016.5.7)谷歌公司的圖像標注系統(2016.6)熊貓:熊貓:57.7%添加噪音長臂猿:添加噪音長臂猿:99.3%對抗攻擊人工智能學習特點為什么圖像會被識別為“狗”?為什么會用“草地”預測狗?為什么不同測試結果差異大?模型存在不可解釋,不可泛化等問題數據驅動數據驅動狗狗p=93%概率輸出概率輸出關聯學習關聯學習 深度學習等人工智
33、能學習特點關聯的三種來源狗狗草地草地樣本選擇樣本選擇地濕地濕下雨下雨撐傘撐傘下雨下雨地濕地濕因果因果混淆偏差選擇偏差混淆偏差選擇偏差虛假關聯:當忽略 X 時,T 和 Y 相關虛假關聯:當給定 S 時,T 和 Y 相關可解釋穩定可解釋穩定/魯棒可決策魯棒可決策大模型的學習特點也是數據驅動,關聯學習W自然語言合成的核心神經網絡是自然語言合成的核心神經網絡是Transformer 模型模型l原話:一輛 列車 緩慢 行駛 在 崎嶇 的 山路上l移除單詞:一輛 列車 行駛 在 崎嶇 的 山路上l預測填空:一輛 列車 緩慢 行駛 在 崎嶇 的 山路上predict the next tokensuperv
34、ised fine-tuningReinforcement Learning from Human Feedback對齊(Alignment)與數據空間對齊與人類指令對齊與人類反饋對齊消除反饋(recurrent)機制Google(2017):Attention is all you needattention:單詞共生概率:單詞共生概率學習單詞和單詞之間關聯關系關聯關系(in-context meaning)項莊項莊 舞劍舞劍 意在意在 沛公沛公大模型的學習特點也是數據驅動,關聯學習Sora“超級涌現力”將把AI引向何方(文匯報:2024年2月24日)從Chat到Sora:對合成內容中最小單
35、元進行有意義的關聯組合,猶如昨日重現像素點有意義的空間組合時空子塊有意義的時序組合單詞有意義的線性組合在保持連貫的上下文語境中,對若干個單詞進行有意義線性組合,從而連綴成一個會意句子;在保持合理的空間布局下,對眾多圖像小塊進行有意義結構組合,拼合為一幅精彩圖像;在保持一致的連續時空內,對一系列時空子塊進行有意義時空組合,從而拼接成一段動感視頻。關聯學習導致人工智能的不能 1 數據關聯不可解釋54關聯學習導致人工智能的不能 1 數據關聯不可解釋太陽鏡銷售量太陽鏡銷售量冰激凌銷售冰激凌銷售冰激凌銷售夏天太陽鏡銷售虛假相關虛假相關55關聯學習導致人工智能的不能 2 數據關聯不可用于支撐決策56關聯學
36、習導致人工智能的不能 2 數據關聯不可用于支撐決策 小孩子的閱讀能力與鞋尺寸有強的正相關。根據小孩鞋尺寸能預測他的閱讀能力!但是人為地改變鞋的尺寸,并不會提高他們的閱讀能力。57關聯學習導致人工智能的不能58 3 數據關聯不穩定,會隨著時間、數據、環境等變化而變化絕大多數機器學習方法需要獨立同分布假設狗狗草地草地樣本選擇樣本選擇關聯學習導致人工智能的不能 4 數據關聯可能會帶來不公平性問題59人臉識別推薦和預測計算機視覺和檢索自然語言翻譯關聯學習導致人工智能的不能 4 數據關聯可能會帶來不公平性問題60TYTY關聯分析框架關聯分析框架T:膚色:膚色X:收入:收入Y:犯罪率收入:犯罪率收入犯罪率
37、犯罪率:強相關強相關膚色膚色犯罪率犯罪率:強相關強相關收入收入犯罪率犯罪率:強因果強因果膚色膚色犯罪率犯罪率:弱因果弱因果因果推理框架因果推理框架小結 人工智能的學習特點:數據驅動、關聯學習、概率輸出 關聯有三種來源:因果關系、混淆偏差和選擇偏差,后兩者產生的關聯稱之為虛假關聯 人工智能方法在關聯學習過程中未能區分因果關聯和虛假關聯,會導致不可解釋、不可決策、不穩定等不能甄別因果關聯,由關聯到因果的跨越,實現“知其然,并知其所以然”的人工智能人類智能與機器智能存在巨大不同62人類大腦機器智能人類大腦機器智能self-learninglearning by examples adaptation
38、routine common sense Nointuitionlogic 見一葉落,而知歲之將暮;審堂下之陰,而知日月之行,陰陽之變;見瓶水之冰,而知天下之寒,魚鱉之藏也淮南子說山訓 大數據、小任務;小數據、大任務大數據、小任務;小數據、大任務莫拉維克悖論(Moravecs paradox):困難的問題是易解的,容易的問題是難解的人有人的作用:在制造工具和利用工具中奮力前行63數學家和哲學家諾伯特維納(Norbert Wiener)1950年出版人有人的用處:控制論與社會(The Human Use of Human Beings:Cybernetics and Society)l Chat
39、GPT推動人工智能由識人辯物和預測決策等向內容合成躍升,即人工智能內容合成(Artificial intelligence generated content,AIGC),推動人工智能能夠為普通用戶使用,是一個標志性的事件和現象級產品。l 機器是人類創造出來,人類在技術世界環繞中要更有尊嚴、更有人性,而不是相反,因為人類始終是人工智能高度、廣度和深度的總開關和決定者,也是人和人造物的協調者。人類的作用就是在人和機器共處的社會中,不斷用自己的知識來讓機器變得更加強化。l 人類不僅要善于制造工具、也要善于利用工具。l 毋須質疑,未來將是人和人工智能共同進化的時代,人和人造物之間將如影隨形、協作共進、相得益彰。謝謝!敬請批評指正!64況琨浙江大學計算機科學與技術學院