《計算機行業深度報告:中國AI崛起技術突破與應用落地-250326(38頁).pdf》由會員分享,可在線閱讀,更多相關《計算機行業深度報告:中國AI崛起技術突破與應用落地-250326(38頁).pdf(38頁珍藏版)》請在三個皮匠報告上搜索。
1、 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 Table_Info1 計算機計算機 Table_Date 發布時間:發布時間:2025-03-26 Table_Invest 優于大勢優于大勢 上次評級:優于大勢 Table_PicQuote 歷史收益率曲線 Table_Trend 漲跌幅(%)1M 3M 12M 絕對收益-10%6%22%相對收益-10%7%11%Table_Market 行業數據 成分股數量(只)336 總市值(億)48,475 流通市值(億)41,562 市盈率(倍)144.16 市凈率(倍)4.49 成分股總營收(億)11,812 成分股總凈利潤(億)317
2、 成分股資產負債率(%)42.32 相關報告 華為中國合作伙伴大會+英偉達 GTC 大會,AI 行業再迎國內外催化 -20250317 超大訂單昭示算力景氣,Manus 帶動應用風潮 -20250310 超低成本算力預示應用大爆發,重視數據賦能 G 端政務應用 -20250303 國資 AI+專項行動再提速,重視國資軟硬件投資機會 -20250224 DeepSeek 部署帶動算力需求提升,注重 AI軟硬機會 -20250216 Table_Author 證券分析師:吳源恒證券分析師:吳源恒 執業證書編號:S0550522100004 15767875282 Table_Title 證券研究報
3、告/行業深度報告 中國中國 AI 崛起:技術突破與應用落地崛起:技術突破與應用落地 報告摘要:報告摘要:Table_Summary 中美中美 AI 差距開始縮小,中國迎來差距開始縮小,中國迎來 AI 發展大時代發展大時代。在當今數字化浪潮席卷全球的時代,人工智能(AI)已然成為衡量一個國家科技實力與未來競爭力的關鍵領域。長久以來,美國憑借其在技術、人才、資金等多方面的先發優勢,在全球 AI 版圖中占據著舉足輕重的地位,而中國雖起步稍晚,卻憑借著龐大且復雜的數據資源、強大的制造業基礎以及對科技創新的高度重視,一路奮起直追。如今,一系列關鍵指標顯示,中美在AI 領域的差距正悄然縮小,中國正迎來屬于
4、自己的 AI 發展大時代。這一轉變背后,是無數科研人員的日夜鉆研、是政策的有力扶持、是產業生態的逐步完善,更是一個大國在科技賽道上加速奔跑的堅定決心。從模型角度而言從模型角度而言,中國已經有多個模型,中國已經有多個模型在工程能力上各有特點在工程能力上各有特點。(1)DeepSeek:高效性與性價比。期采用 MLA 多頭潛在注意力機制(降低KV Cache 消耗)、FP8 混合精度訓練(減少內存占用)、MoE 稀疏激活架構(671B 參數模型單 Token 僅激活 37B 參數)。同時通過預填充與解碼分離部署架構,H800 節點實現 14.8k tokens/s 輸出吞吐,成本僅為同類模型的 1
5、/10。(2)Qwen2.5:多模態能力領先。Qwen 重新設計 ViT 架構,引入窗口注意力機制和二維 RoPE,支持原生動態分辨率處理。其動態幀率訓練與絕對時間編碼技術,視頻任務性能接近 GPT-4o,小模型QwQ-32B 以 1/10 成本達到 DeepSeek-R1 80%性能。(3)混元混元 T1:混合Mamba 架構創新。長文本處理:Hybrid-Mamba-Transformer 融合模塊,長文推理速度提升 2 倍,解決上下文丟失問題。通過 Mamba 模塊處理局部特征,Transformer 捕捉全局依賴,AIME 數學競賽成績達 78.2 分,效率和效果均超越 GPT-4。在
6、應用層面在應用層面,如何如何規避或者利用規避或者利用幻覺是幻覺是目前目前落地的難點之一落地的難點之一。垂類客戶,尤其是那些對專業性和準確性要求極高的行業用戶,如醫療、金融、法律等,對 AI 的輸出結果有著近乎嚴苛的標準,而幻覺作為大模型的特性之一短期無法消除。目前來看,除了傳統技術方法降低大模型誤差率以外,還有一些工程化方向可以降低、消除 AI 幻覺:比如通過規?;蒎e(誤差成本低于效率紅利)、知識增強+可信生成(穩定數據庫抑制錯誤)等技術路徑緩解。此外,很多時候學會利用 AI 幻覺生成也是一種選擇,AI 幻覺宛如一面棱鏡,既折射出技術的邊界,也映照出超越人類想象的潛力,或許我們不必執著于“絕
7、對正確”,而是學會與 AI 的“想象力”共舞。畢竟,最偉大的創新往往誕生于理性與狂想的交匯處。投資建議投資建議:我們認為,目前國內 AI 在技術追趕與場景創新上正在加速突破中,通過架構優化與多模態融合推動產業升級有望進一步的挖掘新的AI 應用場景。建議關注醫療(AI 預問診)、教育(個性化教學)、自動駕駛(3D/4D 標注)、人力資源(AI 招聘)及創意產業(AI 生成內容)中 AI 帶來的新市場增量。風險提示:風險提示:宏觀經濟恢復不及預期宏觀經濟恢復不及預期、市場競爭加劇市場競爭加劇、AI 應用應用商業化落地商業化落地風險風險、技術迭代風險技術迭代風險 Table_CompanyFinan
8、ce -40%-20%0%20%40%60%2024/32024/62024/9 2024/12計算機滬深300 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 2/38 計算機計算機/行業深度行業深度 目目 錄錄 1.AI 競合拐點:中國智起競合拐點:中國智起.4 2.中國中國 AI 的工程創新,從的工程創新,從 Deepseek、Qwen 還有混元說起還有混元說起.6 2.1.DeepSeek:技術創新:技術創新+高性價比高性價比.6 2.1.1.高效的訓推能力高效的訓推能力.8 2.1.1.1.DeepSeekMoE.9 2.1.1.2.MLA 多頭潛在注意力多頭潛在注意力.1
9、0 2.1.2.低成本的推理部署方案低成本的推理部署方案.11 2.2.Qwen2.5:持續發力多模態:持續發力多模態.12 2.2.1.快速高效的視覺編碼器快速高效的視覺編碼器.15 2.2.2.原生動態分辨率和幀率原生動態分辨率和幀率.15 2.2.3.多模態旋轉位置嵌入與絕對時間對齊多模態旋轉位置嵌入與絕對時間對齊.16 2.3.混元混元 T1:混合:混合 Mamba 架構帶來高速推理體驗架構帶來高速推理體驗.17 2.3.1.混合混合 Mamba 架構所帶來的高速推理架構所帶來的高速推理.19 2.4.大模型的技術缺陷和未來演進方向大模型的技術缺陷和未來演進方向.20 3.從幻覺的角度
10、來說,如何看應用前景從幻覺的角度來說,如何看應用前景.23 3.1.AI 應用無法回避的對手之一,幻覺應用無法回避的對手之一,幻覺.23 3.2.規?;叭蒎e解”:當誤差成本低于效率紅利規?;叭蒎e解”:當誤差成本低于效率紅利.27 3.3.知識增強知識增強+可信生成:基于穩定數據庫抑制幻覺可信生成:基于穩定數據庫抑制幻覺.30 3.3.1.AI 醫療:關注醫療:關注 AI 醫療帶來的增量需求醫療帶來的增量需求.30 3.3.2.教育:教育:AI 特征與教育痛點高度契合特征與教育痛點高度契合.32 3.4.擁抱錯誤擁抱錯誤,可能錯誤也沒這么可怕可能錯誤也沒這么可怕.34 4.投資建議投資建議.
11、36 5.風險提示風險提示.36 圖表目錄圖表目錄 圖圖 1:隨著時間的推移,中美差距正在縮?。弘S著時間的推移,中美差距正在縮小.4 圖圖 2:AI 的核心玩家還是來自于中美的核心玩家還是來自于中美.5 圖圖 3:美國:美國 AI 進化圖(進化圖(Open AI、Google、Anthropic、Meta).6 圖圖 4:中國:中國 AI 進化圖(進化圖(Deepseek,阿里巴巴),阿里巴巴).6 圖圖 5:Deepseek 各項測試表現各項測試表現.7 圖圖 6:DeepSeek-V3 模型網絡架構模型網絡架構.8 圖圖 7:傳統:傳統 MoE 架構架構.9 圖圖 8:Deepseek M
12、oE 架構架構.10 圖圖 9:Deepseek MLA 架構架構.11 圖圖 10:QwQ-32B 各項基準評分表現各項基準評分表現.14 圖圖 11:Qwen2.5-VL 的視覺語言模型架構的視覺語言模型架構.15 圖圖 12:Qwen2.5 在視頻理解能力的表現在視頻理解能力的表現.16 圖圖 13:騰訊混元自研深度思考模型:騰訊混元自研深度思考模型 T1 特性特性.17 圖圖 14:騰訊混元:騰訊混元 T1 各類型能力評分各類型能力評分.18 圖圖 15:騰訊混元:騰訊混元 T1 基準對比評分基準對比評分.18 圖圖 16:基于:基于 Mamba 模型的下游任務應用實例模型的下游任務應
13、用實例.19 圖圖 17:Mamba 和和 Transformer 模塊的結合,以模塊的結合,以 LongLLaVA 為例為例.20 圖圖 18:更小的模型有望帶來更多的市場空間:更小的模型有望帶來更多的市場空間.21 圖圖 19:多模態大模型帶動更多的下游需求:多模態大模型帶動更多的下游需求.22 圖圖 20:AI Agent 智能體架構智能體架構.23 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 3/38 計算機計算機/行業深度行業深度 圖圖 21:目前全球所面臨的目前全球所面臨的 10 大風險大風險.24 圖圖 22:中國信通院啟動“可信中國信通院啟動“可信 AI”AI S
14、afety Benchmark 大模型幻覺評測大模型幻覺評測.25 圖圖 23:大模型將提高自動標注的效率大模型將提高自動標注的效率.27 圖圖 24:目前目前 AI 基本可以給所有類型的數據打標基本可以給所有類型的數據打標.28 圖圖 25:自動標注對于效率的提升:自動標注對于效率的提升.28 圖圖 26:自動標注對于成本的節約:自動標注對于成本的節約.28 圖圖 27:傳統業務類型:邊界標注:傳統業務類型:邊界標注.29 圖圖 28:專業化業務類型:專業化業務類型:3D 標注標注.29 圖圖 29:人才管理平臺推出的人才管理平臺推出的 ai Family 功能功能.29 圖圖 30:紫荊:
15、紫荊 AI 醫生科室概況醫生科室概況.32 圖圖 31:現代教育的特征與:現代教育的特征與 AIGC 技術吻合技術吻合.32 圖圖 32:AIGC+教育技術落地競爭力及廠商占位教育技術落地競爭力及廠商占位.33 圖圖 33:AIGC 應用在文獻整理、校對潤色等助力學術科研應用在文獻整理、校對潤色等助力學術科研.33 圖圖 34:AIGC 應用可批量生成標準化試題,作業及時反饋加快知識理解與轉化應用可批量生成標準化試題,作業及時反饋加快知識理解與轉化.34 圖圖 35:AIGC 可進行個性化資源推薦與任務規劃、啟發式引導思考、實時答疑解惑可進行個性化資源推薦與任務規劃、啟發式引導思考、實時答疑解
16、惑.34 圖圖 36:2024 年諾貝爾化學獎授予了年諾貝爾化學獎授予了 AI 蛋白質設計蛋白質設計.35 圖圖 37:博主通過:博主通過 AI 制作抽象視頻播放量抄百萬制作抽象視頻播放量抄百萬.35 表表 1:DeepSeek 訓練效率高的原因訓練效率高的原因.8 表表 2:Chatbot Arena LLM Leaderboard 評分結果評分結果.13 表表 3:幻覺高發場景:幻覺高發場景.26 表表 4:AI 醫療按照應用場景分類醫療按照應用場景分類.30 表表 5:醫療領域判別式醫療領域判別式 AI 與生成式與生成式 AI 對維度對比對維度對比.31 請務必閱讀正文后的聲明及說明請務
17、必閱讀正文后的聲明及說明 4/38 計算機計算機/行業深度行業深度 1.AI 競合拐點:中國智起競合拐點:中國智起 中美中美 AI 差距開始縮小,中國迎來差距開始縮小,中國迎來 AI 發展大時代。發展大時代。在當今數字化浪潮席卷全球的時代,人工智能(AI)已然成為衡量一個國家科技實力與未來競爭力的關鍵領域。長久以來,美國憑借其在技術、人才、資金等多方面的先發優勢,在全球 AI 版圖中占據著舉足輕重的地位,而中國雖起步稍晚,卻憑借著龐大且復雜的數據資源、強大的制造業基礎以及對科技創新的高度重視,一路奮起直追。如今,一系列關鍵指標顯示,中美在 AI 領域的差距正悄然縮小,中國正迎來屬于自己的 AI
18、 發展大時代。這一轉變背后,是無數科研人員的日夜鉆研、是政策的有力扶持、是產業生態的逐步完善,更是一個大國在科技賽道上加速奔跑的堅定決心。AI 代差縮短至半年:中國模型追上硅谷節奏代差縮短至半年:中國模型追上硅谷節奏。2024 年第四季度,中國 AI 實驗室密集推出 7 個千億級模型,將與美國頂尖實驗室的智能差距從 24 個月壓縮至 6 個月。據第三方評測,DeepSeek-R11、通義千問 3.0 等模型在多輪推理任務中已達 GPT-4的 90%水平,首次實現季度級技術追平。從技術水平來看,OpenAI 去年 9 月首創的思考鏈(Chain of Thought)推理技術,在 6 個月內被中
19、國團隊全面復現。2024年底,國內 TOP10 實驗室均已部署自研推理框架,其中 DeepSeek 開源的 R12 模型,在醫療問診場景中展現出接近 GPT-4 的邏輯連貫性,推動行業從黑箱決策轉向可解釋 AI。以 DeepSeek-Uni、阿里魔搭社區為代表的開源項目,通過開放 70%核心權重,快速聚攏 23 萬開發者。這些可拆解、可微調的模型底座,在金融風控、縣域醫療等場景的適配速度,已超過閉源的 GPT-4s這意味著中國 AI 正從追趕性能轉向定義場景的新賽道。圖圖 1:隨著時間的推移隨著時間的推移,中美差距正在縮小,中美差距正在縮小 數據來源:Artificial Analysis,東
20、北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 5/38 計算機計算機/行業深度行業深度 在全球人工智能領域,在全球人工智能領域,除除中美以外中美以外其他國家和地區的其他國家和地區的 AI 發展則相對滯后。發展則相對滯后。盡管歐洲、以色列等地區在 AI 領域擁有深厚的技術積累和創新能力,但整體來看,它們在過去半年中并未展現出與中美相抗衡的強勁實力,也未能在技術突破和應用拓展方面趕上美國的步伐。這表明,盡管全球 AI 競爭格局多元化,但中美兩國在短期內仍將主導全球 AI 的發展趨勢。圖圖 2:AI 的核心玩家還是來自于中美的核心玩家還是來自于中美 數據來源:Artificial
21、 Analysis,東北證券 美國美國 AI 競爭格局:追趕競爭格局:追趕 OpenAI 與技術突破。與技術突破。在美國國內,AI 競爭的核心圍繞著OpenAI 展開。自 2022 年 11 月 OpenAI 通過 ChatGPT 中的 GPT-3.5 開啟語言模型競爭以來,美國的領先實驗室一直在努力追趕其前沿模型。與此同時,谷歌和 Meta 等科技巨頭也在迅速推進自身模型的研發,其最新推出的 Gemini 2.0 和 Flash 等模型在性能上已經超越了 Claude 3.5 Sonnet 和 GPT-4o,顯示出美國 AI 領域內部的激烈競爭態勢。此外,2024 年最后幾個月中,除了 GP
22、T-4 之外,其他模型也取得了重大突破,OpenAI 的 o3 模型引領了這一趨勢。推理模型的優化、數據質量的提升以及新的強化學習技術等,成為推動模型性能提升的關鍵因素。中國中國 AI 崛起:迅速追趕與前沿突破崛起:迅速追趕與前沿突破。盡管中國的 AI 實驗室較晚加入全球競爭,但其發展速度令人矚目。2024 年,中國 AI 實驗室在智能水平上與美國前沿模型的差距顯著縮小。當 OpenAI 推出 o1 時,中國的實驗室僅用幾個月時間就開發出了性能相當的模型,例如 DeepSeek 的 R1。這一成就不僅展示了中國 AI 技術的快速進步,也標志著中國在全球 AI 競爭中逐漸嶄露頭角。中國 AI 實
23、驗室的崛起不僅體現在追趕速度上,更在于其在前沿技術領域的布局。2024 年,中國的阿里云、深視和騰訊等實驗室紛紛發布了開放權重的前沿模型,這些模型在全球范圍內具有競爭力,顯示出中國在 AI 技術的開放性和應用拓展方面的積極探索。進入進入 2025 年初,包括阿里云、深視、明略、騰訊、智譜和通義在內的多家中國年初,包括阿里云、深視、明略、騰訊、智譜和通義在內的多家中國 AI實驗室陸續發布了前沿推理模型。這些模型的發布速度和頻率表明,中國實驗室陸續發布了前沿推理模型。這些模型的發布速度和頻率表明,中國 AI 實驗實驗室在室在 2025 年已經不再是全球競爭中的追趕者,而是成為全球年已經不再是全球競
24、爭中的追趕者,而是成為全球 AI 發展的重要參與者發展的重要參與者和潛在領導者。和潛在領導者。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 6/38 計算機計算機/行業深度行業深度 圖圖 3:美國美國 AI 進化圖(進化圖(Open AI、Google、Anthropic、Meta)圖圖 4:中國中國 AI 進化圖(進化圖(Deepseek,阿里巴巴),阿里巴巴)數據來源:Artificial Analysis,東北證券 數據來源:Artificial Analysis,東北證券 2.中國中國 AI 的的工程創新工程創新,從從 Deepseek、Qwen 還有還有混元混元說起說起
25、2.1.DeepSeek:技術創新:技術創新+高性價比高性價比 DeepSeek 在多個關鍵方面展現出了顯著的優勢和創新性。在多個關鍵方面展現出了顯著的優勢和創新性。DeepSeek-R1 模型在訓練過程中采用了獨特的技術路徑,尤其是在“點火”環節,所需的啟動數據量遠低于傳統模型。這種低數據需求的特點使得模型的訓練門檻大幅降低,能夠在有限的資源和數據條件下快速啟動并進入高效訓練階段,這對于資源有限的研究機構和企業來說具有巨大的吸引力。并且 DeepSeek-R1 采用了復雜且高效的強化學習(RL)技術。強化學習作為一種先進的訓練方法,能夠在無需大量標注數據的情況下,通過與環境的交互自主學習最優
26、策略。這種技術不僅提高了模型的訓練效率,還顯著降低了訓練成本。與傳統的監督學習相比,強化學習能夠更自然地引導模型生成強大的推理能力和復雜的思維鏈。DeepSeek-R1 通過強化學習訓練后,能夠自主產生連貫且邏輯性強的推理路徑,這種能力在處理復雜的推理任務時表現得尤為突出。DeepSeek-R1 模型在訓練成本上的優化也值得關注。盡管采用了先進的強化學習技術,但該模型的訓練過程并未因此變得復雜或昂貴。相反,通過優化算法和高效的訓練策略,DeepSeek 成功地在低資源環境下實現了高性能輸出。這種高效且低成本這種高效且低成本的訓練模式使得的訓練模式使得 DeepSeek-R1 不僅在技術上具有創
27、新性,更在實際應用中展現出極不僅在技術上具有創新性,更在實際應用中展現出極高的性價比。這也是為什么高的性價比。這也是為什么 DeepSeek-R1 模型憑借其低數據需求、高效的強化學習模型憑借其低數據需求、高效的強化學習技術以及強大的推理能力,成為技術以及強大的推理能力,成為 AI 領域中一個極具潛力的創新成果。它不僅為資領域中一個極具潛力的創新成果。它不僅為資源有限的開發者提供了新的選擇,也為源有限的開發者提供了新的選擇,也為 AI 技術的廣泛應用和普及開辟了新的道路。技術的廣泛應用和普及開辟了新的道路。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 7/38 計算機計算機/行業深
28、度行業深度 圖圖 5:Deepseek 各項測試表現各項測試表現 數據來源:Deepseek,東北證券 DeepSeek訓練的高效訓練的高效的原因的原因,我們認為訓練成本的核心在于模型架構與訓練架構,我們認為訓練成本的核心在于模型架構與訓練架構,二者相輔相成、缺一不可。二者相輔相成、缺一不可。MLA 機制:機制:DeepSeek V3 采用的多頭潛在注意力(MLA)機制,通過聯合低秩壓縮的方式大幅減少了 KV Cache 的使用量。與業界常見的從 KV 數量角度優化 KV Cache 的方法相比,MLA 的壓縮方式對研究團隊的技術功底提出了更高要求。這種機制不僅有效降低了 KV Cache 的
29、存儲需求,還在推理效率上實現了顯著提升,體現了 DeepSeek 團隊在基礎研究上的深厚積累。FP8 訓練:訓練:DeepSeek V3 引入了 FP8 混合精度訓練框架,通過低精度計算大幅減少了 GPU 內存的使用量和計算開銷。技術報告中提到,這是首次在極大規模模型上驗證了 FP8 混合精度訓練的有效性。這一點不僅展現了 DeepSeek 在技術上的創新性,也凸顯了其 Infra 工程團隊在底層架構優化方面的強大實力。這種低精度訓練技術的應用,為大規模模型的高效訓練提供了有力支持。MoE 架構:架構:DeepSeek V3 采用了 Mixture of Experts(MoE)架構,通過稀疏
30、激活機制大幅減少了計算量。與 Qwen 和 Llama 等采用密集架構(Dense Architecture)的模型相比,MoE 架構在訓練和推理過程中具有顯著的先天優勢。然而,MoE 架構也帶來了專家負載均衡、通信效率和路由策略等技術難題。DeepSeek 的 Infra 工程團隊通過創新的無輔助損失負載均衡策略等技術手段,成功解決了這些難題,進一步優化了模型的訓練效率和性能表現。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 8/38 計算機計算機/行業深度行業深度 表表 1:DeepSeek 訓練效率高的原因訓練效率高的原因 Unsupervised Pretraining D
31、eopSoek-V3-Base with 671B parameters 說明 Stage1 Cold Start(SFT)Synthetic CoT data with math and code problems validated by humans 點火環節,數據不多,非常關鍵 Stage2 Reasoning-Oriented RL Tasks with auto-verifiable answers(math,code,science,logic)核心創新,GRPO 算法,精度+格式獎勵,RL 高效訓練技術復雜度高 Stage3 Synthetic SFT DeepSeek-V3-
32、Base fine tuned with:Reasoning data(600k);Non-reasoning data(200k)常規微調,采用 RL 后模型產生的思維鏈,提升推理能力 Stage4 Mixed RL(Reasoning+RLHF)Tasks with auto-verifiable answers and human preferences(focus on safety and helpfulness)數據來源:商湯、東北證券 2.1.1.高效的高效的訓推訓推能力能力 DeepSeekV3 整體預訓練用了整體預訓練用了 14.8 萬億的高質量萬億的高質量 Token,并且
33、在后期做了,并且在后期做了 SFT 和和RL,模型參數量達到,模型參數量達到 671B,但是每個,但是每個 Token 僅激活僅激活 37B 參數。參數。這種稀疏激活機制顯著提升了計算效率,為了實現高效的推理和訓練,DeepSeekV3 自主研發了 MLA 注意力機制和無輔助損失的負載均衡策略,應用于其 Mixture of Experts(MoE)架構。技術報告顯示,DeepSeekV3 采用了經典的 Transformer 架構,其中前饋網絡部分使用了 DeepSeekMoE 架構,注意力機制則采用了 MLA 架構。這兩種架構在DeepSeekV2 中已經得到驗證并成功應用。與 DeepS
34、eek-V2 相比,V3 版本進一步引入了一種無輔助損失的負載均衡策略。這一策略專門針對DeepSeekMoE 架構設計,旨在解決因確保 Expert 負載均衡而導致的性能損耗問題,從而在提升模型效率的同時,進一步優化整體性能表現。圖圖 6:DeepSeek-V3 模型網絡架構模型網絡架構 數據來源:Deepseek,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 9/38 計算機計算機/行業深度行業深度 2.1.1.1.DeepSeekMoE 第一個將第一個將 MoE 架構引入架構引入 Transformer 網絡的就是網絡的就是 GShard 架構了,架構了,GShar
35、d 架構是架構是首個將首個將 Mixture of Experts(MoE)架構引入)架構引入 Transformer 網絡的創新實踐。網絡的創新實踐。與傳統的大模型架構相比,MoE 架構在數據流轉過程中新增了一個專家網絡層。傳統 MoE架構主要由兩部分組成:Gating 門控網絡和稀疏 MoE 層。稀疏稀疏 MoE 層層:這些層取代了傳統 Transformer 模型中的前饋網絡(FFN)層。MoE 層包含多個“專家”(例如 8 個),每個專家本身是一個獨立的神經網絡。在實際應用中,這些專家通常是前饋網絡(FFN),但它們也可以是更復雜的網絡結構,甚至可以是 MoE 層本身,從而形成層級式的
36、 MoE 結構。門控網絡(路由)門控網絡(路由):這一部分負責決定哪些 Token 被發送到哪個專家。Token 的路由方式是 MoE 架構中的一個關鍵點,因為路由是由學習的參數組成的,并且與網絡的其他部分一同進行預訓練。與傳統與傳統 MoE 架構相比,架構相比,DeepSeekMoE 采用了更細粒度的專家劃分,并將部分專家采用了更細粒度的專家劃分,并將部分專家設置為共享專家,從而減少專家之間的知識冗余,提升模型效率和性能。設置為共享專家,從而減少專家之間的知識冗余,提升模型效率和性能。DeepSeekV3的門控網絡采用 Top-K 策略,即為每個 Token 選擇與所有專家計算出的親和力分數
37、中最高的 K 個分數對應的專家。在計算親和力分數時,DeepSeekV3 使用 sigmoid 函數,并對所有選定的親和力分數進行歸一化處理,以生成最終的門控值。在傳統 MoE模型中,由于路由策略的不均衡性,可能導致部分專家接收大量 Token,而其他專家則幾乎沒有訓練數據,這種現象會影響模型的整體性能。為解決這一問題,業界圖圖 7:傳統:傳統 MoE 架構架構 數據來源:Mixture of Experts Explained,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 10/38 計算機計算機/行業深度行業深度 通常引入輔助損失(auxiliary loss),以平
38、衡專家之間的負載。然而,過高的輔助損失有時會損害模型性能。為了在負載均衡和模型性能之間取得更好的平衡,DeepSeek 提出了一種無輔助損失的負載均衡策略。具體而言,為每個專家引入一個偏差項,并將其添加到親和力分數中以確定 Top-K 路由。如果某個專家過載,偏差項會減少;如果某個專家負載不足,偏差項會增加。其中,是一個稱為偏差更新速度的超參數,用于動態調整專家的負載分配。傳統門控網絡本質上是 softmax函數疊加一個分類網絡,其輸出的 logits 值可能因專家負載不均而出現極端化。輔助損失通常通過添加懲罰項來限制過大的 logits 值,從而鼓勵模型生成更適度的輸出,防止某些專家因負載過
39、高而影響整體性能。DeepSeek 的無輔助損失策略通過動態調整偏差項,避免了傳統輔助損失可能帶來的性能損耗,同時實現了更高效的負載均衡。2.1.1.2.MLA 多頭潛在注意力多頭潛在注意力 在大模型推理過程中,在大模型推理過程中,KV Cache 機制通常是限制推理效率的關鍵瓶頸之一。機制通常是限制推理效率的關鍵瓶頸之一。標準的 Transformer 架構中,多頭自注意力(MHA)機制會產生大量的 KV 緩存,這在大規模模型中尤其顯著。為了減少 KV 緩存的使用,業界已經提出了多種解決方案,例如 PagedAttention、多查詢注意力(MQA)和分組查詢注意力(GQA)。然而,這些方案
40、在性能上相比原生的 MHA 架構仍存在一定的差距。DeepSeek-V2 提出了一種創新的注意力機制多頭潛在注意力(MLA,Multi-Head Latent Attention)。與 MQA 的 KV 共享和 GQA 的 KV 分組不同,MLA 的核心在于對注意力機制中的鍵(Key)和值(Value)進行低秩聯合壓縮。這種壓縮方式能夠在推理過程中顯著減少 KV 緩存的使用量,同時保持甚至提升模型的性能。具體而言,MLA 通過將 Key 和 Value 映射到一個低秩的潛在空間中,減少了冗余信息,從而在推理時降低了 KV 緩存的存儲需求。這一設計不僅有效緩解了 KV Cache 機制對推理效率
41、的限制,還使得模型在處理大規模數據時更加高效。與傳統的 MHA 架構相比,MLA 在性能上表現出顯著優勢,同時所需的 KV 緩存量大幅減少,為大模型的高效推理提供了一種新的技術路徑。圖圖 8:Deepseek MoE 架構架構 數據來源:Deepseek,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 11/38 計算機計算機/行業深度行業深度 此外,MLA 機制的引入也為 DeepSeek-V2 模型的整體架構優化提供了重要支撐。它不僅提升了模型的推理效率,還為模型在大規模應用場景中的部署和優化提供了更多可能性。這種創新的注意力機制是 DeepSeek 在大模型技術領域的
42、重要突破之一,進一步鞏固了其在高效推理和性能優化方面的領先地位。2.1.2.低成本的低成本的推理部署方案推理部署方案 推理部署采用了預填充(推理部署采用了預填充(Prefilling)與解碼()與解碼(Decoding)分離的策略,從而確保了)分離的策略,從而確保了在線服務的高吞吐量和低延遲在線服務的高吞吐量和低延遲。通過冗余專家部署和動態路由策略,模型在推理過程中實現了高效的負載均衡。整體而言,該部署方案基于跨機分布式推理架構。預填充(預填充(Prefill)階段)階段:預填充階段的核心任務是并行處理用戶的 Prompt,并將其轉化為 KV Cache。該階段的最小部署單元由 4 個節點組成
43、,每個節點配備 32 個 GPU。在注意力機制部分,采用 4 路張量并行(TP4)和序列并行(SP),同時結合 8 路數據并行(DP8)。較小的 TP 規模(4 路)有效限制了 TP 通信的開銷。對于 Mixture of Experts(MoE)部分,采用 32 路專家并行(EP32)。解碼(解碼(Decoder)階段)階段:解碼階段的主要任務是生成自回歸的每個 Token 的輸出。該階段的最小部署單元由 40 個節點和 320 個 GPU 組成。注意力機制部分采用 TP4 和 SP,結合 80 路數據并行(DP80),而 MoE 部分則使用 320 路專家并行(EP320)。在 MoE 部
44、分,每個 GPU 僅承載一個專家,其中 64 個 GPU 專門用于承載冗余專家和共享專家。DeepSeek V3/R1 是是 prefill、decode 分離的(分離的(PD 分離),也就是說分離),也就是說 prefill 用一個集用一個集群,群,decode 用另一個集群,我們可以把用另一個集群,我們可以把 prefill 可以簡單理解為輸入計算,可以簡單可以簡單理解為輸入計算,可以簡單理解理解 decode 為輸出計算。為輸出計算。在 24 小時統計時段內,DeepSeekV3 和 R1:輸入 token 總數為 608B,其中 342B tokens(56.3%)命中 KVCache
45、 硬盤緩存,HIT 價格 0.14 miss價格 0.55。輸出 token 總數為 168B,定價 2.19。平均輸出速率為 2022tps,平均每輸出一個 token 的 KVCache 長度是 4989。平均每臺 H800 的吞吐量為:對于 prefill任務,輸入吞吐約 73.7k tokens/s(含緩存命中);對于 decode 任務,輸出吞吐約 14.8k tokens/s 圖圖 9:Deepseek MLA 架構架構 數據來源:Deepseek,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 12/38 計算機計算機/行業深度行業深度 1)輸入部分需要考慮緩
46、存命中率的差異,輸入計算節點每小時收入=(0.14*56.3%+0.55*43.7%)*73.7*3600/1000=84.7$/h;其算力為608B/73.7k/3600=2289(節點*小時)2)輸出則是=2.19*14.8*3600/1000=116.7$/h,其算力為 168B/14.8k/3600=3153(節點*小時)因此輸入的計算占用了 42%的算力,輸出用了 58%的算力。一個節點的滿載計算收入=103 美元/小時。H800 節點的時租成本也就是 2*8=16 美元/小時。因此 1-16/103=84.5%毛利率就是理論滿載上限值。決定毛利最根本因素就是吞吐量。Deepseek
47、 能夠實現極高利潤率的根本原因就是吞吐量非常非常高。H200 節點可以實現 3,872t/s 的峰值輸出吞吐,FP8 精度;H200 節點峰值輸出吞吐優化到 5,899t/s,B200 節點峰值輸出吞吐則高達 21,088t/s。Deepseek 用閹割版的 H800 實現了 14.8kt/s的輸出吞吐,是 Nvdia H200 FP8 性能的整整 3.8 倍,這也是為什么 Deepseek 性價比高的原因。2.2.Qwen2.5:持續發力多模態:持續發力多模態 根據根據 Chatbot Arena LLM Leaderboard 的最新更新,不久前發布的的最新更新,不久前發布的 Qwen2.
48、5-Max直接躋身前十名,超越了直接躋身前十名,超越了 DeepSeek V3、o1-mini 和和 Claude-3.5-Sonnet 等知名模型,等知名模型,以以 1332 分的成績位列全球第七。分的成績位列全球第七。Chatbot Arena 是由 LMSYS Org 推出的一個大模型性能評測平臺,目前整合了超過 190 種不同的模型。該平臺以匿名形式將大模型兩兩配對,交由用戶進行盲測,用戶依據真實的對話體驗對模型的能力進行投票。因此,Chatbot Arena LLM Leaderboard 已成為全球頂級大模型競爭的核心舞臺。同時,Qwen2.5-Max 在數學和編程能力上排名第一,
49、在處理復雜提示詞(Hard prompts)方面排名第二。Qwen2.5-Max 是阿里云通義團隊在 Mixture-of-Experts(MoE)模型領域的最新研究成果,展現了極為出色的綜合性能。在 Arena-Hard、LiveBench、LiveCodeBench、GPQA-Diamond 和 MMLU-Pro 等主流基準測試中,Qwen2.5-Max的表現與 Claude-3.5-Sonnet 不相上下,并且在幾乎所有方面都超越了 GPT-4o、DeepSeek-V3 和 Llama-3.1-405B 等模型。Chatbot Arena 官方賬號 lmarena.ai 對Qwen2.5
50、-Max 給予了高度評價,稱阿里巴巴的 Qwen2.5-Max 在多個領域表現出色,尤其是在專業技術領域(如編程、數學和復雜提示詞處理)表現尤為突出。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 13/38 計算機計算機/行業深度行業深度 表表 2:Chatbot Arena LLM Leaderboard 評分結果評分結果 Model Overall Overall w/Style Control Hard Prompts Hard Prompts w/Style Control Coding Math Creative Writing Instruction Following
51、 Longer Query Multi-Turn grok-3-preview-02-24 1 2 1 1 1 1 1 1 1 2 gpt-4.5-preview-2025-02-27 1 1 1 1 1 1 1 1 1 1 gemini-2.0-flash-thinking-exp-01-21 3 6 2 4 3 1 1 3 1 3 gemini-2.0-pro-exp-02-05 3 3 2 2 3 2 2 3 1 2 chatgpt-4o-latest-20250129 3 2 5 3 3 12 1 3 1 2 deepseek-r1 6 4 5 1 3 1 6 3 6 3 gemini
52、-2.0-flash-001 6 10 5 9 4 3 6 7 6 5 o1-2024-12-17 6 3 3 1 3 1 6 3 3 7 qwen2.5-max 9 10 5 6 7 4 7 8 6 7 gemma-3-27b-it 9 10 14 15 15 13 6 12 9 7 o1-preview 9 7 6 5 4 2 10 8 7 7 o3-mini-high 10 10 5 3 3 1 17 8 6 11 deepseek-v3 12 13 14 16 14 14 7 12 7 8 qwq-32b 12 17 10 11 6 6 14 12 11 7 qwen-plus-012
53、5 13 15 14 14 12 13 17 14 10 8 glm-4-plus-0111 13 17 15 20 19 16 10 15 12 12 hunyuan-turbos-20250226 13 14 13 6 7 13 10 9 6 8 數據來源:lmarena、東北證券 同時同時 Qwen 旗下旗下最新最新 32B 推理模型,跑分不輸推理模型,跑分不輸 671B 的滿血版的滿血版 DeepSeek R1。而且其蒸餾出的 QwQ-32B 雖尚未發布完整的技術報告,但其官方頁面對強化學習方法進行了簡要介紹:該模型從一個冷啟動檢查點開始,采用基于 Outcome-Based Rewa
54、rd的強化學習(RL)擴展方法。在訓練初期,強化學習專門針對數學和編碼任務進行優化,摒棄了傳統獎勵模型,轉而使用數學問題準確性驗證器以確保解決方案的正確性,并借助代碼執行服務器評估生成代碼是否通過預定義的測試用例。隨著訓練輪次的增加,這兩個領域的性能均持續提升。在第一階段之后,團隊為提升模型的通用能力,增加了第二階段的強化學習。這一階段結合了通用獎勵模型的獎勵信號和基于規則的驗證器進行訓練。研究發現,僅需少量訓練步驟,即可顯著提升模型在遵循指令、符合人類偏好以及智能體性能等方面的通用能力,且在數學和編碼任 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 14/38 計算機計算機/行業
55、深度行業深度 務上未出現明顯的性能倒退。如果將 QwQ-32B 加入代碼能力與輸出 token 成本的對比圖表中,會發現其以大約 1/10 的成本,達到了介于 DeepSeek-R1 和 o3-mini-high之間的性能水平。目前阿里使用的 Qwen2.5-VL 的整體架構由三個主要組件構成:大語言模型(LLM)、視覺編碼器(Vision Encoder)和基于 MLP 的視覺語言融合器(Vision-Language Merger)。這三個組件的協同工作使得 Qwen2.5-VL 能夠處理復雜的多模態輸入,并在多個任務中表現出色。大語言模型:大語言模型:Qwen2.5-VL 系列采用了大語
56、言模型作為其基礎組件。模型初始化時使用了 Qwen2.5 LLM 的預訓練權重,并對其進行了修改,以適應多模態理解的需求。具體來說,模型將 1D RoPE(旋轉位置嵌入)修改為多模態旋轉位置嵌入(MRoPE),以更好地處理多模態輸入。視覺編碼器:視覺編碼器:Qwen2.5-VL 的視覺編碼器采用了重新設計的 Vision Transformer(ViT)架構。通過引入 2D-RoPE 和窗口注意力機制,模型能夠在保持輸入分辨率的同時加速計算。視覺編碼器將圖像分割為14x14的patch,生成一組圖像特征。在處理視頻時,模型將連續的兩幀圖像分組,顯著減少了輸入到語言模型的 token 數量。視覺
57、語言融合器:視覺語言融合器:為了應對長序列圖像特征帶來的效率挑戰,Qwen2.5-VL采用了一種簡單而有效的方法,將圖像特征序列壓縮后再輸入到大語言模型中。具體來說,模型將空間上相鄰的四個 patch 特征進行分組,并通過一個兩層的多層感知器(MLP)將其投影到與文本嵌入對齊的維度。這種方法不僅減少了計算成本,還提供了一種靈活的方式來動態壓縮不同長度的圖像特征序列。圖圖 10:QwQ-32B 各項基準評分表現各項基準評分表現 數據來源:通義千問,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 15/38 計算機計算機/行業深度行業深度 2.2.1.快速高效的視覺編碼器快速高
58、效的視覺編碼器 視覺編碼器是多模態大語言模型的核心組件之一。為解決原生分辨率輸入帶來的計算負載不平衡問題,Qwen2.5-VL 對 Vision Transformer(ViT)架構進行了重新設計。通過引入窗口注意力機制,模型在大多數層中實現了計算成本的線性增長,而非傳統的二次方增長。具體而言,32 層架構中僅有 4 層采用全自注意力機制,其余層均采用窗口注意力機制,最大窗口尺寸為 112112(對應 88 的 patch)。這種設計在保持輸入分辨率的同時,顯著降低了計算開銷。此外,模型采用了二維旋轉位置嵌入(RoPE)以有效捕捉二維空間中的關系,并擴展至三維 patch 分割,以更好地處理視
59、頻輸入。具體來說,模型以 1414 的圖像patch 作為基本單元,對于視頻數據,則將連續兩幀圖像分組,從而大幅減少了輸入到語言模型的 token 數量。2.2.2.原生動態分辨率和幀率原生動態分辨率和幀率 Qwen2.5-VL 在空間和時間維度上引入了多項創新,以高效處理多樣化的多模態輸入。在空間維度上,模型能夠動態地將不同尺寸的圖像轉換為相應長度的 token 序列。與傳統歸一化坐標不同,Qwen2.5-VL 直接使用輸入圖像的實際尺寸來表示邊界框、點和其他空間特征。這使得模型能夠學習尺度信息,從而提升其處理不同分辨率圖像的能力。在時間維度上,Qwen2.5-VL 通過動態幀率(FPS)訓
60、練和絕對時間編碼,能夠更好地捕捉視頻內容的時間動態。與傳統的文本時間戳或額外頭部處理方法不同,圖圖 11:Qwen2.5-VL 的視覺語言模型的視覺語言模型架構架構 數據來源:通義千問,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 16/38 計算機計算機/行業深度行業深度 Qwen2.5-VL 引入了一種新穎且高效的策略,將多模態旋轉位置嵌入(MRoPE)ID直接與時間戳對齊。這種方法通過時間維度 ID 之間的間隔來理解時間節奏,無需額外計算開銷。2.2.3.多模態旋轉位置嵌入與絕對時間對齊多模態旋轉位置嵌入與絕對時間對齊 位置嵌入在建模視覺和語言模態的序列數據中起著至
61、關重要的作用。Qwen2.5-VL在Qwen2-VL 的基礎上,進一步擴展了多模態旋轉位置嵌入(MRoPE)的能力,以更好地處理視頻中的時間信息。具體而言,MRoPE 將位置嵌入分解為三個獨立的組件:時間、高度和寬度,以高效建模多模態輸入。對于文本輸入,所有三個組件使用相同的位置 ID,使得 MRoPE 在功能上等同于傳統的 1D RoPE。對于圖像,時間 ID 在視覺 token 之間保持不變,而高度和寬度組件則根據每個 token 在圖像中的空間位置分配唯一 ID。在處理視頻時,時間 ID 隨每一幀的增加而遞增,而高度和寬度組件則與靜態圖像的處理方式相同。然而,在 Qwen2-VL 中,M
62、RoPE 的時間位置 ID 與輸入幀數綁定,無法反映內容變化的速度或視頻中事件的絕對時間。為解決這一限制,Qwen2.5-VL 引入了關鍵改進:將 MRoPE 的時間組件與絕對時間對齊。通過利用時間 ID 之間的間隔,模型能夠學習不同 FPS 采樣率視頻中的一致時間對齊。這些創新結構使得這些創新結構使得 Qwen2.5-VL 在多模態理解和交互方面取得了顯著進展。通過增在多模態理解和交互方面取得了顯著進展。通過增強的視覺識別、對象定位、文檔解析和長視頻理解能力,強的視覺識別、對象定位、文檔解析和長視頻理解能力,Qwen2.5-VL 在靜態和動在靜態和動態任務中均表現出色。態任務中均表現出色。其
63、原生動態分辨率處理和絕對時間編碼技術使其能夠高效處理多樣化的輸入,而窗口注意力機制則在保持分辨率的同時減少了計算開銷。Qwen2.5-VL 適用于從邊緣 AI 到高性能計算的廣泛應用場景。旗艦型號 Qwen2.5-VL-72B 在文檔和圖表理解方面與 GPT-4o 和 Claude 3.5 Sonnet 等頂級模型相媲美,同時在純文本任務中也表現出色。較小的 Qwen2.5-VL-7B 和 Qwen2.5-VL-3B 模型則在資源受限的環境中表現出色,提供了強大的能力。Qwen2.5-VL 為視覺語言模型設定了新的基準,展示了其在跨領域的泛化和任務執行能力。其創新為更智能和交互式的系統鋪平了道
64、路,連接了感知與現實世界的應用。圖圖 12:Qwen2.5 在在視頻理解能力的表現視頻理解能力的表現 數據來源:通義千問,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 17/38 計算機計算機/行業深度行業深度 2.3.混元混元 T1:混合混合 Mamba 架構架構帶來高速推理體驗帶來高速推理體驗 這是工業界首次將混合這是工業界首次將混合 Mamba 架構無損應用于超大型推理模型。架構無損應用于超大型推理模型?;煸?T1 正式版沿用了混元 Turbo S 的創新架構,采用 Hybrid-Mamba-Transformer 融合模式。這一架構有效降低了傳統Transform
65、er 結構的計算復雜度,減少了KV-Cache的內存占用,從而顯著降低了訓練和推理成本?;煸猅1在超長文本推理領域也展現出獨特優勢?;诔錾拈L文捕捉能力,混元 T1 能有效解決長文推理中常見的上下文丟失和長距離信息依賴問題。同時,混合 Mamba 架構針對長序列處理進行了專項優化,通過高效的計算方式,在確保長文本信息捕捉能力的同時大幅降低資源消耗,在相近的激活參數量下,實現了解碼速度提升 2 倍。T1吐字快、能秒回,還擅長超長文吐字快、能秒回,還擅長超長文處理,是騰訊自研的強推理模型,已經上線騰訊云,即將在騰訊元寶灰度上線。處理,是騰訊自研的強推理模型,已經上線騰訊云,即將在騰訊元寶灰度上線
66、。通通過大規模強化學習,并結合數學、邏輯推理、科學和代碼等理科難題的專項優化,過大規模強化學習,并結合數學、邏輯推理、科學和代碼等理科難題的專項優化,混元混元 T1 正式版進一步提升了推理能力。正式版進一步提升了推理能力。在體現推理模型基礎能力的常見 benchmark 上,如大語言模型評估增強數據集MMLU-PRO 中,混元 T1 取得 87.2 分,僅次于 o1。在 CEval、AIME、Zebra Logic等中英文知識及競賽級數學、邏輯推理的公開基準測試中,混元 T1 的成績也達到業界領先推理模型的水平。T1 還在多項對齊任務、指令跟隨任務和工具利用任務中展現出了非常強的適應性。圖圖
67、13:騰訊混元自研深度思考模型騰訊混元自研深度思考模型 T1 特性特性 數據來源:騰訊混元,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 18/38 計算機計算機/行業深度行業深度 圖圖 14:騰訊混元騰訊混元 T1 各類型能力評分各類型能力評分 數據來源:騰訊混元,東北證券 圖圖 15:騰訊混元騰訊混元 T1 基準對比評分基準對比評分 數據來源:騰訊混元,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 19/38 計算機計算機/行業深度行業深度 2.3.1.混合混合 Mamba 架構所帶來的高速推理架構所帶來的高速推理 混合混合 Mamba 架構的關
68、鍵在于其模塊化設計理念。架構的關鍵在于其模塊化設計理念。它通過將不同功能的組件例如 Mamba 模塊和 Transformer 模塊有機組合,構建出一個高效協同的系統。Mamba 模塊專注于處理時間序列或空間序列中的局部特征,比如視頻幀中的動作變化、語音信號中的短片段等。而 Transformer 模塊則負責捕捉全局依賴關系,例如文本中的上下文關聯、圖像中的跨區域信息。這種設計使得混合 Mamba 架構在保持高效性的同時,也具備強大的全局建模能力,為復雜任務提供了全新的解決方案。Mamba 架構首先引入了一種簡單而有效的選擇機制。該機制可以根據輸入對狀態空間模型(SSM)進行重新參數化,從而在
69、濾除不相關信息的同時,無限期地保留必要和相關的數據。此外,Mamba還包含一種硬件感知型算法。該算法使用掃描(scan)而非卷積來循環地計算模型,在 A100 GPU 上,這種計算方式能夠使計算速度提升3 倍?;旌?Mamba 架構融合了兩種強大技術Mamba(狀態空間模型)和 Transformer,其模塊化設計就像一支“雙鏡頭相機”。一方面,它能夠放大細節,高效處理局部特征;另一方面,它又能拍攝全景,捕捉全局依賴。這種融合讓 T1 在處理復雜任務時,既高效又強大。比如另一個模型 LongLLaVA 通過采用 2D 池化壓縮圖像標記,顯著降低了計算成本,同時保持了性能,使其能夠在單個 A10
70、0 80GB GPU 上處理近千張圖像,展現了在多模態長上下文理解中的卓越性能。在數據構建方面,LongLLaVA 設計了獨特的格式以區分圖像之間的時間和空間依賴性,這使得模型能夠更好地適應多圖像場景。該模型通過結合 Mamba 和 Transformer 模塊,優化了計算復雜度,同時采用 2D 池化技術壓縮圖像標記,減少了計算資源的消耗。在數據構建方面,LongLLaVA 精心設計了數據格式,以區分圖像之間的時間和空間依賴性,增強了模型對多圖像場景的適應能力。此外,其訓練策略采用分階段方法,包括單圖像對齊、單圖像指令調整和多圖像指令調整,逐步提升模型對長上下文的理解力。圖圖 16:基于基于
71、Mamba 模型的下游任務應用實例模型的下游任務應用實例 數據來源:A survey of Mamba,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 20/38 計算機計算機/行業深度行業深度 T1 的的混合混合 Mamba 架構的關鍵優勢架構的關鍵優勢在于其在于其動態權重分配的核心思想,智能分配計算動態權重分配的核心思想,智能分配計算資源。資源。例如,當輸入數據為長文本時,系統會增加 Mamba 模塊的權重,以提高對局部特征的敏感性;而當輸入數據為多模態內容(如圖文結合)時,系統則會提升Transformer 模塊的權重,以增強全局建模能力。高效處理長序列數據高效處理長
72、序列數據:T1 能夠迅速處理長序列數據(例如視頻幀、語音信號),并且在處理過程中不會忽略局部特征。這一特性對于實時語音識別、自動駕駛等場景極為關鍵。長序列數據處理面臨的最大難題是計算資源的消耗和模型的記憶能力。傳統 RNN 模型在處理長序列時容易出現梯度消失問題,而Transformer 雖然能夠捕捉全局依賴關系,但其計算成本會隨著序列長度的增加而呈平方級增長。相比之下,Mamba 模塊通過狀態空間模型(SSM)顯著降低降低了計算復雜度,同時保持了對局部特征的敏感性。了計算復雜度,同時保持了對局部特征的敏感性。強大的多模態能力強大的多模態能力:混合 Mamba 架構賦予了 T1 出色的跨模態任
73、務處理能力。例如,它可以同時處理文本和圖像,生成高質量的內容。在實際應用中,T1 的多模態能力可以廣泛應用于多個領域。在內容創作領域,T1 可以根據用戶提供的關鍵詞生成連貫的文字描述,并自動生成匹配的插圖;在醫療領域,T1 可以同時分析患者的病歷文本和醫學影像,提供更精準的診斷建議。智能路由機制智能路由機制:通過優化模塊間的信息傳遞路徑,T1 避免了冗余計算,從而進一步提升了整體效率。智能路由機制的核心在于優化模塊間的通信路徑,避免重復計算。例如,在處理圖像任務時,系統會優先選擇最短路徑傳輸數據,從而減少延遲和計算開銷。此外,智能路由機制還支持動態緩存功能,進一步提升了系統的響應速度。2.4.
74、大模型的技術缺陷和未來演進方向大模型的技術缺陷和未來演進方向 事實上,在模型方面,事實上,在模型方面,目前大模型還存在較多的技術缺陷:目前大模型還存在較多的技術缺陷:ORM 監督信號稀疏與反饋路徑冗長監督信號稀疏與反饋路徑冗長。目前,大模型在 ORM(需根據上下文明確 ORM 含義)方面存在監督信號稀疏的問題。在訓練過程中,用于引導模型學習的標簽或監督信息較為有限,難以全面且精準地推動模型朝著理想方向優化。與此同時,ORM 的反饋路徑較長,導致模型在接收訓練反饋并調整參數時,流程較為復雜,學習效率較低。不過,PRM(需根據上下文明確含義)在這一方面可以與 ORM 形成互補。此外,基于強化學習(
75、RL)的技術路線尚未收斂,仍處于探索階段,這意味著在將 RL 技術應用于大模型訓練時,尚未找到一種穩定且最優的方案,存在多種改進方向和調整空間。對正確性驗證的強依賴與推理能力局限對正確性驗證的強依賴與推理能力局限。大模型在開放環境和復雜業務場景下,對正確性驗證存在較強依賴。開放環境中數據來源廣泛且復雜,難以像封閉環境那樣對輸入數據進行嚴格控制和驗證。而在復雜業務場景(如金融風險預測、醫療診斷輔助等)中,涉及眾多因素和不確定性,模型的推理能力面臨挑戰。面對大量非結構化數據、模糊信息以及需要綜合多方面知識進行判斷的情況,模型可能出現推理偏差或無法得出有效結論,難以滿足實際業務對準確性和可靠性的高要
76、求。圖圖 17:Mamba 和和 Transformer 模塊模塊的結合,以的結合,以 LongLLaVA 為例為例 數據來源:LongLLaVA,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 21/38 計算機計算機/行業深度行業深度 純語言模型信息源受限與多模態的必要性純語言模型信息源受限與多模態的必要性。純語言模型僅依賴文本數據作為信息源,這極大地限制了其對世界的理解范圍。語言文字只是人類對世界認知的一部分,大量豐富的信息(如視覺圖像中的細節、音頻中的情感與環境信息等)無法被純語言模型利用。相比之下,多模態技術整合了文本、圖像、音頻等多種信息模態,模擬人類通過多種感
77、官接收信息的方式。由于現實世界中各種模態的信息天然交融,多模態技術是通往通用人工智能(AGI)的必經之路。只有通過多模態,模型才能更全面、深入地理解世界,提升智能水平。復雜長時任務處理能力不足復雜長時任務處理能力不足。大模型在處理復雜長時任務方面表現欠佳。例如,在軟件構建過程中,從需求分析、設計架構、編寫代碼到測試優化等一系列連貫且復雜的步驟,需要模型具備長時間的專注與持續推理能力,但目前的大模型難以勝任。同樣,在長時間教學任務中,需要根據學生的不同反應和學習進度動態調整教學策略并持續輸出教學內容,大模型也難以應對。這表明在需要長時間規劃、執行與協調的復雜任務領域,大模型仍有很大的提升空間。所
78、以從未來的技術發展方向上來看,建議關注以下三點:所以從未來的技術發展方向上來看,建議關注以下三點:1.Scaling 螺旋式上升螺旋式上升帶動成本降低帶動成本降低:未來,大模型將在更高效的架構和方法基礎上進行 Scale。新的架構設計可能會改變模型內部神經元的連接方式和信息傳遞路徑,提升模型處理數據的效率。例如,新型 Transformer 架構變體可能在減少計算量的同時保持或提升模型的表達能力?;谶@些新架構和方法進行 Scale,有望使模型能力實現新的突破,提升模型能力增長的斜率。具體而言,有兩條關鍵軌道:一是架構和訓練效率的進一步提升,通過優化架構設計和訓練算法,以更少的計算資源訓練出更
79、優性能的模型;二是后訓練增強學習的 Scale,通過強化學習技術對模型進行優化,使其更好地適應復雜應用場景。同時通過模型同時通過模型蒸餾技術,蒸餾技術,越來越多體積更小性能更好的模型還將落地越來越多體積更小性能更好的模型還將落地。這些小型模型在訓練過程中所需的計算資源和時間大幅減少,顯著降低了訓練成本。同時,由于其輕量化的特性,這些模型能夠更高效地部署在端側設備上,如智能手機或物聯網設備。在端側運行時,它們不僅能夠快速響應用戶需求,還能在有限的硬件資源下保持良好的性能表現,為用戶帶來更流暢、更便捷的使用體驗。圖圖 18:更小的模型有望帶來更多的市場空間更小的模型有望帶來更多的市場空間 數據來源
80、:YOLE,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 22/38 計算機計算機/行業深度行業深度 2.多模態深度融合,邁向世界模型多模態深度融合,邁向世界模型:語言文字只是世界信息的一部分,還有大量未被充分利用的數據,如未標注的圖像、自然環境中的音頻和傳感器數據等?,F實生活中,各種模態的信息天然交融,人類通過多種感官接收并整合這些信息。未來的人工智能需要全面理解世界,這需要多模態技術深度融合,將不同模態的數據有機整合,構建出更接近真實世界的認知模型,即邁向世界模型。在內容創作方面,它可以依據文本描述自動生成高質量的圖像、視頻或音頻內容,為創意產業帶來前所未有的便利;在
81、教育領域,它可以通過多種模態的互動教學方式,提升學習的趣味性和效果;在醫療健康領域,它能夠整合病歷文本、醫學影像和生理信號等多種數據,輔助醫生進行更精準的診斷和治療方案制定;在智能交通領域,它可以實時分析交通圖像和傳感器數據,優化交通流量管理并提升駕駛安全。這也是為什么多模態大模型是現在中美兩國各大互聯網廠商的核心發力點之一。3.從“推理者”到“智能體”從“推理者”到“智能體”:推理是人工智能的核心能力之一,但并非全部。真正的智能體應是一個“感知-思考-決策-行動-反思”的一體化閉環系統。在這個系統中,可靠的推理能力是重要支撐,但智能體還需要通過感知模塊獲取外界信息,經過思考模塊分析處理,基于
82、決策模塊做出行動決策,通過行動模塊執行決策,并在行動過程中通過反思模塊評估和調整自身行為。從“推理者”向“智能體”的轉變,將為人工智能開啟多價值應用之門,例如在智能機器人領域,智能體可以根據環境感知、思考決策并執行任務,更好地完成復雜環境下的救援和家居服務等實際任務。圖圖 19:多模態大模型帶動更多的下游需求多模態大模型帶動更多的下游需求 數據來源:Pyhton,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 23/38 計算機計算機/行業深度行業深度 3.從幻覺的角度來說從幻覺的角度來說,如何看應用前景,如何看應用前景 3.1.AI 應用應用無法回避的無法回避的對手對手之
83、一之一,幻覺,幻覺 在當前的在當前的 AI 應用市場中,大模型的幻覺問題正成為阻礙垂類客戶向應用市場中,大模型的幻覺問題正成為阻礙垂類客戶向 AI 付費的關鍵付費的關鍵因素之一。因素之一。垂類客戶,尤其是那些對專業性和準確性要求極高的行業用戶,如醫療、金融、法律等,對 AI 的輸出結果有著近乎嚴苛的標準。然而,大模型在生成內容時可能出現的幻覺現象,即生成與事實不符或缺乏依據的信息,使得這些客戶對 AI 的可靠性產生懷疑。例如,在醫療領域,錯誤的診斷建議可能危及患者健康;在金融領域,不準確的數據分析可能導致重大經濟損失。這種不確定性讓垂類客戶在考慮是否為 AI 服務付費時變得極為謹慎。他們需要的
84、不僅是高效便捷的工具,更是能夠確保專業性和準確性的可靠伙伴。因此,解決大模型的幻覺問題,提升其在專業領域的可信度,是推動垂類客戶向 AI 付費、促進 AI 技術在更多領域廣泛應用的必由之路。今年今年 1 月,世界經濟論壇發布的月,世界經濟論壇發布的2025 年全球風險報告顯示:虛假信息年全球風險報告顯示:虛假信息和錯誤信息連續兩年位居短期風險之首,持續對社會凝聚力和治理構成重大威脅,和錯誤信息連續兩年位居短期風險之首,持續對社會凝聚力和治理構成重大威脅,它們侵蝕公眾信任并加劇國內外分歧。它們侵蝕公眾信任并加劇國內外分歧。圖圖 20:AI Agent 智能體智能體架構架構 數據來源:OpenAI
85、,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 24/38 計算機計算機/行業深度行業深度 大模型幻覺(大模型幻覺(AI Hallucination)是指模型在生成內容或回答問題時,產生了看似合)是指模型在生成內容或回答問題時,產生了看似合理,實則與用戶輸入不一致(忠實性幻覺)或者不符合事實(事實性幻覺)的內容。理,實則與用戶輸入不一致(忠實性幻覺)或者不符合事實(事實性幻覺)的內容。隨著大模型在醫療、金融等關鍵領域廣泛應用,大模型幻覺帶來的潛在應用風險日益加劇,正得到業界的廣泛關注。事實性幻覺是大模型事實性幻覺是大模型“知其然而不知其所以然知其然而不知其所以然”的典型表
86、現的典型表現它通過統計規律生成內容,卻無法真正理解現實世界的因果關系。比如模型生成的內容與客觀常識或權威知識庫(如教科書、學術論文)記錄的事實相沖突。例如,當在 24 年美國總統選舉結果出來之前問大模型關于“美國總統是誰的”的問題時,模型有一定概率回答“哈里斯”,這顯然違背了目前的事實。同時模型還會無中生有地編造不存在的事實,且無法通過任何可靠來源進行驗證。例如,當被問及“2012 年諾貝爾文學獎得主是誰”時,模型虛構“中國作家余華因豐乳肥臀獲獎”,而實際上,該年度獎項授予了莫言,以表彰其作品“將魔幻現實主義與民間故事、歷史與當代社會融合在一起”,莫言也是首位獲得該獎項的中國作家。忠實性幻覺忠
87、實性幻覺則是因為則是因為模型過度迎合用戶暗示,缺乏事實錨定。模型過度迎合用戶暗示,缺乏事實錨定。模型無視用戶明確要求,偏離用戶指令或上下文,自行其是,成為“不聽話的助手”。比如,用戶指令:“幫我翻譯下以上文字”,結果模型輸出一段如何做文字翻譯的內容,并沒有幫用戶做任何翻譯。還會在同一對話中,模型前后回答自相矛盾。比如,用戶提問:“中國首輛火星車叫什么?”,第一次回答:“祝融號”(正確);第二次追問:“你確定不是玉兔號嗎?”,模型改口:“抱歉,是玉兔號?!保ㄥe誤,玉兔號為月球車)圖圖 21:目前全球所面臨的目前全球所面臨的 10 大風險大風險 數據來源:全球風險報告 2025,東北證券 請務必閱
88、讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 25/38 計算機計算機/行業深度行業深度 這核心是因為這核心是因為“大模型大模型的核心邏輯是猜詞游戲的核心邏輯是猜詞游戲,它只是在用概率演算,它只是在用概率演算下一個字大概下一個字大概率是什么率是什么。目前來看,主要的原因來自于以下三點:數據缺陷:輸入決定輸出數據缺陷:輸入決定輸出。小紅通過文心一言查詢養生建議,結果模型推薦“空腹喝檸檬水排毒”,但這一建議可能對胃酸過多的人引發胃痛。問題在于,這一建議來源于某健康博主的非專業文章,卻被模型誤認為是權威知識。模型的訓練語料中包含大量網絡謠言和過時知識,例如醫學論壇中錯誤的療法。MetaAI負責人
89、 YannLeCun 曾警告說:“網絡數據中有 80%是未經驗證的觀點,但模型卻將其當作真理來學習?!蹦繕隋e位:目標錯位:優先考慮流暢性而非正確性優先考慮流暢性而非正確性。程序員老張讓 GPT-4 幫他寫代碼,結果模型生成了一段使用不存在的 Python 庫“pandasX”的代碼。為了保證代碼結構的完整性,模型虛構了庫名,而忽略了真實性。這是因為模型的優化目標是預測下一個 token 的概率(例如在“貓喜歡吃_”中填“魚”而不是“石頭”),而不是進行事實核查。DeepMind 研究員 OriolVinyals 比喻說:“這就好比訓練學生寫作文時,只關注文筆是否流暢,而不關心內容是否真實?!敝?/p>
90、識邊界模糊知識邊界模糊:過度自信的推測。一位老人問 ChatGPT:“1990 年北京的房價是多少?”模型回答“均價約 5000 元/平方米”,但實際上當年房價不足千元。模型基于近年來的數據反推歷史,導致事實嚴重扭曲。模型缺乏“我不知道”的認知能力,GoogleBrain 研究員 QuocV.Le 指出:“大模型就像剛畢業的醫學生,總是想給出答案,哪怕它并不確定?!眻D圖 22:中國信通院啟動“可信中國信通院啟動“可信 AI”AI Safety Benchmark 大模型幻覺評測大模型幻覺評測 數據來源:信通院,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 26/38 計算
91、機計算機/行業深度行業深度 表表 3:幻覺高發場景:幻覺高發場景 場景類別場景類別 具體場景具體場景 示例示例 風險等風險等級級 防護建議防護建議 知識邊界模糊 開放域生成 續寫未完結的經典文學作品 高 添加創作范圍限制+事實性標注 未來事件預測 預測 2030 年科技突破細節 極高 聲明預測性質+概率分布呈現 復雜推理 多跳推理任務 追溯企業高管早期職業軌跡 高 分步驗證+外部知識庫檢索 數學證明延伸 要求證明未解決的數學猜想 極高 中斷機制+當前研究進展說明 技術性誘發 長文本生成 小說連續章節生成 中 階段一致性檢查+人物屬性維護 多輪對話 復雜業務流程咨詢 高 對話歷史摘要+關鍵事實復
92、核 數據引用 矛盾數據源 不同版本的實驗數據引用 中 矛盾點對比+最新研究成果優先 情感驅動 安慰性回應 重癥患者尋求治療方案建議 極高 情感剝離響應+理論應用提示 特殊領域 醫療診斷 根據癥狀描述提供診斷建議 極高 明確非專業建議+醫療數據庫 法律咨詢 解釋特定法條適用范圍 高 司法轄區限定+法律條文引用 金融預測 給出具體股票買賣建議 極高 風險提示+歷史回報率說明 數據來源:清華大學、東北證券 從技術層面來看,目前主要的解決方法有以下三點:從技術層面來看,目前主要的解決方法有以下三點:知識增強:為模型配備知識增強:為模型配備“隨身圖書館隨身圖書館”法律領域:律師使用 Claude 3 查
93、詢“2024 年中國勞動法修訂”時,模型會先調取北大法寶法律數據庫,再生成帶有條款編號的詳細解讀,避免依賴過時的記憶。檢索增強生成(RAG):模型先調用權威數據庫(如 PubMed 論文庫),再生成回答。例如,微軟研究院的案例中,Bing Chat 在回答醫學問題時,會實時檢索最新新英格蘭醫學雜志的論文,顯著降低了錯誤率。人類反饋馴化:讓模型人類反饋馴化:讓模型“知錯能改知錯能改”跨境電商客服:AI 在回答“德國 VAT 稅率”時,若模型標記為“推測”,會自動補充提示:“建議咨詢當地稅務機構”。人類反饋強化學習(RLHF):標注員對模型的答案進行評分,教會模型區分“可信”與“虛構”。例如,An
94、thropic 在訓練 Claude 時,要求標注員對每個回答標注“置信度標簽”(如“確定/推測/存疑”)。領域特化:垂直賽道的精準打擊領域特化:垂直賽道的精準打擊 醫療領域:患者向平安好醫生 AI 描述癥狀時,模型會優先匹配臨床診療指南中的條目,而不是泛泛而談。金融領域:彭博GPT通過財經新聞和SEC文件進行微調,幻覺率比通用模型低63%。醫療領域:谷歌的 Med-PaLM 2 引入醫生審核機制,對診斷建議進行雙重校驗,確保建議的準確性。但是在但是在短期技術無法完全解決幻覺的短期技術無法完全解決幻覺的現在現在,AI 應用廠商們應用廠商們可能要學會可能要學會和和 AI 幻覺幻覺共共處的方法處的
95、方法。我們認為 AI 幻覺宛如一面棱鏡,既折射出技術的邊界,也映照出超越人 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 27/38 計算機計算機/行業深度行業深度 類想象的潛力?;蛟S我們不必執著于“絕對正確”,而是學會與 AI 的“想象力”共舞。畢竟,最偉大的創新往往誕生于理性與狂想的交匯處。在目前技術層面無法完全避開大模型的幻覺的情況下,也許一些特定的場景有望降低幻覺的破壞性,而突出其優異性。3.2.規?;叭蒎e解”:當誤差成本低于效率紅利規?;叭蒎e解”:當誤差成本低于效率紅利 當批量處理的規模效應使每千次錯誤的修正成本低于人工執行的機會成本時,當批量處理的規模效應使每千次錯
96、誤的修正成本低于人工執行的機會成本時,AI 幻幻覺便從缺陷轉化為特定場景下的“效率催化劑”。這或許正是大模型落地的務實路覺便從缺陷轉化為特定場景下的“效率催化劑”。這或許正是大模型落地的務實路徑:在容錯邊界內,讓技術紅利跑贏誤差成本。徑:在容錯邊界內,讓技術紅利跑贏誤差成本?;诮y計預測的大模型架構使得 AI幻覺成為技術內生的“創造性副產品”,比如 DeepSeek-R1,其在復雜推理中出現了14.3%的幻覺率。當模型嘗試填補訓練數據的空白時,難以消除生成虛構細節的邏輯。然而,在即將到來的批量處理場景中,例如電商客服話術生成、短視頻腳本初篩、基礎數據標注等容錯率大于或等于 15%的業務領域,這
97、種系統性誤差反而具有經濟合理性。以某零售平臺的實踐為例,部署大模型后,單條客服響應成本從 1.2 元降至 0.15 元。盡管內容偏差率達到 8%,但通過預設“敏感詞過濾+人機協同池”機制,僅需 5%的人工復核即可交付。按日均處理 10 萬條計算,單日可節約人力成本9750 元,而錯誤修正的邊際成本僅為 1200 元,規模效應形成的成本差達到 8 倍。這種“用這種“用 1%的錯誤率換取的錯誤率換取 90%效率提升”的模式,在內容生產、數據標注等勞動效率提升”的模式,在內容生產、數據標注等勞動密集型場景中尤為顯著。密集型場景中尤為顯著。我們認為這本質上是人機協同的成本再分配。正如醫療影像初篩允許
98、10%的誤判率(需人工復核),卻將醫生日均閱片量從 30 例提升至 200例,行業已經驗證了這種容錯的經濟性。對于下周即將落地的千萬級文本標注項目,我們的測算顯示,若采用“大模型初稿+抽檢復核”模式,整體成本將降至純人工的1/7,而誤差率(約 12%)完全處于業務可接受區間。在非關鍵決策場景中,與其追在非關鍵決策場景中,與其追求零幻覺的技術烏托邦,不如擁抱“可控誤差下的效率革命”。求零幻覺的技術烏托邦,不如擁抱“可控誤差下的效率革命”。數據標注以及文字識別是目前用的最多的場景。數據標注以及文字識別是目前用的最多的場景。在大模型的催化下,人類能夠標注在大模型的催化下,人類能夠標注的東西,的東西,
99、AI 基本都能標注,甚至在某些領域,基本都能標注,甚至在某些領域,AI 的標注速度和質量已經超越了人的標注速度和質量已經超越了人類的平均水平。類的平均水平。從簡單的文本分類到復雜的語義分析,從圖像識別到多模態數據處理,大模型能夠高效地處理海量數據,并精準地標注出其中的關鍵信息。它不僅能夠快速學習人類標注的規則和模式,還能通過不斷優化自身的算法,逐步提高標注的準確率和效率。這不僅極大地提高了數據標注的效率,降低了成本,也為人工智圖圖 23:大模型大模型將提高自動標注的效率將提高自動標注的效率 數據來源:Refuel,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 28/38
100、計算機計算機/行業深度行業深度 能的進一步發展提供了更堅實的數據基礎,推動著整個行業邁向智能化、自動化的全新階段。AI 方案能方案能明顯明顯提高數據的標注效率提高數據的標注效率。用自動化的方式標注數據,相比于人工標注,效率最高可以提高 100 倍,就算按照使用成本最高的 GPT-4 來算,采用 Autolabel 標注的成本只有使用人工標注的 1/7,而如果使用其他更便宜的模型,成本還能進一步降低 圖圖 25:自動標注對于自動標注對于效率的提升效率的提升 圖圖 26:自動標注對于成本的節約自動標注對于成本的節約 數據來源:Refuel,東北證券 數據來源:Refuel,東北證券 同時在自動駕駛
101、行業中,同時在自動駕駛行業中,AI 還還能完成人類也無法完成復雜的標注,比如能完成人類也無法完成復雜的標注,比如在在輔助場景輔助場景中的中的 3D 以及以及 4D 標注。標注。自動駕駛場景的數據標注也對 AI 的要求逐漸提高,也從傳統的車道線、路面標識等 2D 標注擴展至為點云語義分割、點云 BEV 等 3D 標注場景以及行車場景、泊車場景等 4D 標注場景。例如車輛信息標注場景,傳統標注方式為拉框標注,近年來點云標注成為主流,對標注員的專業性要求提高。拉框標注主要處理二維圖像數據,通過矩形框標注出圖像中的指定目標對象,通常使用簡單的圖像編輯軟件,主要要求標注員具備圖像識別和目標定位的能力;而
102、點云標注處圖圖 24:目前目前 AI 基本可以給所有類型的數據打標基本可以給所有類型的數據打標 數據來源:X-AnyLabeling,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 29/38 計算機計算機/行業深度行業深度 理的是三維數據,通過激光雷達等傳感器采集到的密集點云進行分類和標注,需要使用專業的點云處理軟件,能夠處理大量的三維數據,同時需要標注員具備三維空間感知和數據處理的能力,這點人就遠遠不如 AI。圖圖 27:傳統業務類型:邊界標注:傳統業務類型:邊界標注 圖圖 28:專業化業務類型:專業化業務類型:3D 標注標注 數據來源:博遠數棧,東北證券 數據來源:博
103、遠數棧,東北證券 AI HR 也是也是目前目前比較多的應用場景,比較多的應用場景,可以幫助企業在招聘人工的過程中降本增效??梢詭椭髽I在招聘人工的過程中降本增效。在智能篩選簡歷方面,AI 和人相比有極大優勢,其效率可以提升 20 倍,造假淘汰率+40%,釋放 HR 70%時間聚焦核心人才,也讓某快消企業簡歷庫誤判率從 35%9%。同時 AI 面試也給 HR 帶來了較大的提質增效,其與傳統面試仍然存在顯著差異,主要體現在以下幾點:高度標準化與流程化高度標準化與流程化:AI 面試嚴格遵循預設程序,問題方向通常圍繞個人經歷展開,具有規律性,基本不會出現過于刁鉆的問題。同時,應聘者需在規定時間內完成回
104、答。強調邏輯性與完整性強調邏輯性與完整性:AI 面試系統依據既定評分標準評估回答,因此回答時必須條理清晰、邏輯嚴密。采用“首先、其次、最后”等結構化表達方式,能讓回答更具條理性。專業知識要求相對基礎專業知識要求相對基礎:以金融行業為例,AI 面試中的專業知識提問多為基礎且通用內容,應聘者可通過短期學習快速掌握。重視語音表達與面容表情重視語音表達與面容表情:AI 面試系統借助語音識別技術分析回答的流暢性和準確性,還會捕捉面試者的儀容儀表,如眼神、面部表情及身體動作等細節。圖圖 29:人才管理平臺推出的人才管理平臺推出的 ai Family 功能功能 數據來源:Beisen,東北證券 請務必閱讀正
105、文后的聲明及說明請務必閱讀正文后的聲明及說明 30/38 計算機計算機/行業深度行業深度 3.3.知識增強知識增強+可信生成:基于穩定數據庫抑制幻覺可信生成:基于穩定數據庫抑制幻覺 通過通過檢索式增強生成檢索式增強生成(RAG),在大模型提示中提供上下文的編程版本,答案建立在在大模型提示中提供上下文的編程版本,答案建立在事實基礎上事實基礎上也可以降低幻覺也可以降低幻覺。借助 RAG,系統首先會到一個可靠的數據庫中尋找用戶問題的答案。例如,大模型會瀏覽現有的幫助文檔。然后,它會將數據庫中的最佳匹配項與用戶問題的文本結合起來,并讓 LLM 來設計面向用戶的會話響應。這種方法大大地減少了幻覺,因為它
106、不依靠各種混合的訓練數據來生成真實答案。也就是說在大模型中集成 RAG 將會改善準確性、可解釋性、加速知識更新,和增強基于用戶的安全性,也減少生成式人工智能的幻覺。通過對數據進行更精準的處理與優化,能夠顯著降低大模型在特定領域中的幻覺率,通過對數據進行更精準的處理與優化,能夠顯著降低大模型在特定領域中的幻覺率,尤其在數據庫相對穩定且更新緩慢的場景(如教育、醫療、法律等)中效果顯著。尤其在數據庫相對穩定且更新緩慢的場景(如教育、醫療、法律等)中效果顯著。這些領域的數據通常具有專業性強、知識邊界明確、內容更新周期長等特點,為模型的領域特化訓練和人類反饋馴化提供了天然優勢。這些方法的核心在于利用領域
107、這些方法的核心在于利用領域數據的穩定性,將開放域生成問題轉化為有限邊界內的優化任務。未來隨著專業數數據的穩定性,將開放域生成問題轉化為有限邊界內的優化任務。未來隨著專業數據治理體系的完善(如醫療數據的動態脫敏更新機制),模型幻覺率有望在垂直場據治理體系的完善(如醫療數據的動態脫敏更新機制),模型幻覺率有望在垂直場景中進一步降低至可忽略水平。景中進一步降低至可忽略水平。3.3.1.AI 醫療醫療:關注關注 AI 醫療帶來的醫療帶來的增量增量需求需求 正如前文所說的,正如前文所說的,AI 信息技術的快速發展為智慧醫療提供了基礎。信息技術的快速發展為智慧醫療提供了基礎。大數據技術使得醫療機構能夠存儲
108、和分析海量的患者數據,從而提供更精準的診斷和治療建議。云計算平臺則為醫療數據的存儲、處理和共享提供了強大的支持,使得醫療服務更加靈活和高效。人工智能技術,尤其是機器學習和深度學習,正在被用于開發智能診斷工具、預測疾病發展趨勢以及個性化治療方案。這些技術的應用不僅限于提高醫療服務的效率和質量,還包括優化資源配置、降低醫療成本、提升患者體驗等多個維度。AI 醫療的發展不僅推動了醫療技術的革新,也為患者帶來了更加精準和個性化的醫療服務。隨著技術的不斷進步,AI 醫療有望在未來解決更多的醫療難題,為全球健康事業做出更大的貢獻。我們認為智慧醫療的發展動力主要源于信息技術的進步、社會醫療需求的增長以及政策
109、的推動。表表 4:AI 醫療按照應用場景分類醫療按照應用場景分類 分類類型分類類型 模式模式 布局企業布局企業 AIAI 醫學影像醫學影像 AI 醫學影像技術通過分析醫學影像資料,如 X 光片、CT 掃描和 MRI 圖像,幫助醫生更準確地診斷疾病,甚至能夠識別出人類肉眼難以察覺的病變。自然語言處理技術則能夠理解和分析患者的病歷資料,提供個性化的診療建議。鷹瞳科技、推想醫療、聯影醫療等 AIAI 健康管理健康管理 AI 健康管理則是指利用 AI 技術對個人健康數據進行分析,預測疾病風險,提供健康建議。通過可穿戴設備和移動應用,AI 系統能夠實時監測用戶的生理指標,如心率、血壓和血糖水平,為用戶提
110、供定制化的健康計劃和預警系統。九安醫療、樂心醫療、華米科技等。AIAI 藥物研發藥物研發 AI 技術能夠通過分析大量的生物醫學數據,加速新藥的研發過程。機器學習算法可以預測藥物分子的活性,優化藥物設計,而深度學習模型則能夠從復雜的生物標志物中識別出潛在的藥物靶點。這些技術的應用大大縮短了藥物從實驗室到市場的時間,提高了研發的成功率。睿智醫藥、泓博醫藥、藥石科技、藥明康德等*AIAI 醫療機器醫療機器人人 AI 醫療機器人則是醫療領域的又一大創新。這些機器人可以在手術中輔助醫生,提高手術的精準度和安全性。它們還可以在醫院中承擔物流、清潔等任務,減少醫護人員的工作負擔,讓他們有更多時間專注于患者護
111、理。微創機器人、精鋒醫療等“數據來源:前瞻產業研究院,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 31/38 計算機計算機/行業深度行業深度 建議關注新的生成式建議關注新的生成式 AI 帶動的新市場空間。帶動的新市場空間。在機器學習領域,大模型作為一種新興工具,專門用于處理和生成自然語言文本。這些模型通過集成高級文本情感分析等元信息,能夠極大地豐富神經科學數據集,并實現信息的高度融合。特別是在數據量龐大且多元的醫療領域,大模型展現出巨大的應用潛力。從判別式 AI 向生成式 AI 的轉變,基于深度學習的影像 AI 本質上屬于判別式 AI,其分類效果依賴于訓練數據的數量和質
112、量。隨著注意力機制的突破和知識體系的引入,大模型以其復雜的結構和龐大的參數量,展現出更強的學習能力和生成能力。在醫療領域,判別式AI 主要用于分類、檢測和識別任務,核心在于判斷輸入數據屬于哪個預定義類別,例如疾病類型或病變程度。而生成式 AI 則專注于生成與訓練數據相似分布的新數據實例。理論上,成熟的生成式 AI 能夠超越判別式 AI 的應用范圍,處理一些判別式 AI 難以應對的場景。例如,一個融合了醫學知識、病例數據和推理邏輯的生成式AI 在影像識別上的實際效果,可能優于僅基于深度學習的影像 AI。表表 5:醫療領域判別式醫療領域判別式 AI 與生成式與生成式 AI 對維度對比對維度對比 對
113、比維度對比維度 判別式判別式 AI 生成式生成式 AI 定義與目標定義與目標 區分不同類別或結果的能力 生成新的數據實例,模擬數據生成過程 方法方法 學習數據的特征和模式,識別輸入數據與特定類別之間的關系 學習訓練數據的分布,生成新的數據點 常見模型常見模型 SVM、決策樹、邏輯回歸、CNN 等 GANS、VAES、RNN 等 醫療領域應用醫療領域應用 醫療診斷、欺詐檢測、異常行為檢測 圖像生成、文本生成、數據增強、藥物研發 數據來源:蛋殼研究院,東北證券 盡管生成式盡管生成式 AI 在信息化和制藥在信息化和制藥 AI 等領域展現出廣闊的應用前景,但其發展仍受限等領域展現出廣闊的應用前景,但其
114、發展仍受限于基礎設施和數據注入機制等關鍵因素于基礎設施和數據注入機制等關鍵因素。目前,由于國家藥品監督管理局尚未制定針對生成式 AI 的注冊和準入管理政策,許多在醫學影像領域具有潛力的大模型還未能走出實驗室,它們主要輔助醫生進行科學研究,尚未實現大規模的商業化應用。不過我們不過我們依然依然認為,隨著認為,隨著高質量醫療高質量醫療 AI 數據數據進一步的開發以及模型幻覺率的降低,進一步的開發以及模型幻覺率的降低,生成式生成式 AI 在在 C 端的應用空間不可小視端的應用空間不可小視。AI 預先問診是目前應用潛力較大并且有希望在一定程度上解決醫療供給不平衡的方案。騰訊健康依托于其在智能導診領域的經
115、驗,開發了一款 AI 預問診系統。該系統允許患者在預約掛號后與系統進行深入的預問診交流,提前收集患者的主訴、既往病史和用藥禁忌等關鍵信息。這樣,在正式就診時,醫生已經對患者的病情有了初步了解,能夠提出更有針對性的問題,從而提高診斷的精確度。清華大學智能產業研究院團隊打造的首家“AI 醫院”Agent Hospital 正在進行內測,將于年底正式上線,并于明年上半年對公眾開放。AI 虛擬醫院對真實醫院的設施和流程進行模擬,目前構建的 42 位 AI 醫生分布在兒科、耳鼻喉科等 21 個科室,每個科室方向,紫荊智康將挑選了十余種常見疾病,構造多樣的患者合成數據用于 AI醫生的進化,目前累計覆蓋了
116、300 余種疾病。系統對這些疾病進行了專門的優化,對于在支持疾病列表之外的疾病,系統也能夠提供相當高質量的診斷分析。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 32/38 計算機計算機/行業深度行業深度 圖圖 30:紫荊紫荊 AI 醫生醫生科室概況科室概況 數據來源:數據來源:清華大學智能產業研究院清華大學智能產業研究院,東北證券,東北證券 在在 AI 的輔助下,整個系統有望持續提高問診效率和患者體驗的輔助下,整個系統有望持續提高問診效率和患者體驗。在 AI 的幫助下,醫生可以在幾秒鐘內瀏覽整理好的病歷,快速掌握患者的基本情況。這不僅節省了問診和病歷書寫的時間,還使得醫患溝通更加
117、精準高效,醫生的診療決策也更為準確。智慧醫療根據患者的具體情況,制定和調整個性化治療方案。通過實時監測患者的生理數據和藥物反應,醫生能夠及時調整治療策略,優化治療效果。這種智能化的治療管理有助于提高治療的針對性和成功率。3.3.2.教育教育:AI 特征與教育痛點高度契合特征與教育痛點高度契合 教育領域“高頻次運用”、“個性化需求”的特征與教育領域“高頻次運用”、“個性化需求”的特征與 AIGC 高度契合。高度契合。傳統教學模式下,基于有限資源的標準化教學內容產品,以及教育消費者的個性化需求存在內在矛盾,尤其是具有“聽說讀寫”全方位學習需求的語言教育。AIGC 以其低成本個性化定制的強大功能有望
118、化解這一矛盾,與教育需求之間高度契合。圖圖 31:現代教育的特征與現代教育的特征與 AIGC 技術吻合技術吻合 數據來源:艾瑞咨詢、東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 33/38 計算機計算機/行業深度行業深度 教育教育 know-how 決定決定商業化變現速度商業化變現速度,這也受益于高質量的數據護城河這也受益于高質量的數據護城河。AIGC 技術在教育行業落地的競爭要素主要體現在三方面,模型和算力資源、教育行業理解和經驗、以及垂類教育數據。模型和算力資源層面,我們認為,隨著算力成本下降、模型開源,基礎設施門檻將進一步降低,不是決定應用是否成為“爆品”的主要因素
119、。同時,教育行業理解決定企業是否具有落地能力、商業化變現速度,如產品邏輯的設計、用戶痛點的感知、語料庫和工具的建設等,需要企業對教育業務和互聯網產品都有深入理解。最后,教育數據也是核心因素,數據決定用戶的使用體驗和學習效果,這需要企業在教育行業深耕多年才能形成自己的數據護城河。圖圖 32:AIGC+教育技術落地競爭力及廠商占位教育技術落地競爭力及廠商占位 數據來源:艾瑞咨詢,東北證券 在在科研分析科研分析方向方向,AI 可實現文獻整理、語法校對、數據預測等工作??蓪崿F文獻整理、語法校對、數據預測等工作。在學術科研、閱讀分析等場景,AIGC 并不是替代研究員做判斷、下結論,而是作為一種輔助工具,
120、可以在文獻及引文整理、數據分析、圖表生成、語法及錯別字校對等方面解放部分人力。同時,大模型有望與科研工具包結合,加速科研計算,進行數據預測等。圖圖 33:AIGC 應用應用在文獻整理、校對潤色等助力在文獻整理、校對潤色等助力學術科研學術科研 數據來源:艾瑞咨詢,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 34/38 計算機計算機/行業深度行業深度 在作業生成方面,教師提供試題范圍及標準,在作業生成方面,教師提供試題范圍及標準,AI 可批量生成標準化題目??膳可蓸藴驶}目。實時進行作業批改,加快學習轉化。在作業批改方面,AI 可實現語法、錯字、標點等一鍵識別與修改,并
121、在學生完成后實時批改并提供反饋,加快學生學習轉化,提升效率。圖圖 34:AIGC 應用應用可可批量生成標準化試題,作業及時反饋加快知識理解與轉化批量生成標準化試題,作業及時反饋加快知識理解與轉化 數據來源:艾瑞咨詢,東北證券 通過學生數據、答題反饋,進行通過學生數據、答題反饋,進行學習資源、學習任務學習資源、學習任務的個性化安排。的個性化安排。在自主學習場景下,學生通常存在學習任務不具針對性、難點困惑缺乏引導啟發、實時反饋不足的三大問題,AIGC 的應用對這三點難題都有助益。大模型積累了大量的學生數據,并可以通過學生實時的答題反饋,進行學習資源、學習任務的安排,做到個性化教學。進行知識點啟發引
122、導,以及題目詳解、解析等。根據情景的不同,AIGC 產品可設置是否提供答案,如在學生練習遇到困難時提供啟發引導,或在錯題后為學生提供題目詳解、知識點解析等,保證學生學習的時效,強化學習效果。圖圖 35:AIGC 可進行可進行個性化資源推薦與任務規劃、啟發式引導思考、實時答疑解惑個性化資源推薦與任務規劃、啟發式引導思考、實時答疑解惑 數據來源:艾瑞咨詢,東北證券 3.4.擁抱錯誤擁抱錯誤,可能錯誤也沒這么可怕可能錯誤也沒這么可怕 AI 幻覺與創造力本質上是一種共生的雙重屬性關系?;糜X與創造力本質上是一種共生的雙重屬性關系。AI 幻覺是大模型技術原理中不可避免的產物,它源于概率建模對數據分布規律的
123、模仿性重構。這種重構雖然在邏輯上看似合理,但往往偏離事實,生成虛構內容。這種特性在某些領域(如法律、醫療)可能導致嚴重誤導,然而,它也恰恰成為突破人類認知邊界的創造性源泉。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 35/38 計算機計算機/行業深度行業深度 正如柏拉圖洞穴寓言中囚徒對光影的誤讀最終導向真理探索,正如柏拉圖洞穴寓言中囚徒對光影的誤讀最終導向真理探索,AI 幻覺既是技術局幻覺既是技術局限性的表征,也是智能體突破數據繭房的進化嘗試。它的雙重屬性構成了生成式限性的表征,也是智能體突破數據繭房的進化嘗試。它的雙重屬性構成了生成式 AI從工具向協作者躍遷的哲學基礎。從工具向
124、協作者躍遷的哲學基礎。這種矛盾性主要體現在兩個方面:一方面,大模型基于統計預測的“合理推測”機制在面對信息缺失時,容易產生事實性錯誤,比如虛構法律判例或捏造醫學數據;另一方面,正是這種脫離既定語料框架的“錯誤”,構成了創造力的核心驅動力。從大衛貝克團隊利用 AI 的“錯誤折疊”啟發新型蛋白質結構獲得諾貝爾化學獎,到文學創作中算法生成的“故障美學”催生全新藝術范式,再到自動駕駛系統通過非現實邊界識別提升極端環境適應性,AI 幻覺的隨機性打破了傳統思維的確定性枷鎖,使機器能夠突破訓練數據的局限,在“合理與荒謬”的臨界點激發人類難以企及的創新可能。這種矛盾,或許正是這種矛盾,或許正是 AI 邁向類人
125、智能的必經邁向類人智能的必經之路。之路。圖圖 36:2024 年年諾貝爾化學獎諾貝爾化學獎授予了授予了 AI 蛋白質蛋白質設計設計 數據來源:Nobel Prize,東北證券 圖圖 37:博主通過博主通過 AI 制作抽象視頻播放量抄百萬制作抽象視頻播放量抄百萬 數據來源:Bilibili,東北證券 請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 36/38 計算機計算機/行業深度行業深度 4.投資建議投資建議 中美中美 AI 差距開始縮小,中國迎來差距開始縮小,中國迎來 AI 發展大時代發展大時代。在當今數字化浪潮席卷全球的時代,人工智能(AI)已然成為衡量一個國家科技實力與未來競爭
126、力的關鍵領域。長久以來,美國憑借其在技術、人才、資金等多方面的先發優勢,在全球 AI 版圖中占據著舉足輕重的地位,而中國雖起步稍晚,卻憑借著龐大且復雜的數據資源、強大的制造業基礎以及對科技創新的高度重視,一路奮起直追。如今,一系列關鍵指標顯示,中美在 AI 領域的差距正悄然縮小,中國正迎來屬于自己的 AI 發展大時代。這一轉變背后,是無數科研人員的日夜鉆研、是政策的有力扶持、是產業生態的逐步完善,更是一個大國在科技賽道上加速奔跑的堅定決心。從模型角度而言從模型角度而言,中國已經有多個模型,中國已經有多個模型在工程能力上各有特點在工程能力上各有特點。(1)DeepSeek:高效性與性價比。期采用
127、 MLA 多頭潛在注意力機制(降低 KV Cache 消耗)、FP8 混合精度訓練(減少內存占用)、MoE 稀疏激活架構(671B 參數模型單 Token 僅激活37B 參數)。同時通過預填充與解碼分離部署架構,H800 節點實現 14.8k tokens/s 輸出吞吐,成本僅為同類模型的 1/10。(2)Qwen2.5:多模態能力領先。Qwen 重新設計 ViT 架構,引入窗口注意力機制和二維 RoPE,支持原生動態分辨率處理。其動態幀率訓練與絕對時間編碼技術,視頻任務性能接近 GPT-4o,小模型 QwQ-32B 以1/10 成本達到 DeepSeek-R1 80%性能。(3)混元 T1:
128、混合 Mamba 架構創新。長文本處理:Hybrid-Mamba-Transformer 融合模塊,長文推理速度提升 2 倍,解決上下文丟失問題。通過 Mamba 模塊處理局部特征,Transformer 捕捉全局依賴,AIME 數學競賽成績達 78.2 分,效率和效果均超越 GPT-4。在應用層面在應用層面,如何如何規避或者利用規避或者利用幻覺是幻覺是目前目前落地的難點之一落地的難點之一。垂類客戶,尤其是那些對專業性和準確性要求極高的行業用戶,如醫療、金融、法律等,對 AI 的輸出結果有著近乎嚴苛的標準。目前來看,除了傳統技術方法以外,還有一些工程化方向可以降低、消除甚至利用 AI 幻覺:比
129、如通過規?;蒎e(誤差成本低于效率紅利)、知識增強+可信生成(穩定數據庫抑制錯誤)等技術路徑緩解。不過,很多時候學會利用 AI 幻覺生成也是一種選擇,AI 幻覺宛如一面棱鏡,既折射出技術的邊界,也映照出超越人類想象的潛力,或許我們不必執著于“絕對正確”,而是學會與 AI 的“想象力”共舞。畢竟,最偉大的創新往往誕生于理性與狂想的交匯處。我們認為我們認為,目前國內,目前國內 AI 在技術追趕與場景創新上在技術追趕與場景創新上正在正在加速突破加速突破中中,通過架構優化,通過架構優化與多模態融合推動產業升級與多模態融合推動產業升級有望有望進一步的挖掘進一步的挖掘新的新的 AI 應用場景應用場景。建議
130、關注建議關注醫療(醫療(AI 預問診)、教育(個性化教學)、自動駕駛(預問診)、教育(個性化教學)、自動駕駛(3D/4D 標注)及創意產業(標注)及創意產業(AI 生成內生成內容)容)中中 AI 帶來的新市場增量帶來的新市場增量。5.風險提示風險提示 1、宏觀經濟恢復不及預期:、宏觀經濟恢復不及預期:計算機主要 2G 或者 2B,企業或者政府 IT 預算受宏觀經濟影響較大,若宏觀經濟恢復不及預期,可能影響 AI 產業投入。2、市場競爭加?。菏袌龈偁幖觿。弘S著技術成熟和政策支持,行業競爭可能加劇,可能影響盈利能力。3、AI 應用應用商業化落地風險:商業化落地風險:AI 應用的商業化進展受基礎大模
131、型能力、消費者付費意愿、企業端和政府端 IT 支出、產業促進政策等多重影響,存在不確定及不及預期的風險。4、技術迭代風險:、技術迭代風險:智能駕駛行業的商業化受技術迭代、技術進步影響較大,若技術進步不及預期,可能影響收入展望。請務必閱讀正文后的聲明及說明請務必閱讀正文后的聲明及說明 37/38 計算機計算機/行業深度行業深度 研究團隊簡介:研究團隊簡介:Table_Introduction 吳源恒:武漢大學遙感工程學士,伯明翰大學國際商務碩士,曾在湖北省測繪局從事測繪地理信息數據處理、遙感地理信息解譯等工作,對衛星遙感應用產業有較深的認識。2020 年加入萬聯證券 TMT 團隊,2022 年加
132、入東北證券數字經濟團隊。目前主要研究 5G、衛星互聯網、遙感、物聯網、光通信等數字經濟相關領域。分析師聲明分析師聲明 作者具有中國證券業協會授予的證券投資咨詢執業資格,并在中國證券業協會注冊登記為證券分析師。本報告遵循合規、客觀、專業、審慎的制作原則,所采用數據、資料的來源合法合規,文字闡述反映了作者的真實觀點,報告結論未受任何第三方的授意或影響,特此聲明。投資投資評級說明評級說明 股票 投資 評級 說明 買入 未來 6 個月內,股價漲幅超越市場基準 15%以上。投資評級中所涉及的市場基準:A 股市場以滬深 300 指數為市場基準,新三板市場以三板成指(針對協議轉讓標的)或三板做市指數(針對做
133、市轉讓標的)為市場基準;香港市場以摩根士丹利中國指數為市場基準;美國市場以納斯達克綜合指數或標普 500指數為市場基準。增持 未來 6 個月內,股價漲幅超越市場基準 5%至 15%之間。中性 未來 6 個月內,股價漲幅介于市場基準-5%至 5%之間。減持 未來 6 個月內,股價漲幅落后市場基準 5%至 15%之間。賣出 未來 6 個月內,股價漲幅落后市場基準 15%以上。行業 投資 評級 說明 優于大勢 未來 6 個月內,行業指數的收益超越市場基準。同步大勢 未來 6 個月內,行業指數的收益與市場基準持平。落后大勢 未來 6 個月內,行業指數的收益落后于市場基準。請務必閱讀正文后的聲明及說明請
134、務必閱讀正文后的聲明及說明 38/38 計算機計算機/行業深度行業深度 重要聲明重要聲明 本報告由東北證券股份有限公司(以下稱“本公司”)制作并僅向本公司客戶發布,本公司不會因任何機構或個人接收到本報告而視其為本公司的當然客戶。本公司具有中國證監會核準的證券投資咨詢業務資格。本報告中的信息均來源于公開資料,本公司對這些信息的準確性和完整性不作任何保證。報告中的內容和意見僅反映本公司于發布本報告當日的判斷,不保證所包含的內容和意見不發生變化。本報告僅供參考,并不構成對所述證券買賣的出價或征價。在任何情況下,本報告中的信息或所表述的意見均不構成對任何人的證券買賣建議。本公司及其雇員不承諾投資者一定
135、獲利,不與投資者分享投資收益,在任何情況下,我公司及其雇員對任何人使用本報告及其內容所引發的任何直接或間接損失概不負責。本公司或其關聯機構可能會持有本報告中涉及到的公司所發行的證券頭寸并進行交易,并在法律許可的情況下不進行披露;可能為這些公司提供或爭取提供投資銀行業務、財務顧問等相關服務。本報告版權歸本公司所有。未經本公司書面許可,任何機構和個人不得以任何形式翻版、復制、發表或引用。如征得本公司同意進行引用、刊發的,須在本公司允許的范圍內使用,并注明本報告的發布人和發布日期,提示使用本報告的風險。若本公司客戶(以下稱“該客戶”)向第三方發送本報告,則由該客戶獨自為此發送行為負責。提醒通過此途徑獲得本報告的投資者注意,本公司不對通過此種途徑獲得本報告所引起的任何損失承擔任何責任。東北證券股份有限公司東北證券股份有限公司 地址地址 郵編郵編 中國吉林省長春市生態大街 6666 號 130119 中國北京市西城區錦什坊街 28 號恒奧中心 D 座 100033 中國上海市浦東新區楊高南路 799 號 200127 中國深圳市福田區福中三路 1006 號諾德中心 34D 518038 中國廣東省廣州市天河區冼村街道黃埔大道西 122 號之二星輝中心 15 樓 510630