《電子行業AI+系列專題報告(六):DeepSeek重塑開源大模型生態AI應用爆發持續推升算力需求-250205(42頁).pdf》由會員分享,可在線閱讀,更多相關《電子行業AI+系列專題報告(六):DeepSeek重塑開源大模型生態AI應用爆發持續推升算力需求-250205(42頁).pdf(42頁珍藏版)》請在三個皮匠報告上搜索。
1、請務必閱讀正文之后的免責聲明及其項下所有內容20252025年年0202月月0505日日電子電子AI+AI+系列專題報告(六)系列專題報告(六)DeepSeekDeepSeek重塑開源大模型生態,重塑開源大模型生態,AIAI應用爆發持續推升算力需求應用爆發持續推升算力需求行業研究行業研究 行業專題行業專題 電子電子投資評級:優于大市(維持)投資評級:優于大市(維持)證券分析師:胡劍證券分析師:胡慧證券分析師:葉子證券分析師:張大為證券分析師:詹瀏洋021-60893306021-608713210755-81982153021-61761072010-S0980521080001S098052
2、1080002S0980522100003S0980524100002S0980524060001證券研究報告證券研究報告|請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeekDeepSeek重塑開源大模型生態,重塑開源大模型生態,AIAI應用爆發持續推升算力需求應用爆發持續推升算力需求lDeepSeekDeepSeek發展突飛猛進,領跑開源大模型技術與生態,發展突飛猛進,領跑開源大模型技術與生態,DeepSeekDeepSeek模型已成為全球現象級模型。模型已成為全球現象級模型。DeepSeek(深度求索)公司成立于2023年7月,是一家致力于實現通用人工智能(AGI)的創新型科技公
3、司。2024年12月,DeepSeek-V3發布,性能對齊海外領軍閉源模型。據官方技術論文披露,V3模型的總訓練成本為557.6萬美元,對比GPT-4o等模型的訓練成本約為1億美元。2025年1月,DeepSeek-R1發布,性能對標OpenAI-o1正式版。在數學、代碼、自然語言推理等任務上,性能比肩OpenAI-o1正式版。2月1日消息,據彭博社報道,DeepSeek的人工智能助手在140個市場下載次數最多的移動應用程序排行榜上名列前茅。國外大型科技公司如微軟、英偉達、亞馬遜等已先后上線部署支持用戶訪問DeepSeek-R1模型。2月1日,華為云官方發布消息,硅基流動和華為云團隊聯合首發并
4、上線基于華為云昇騰云服務的DeepSeekR1/V3推理服務。lDeepSeekDeepSeek通過通過MLAMLA和和DeepSeekMoEDeepSeekMoE實現高效的推理和低成本訓練,構建實現高效的推理和低成本訓練,構建DualPipeDualPipe算法和混合精度訓練優化計算與通信負載;通過算法和混合精度訓練優化計算與通信負載;通過(分階段分階段)強化學習實現性能突破。強化學習實現性能突破。多頭潛在注意力(MLA)通過低秩聯合壓縮技術,大幅削減了注意力鍵(keys)和值(values)的存儲空間,顯著降低了內存需求。DeepSeekMoE架構采用了更為精細粒度的專家設置,能夠更加靈活
5、且高效地調配資源,進一步提升了整體的運行效率和表現。DeepSeek模型對跨節點的全對全通信機制進行優化,充分利用InfiniBand和NVLink提供的高帶寬。創新性提出了DualPipe算法,通過優化計算與通信的重疊,有效減少了流水線中的空閑時間。采用FP8混合精度訓練技術,不僅極大地加快了訓練速度,還大幅降低了GPU內存的消耗。DeepSeek-R1-Zero通過強化學習架構創新實現突破性性能,核心技術創新體現在訓練效能優化策略、雙維度評價體系、結構化訓練范式三個維度。DeepSeek-R1采用分階段強化學習架構演進,包括冷啟動階段、面向推理的強化學習、拒絕采樣與監督式微調、全場景強化學
6、習等。lAIAI應用爆發在即,算力需求持續攀升,關注應用爆發在即,算力需求持續攀升,關注ASICASIC及服務器產業鏈。及服務器產業鏈。Scaling Law與“涌現”能力是大模型訓練遵循的重要法則,隨著ChatGPT引領全球AI浪潮,國內外科技公司紛紛發布AI大模型,截至24年7月,全球AI大模型數量約1328個(其中美國位居第一位,占比44%;中國位居第二位,占比36%),模型的迭代加速、競爭加劇。同時,AI模型向多模態全方位轉變,AI應用百花齊放,企業主動擁抱AI應用市場。因此,模型數量、模型參數、數據總量的持續增長及AI應用需求推動全球算力爆發式增長。在英偉達GPU隨著架構的不斷演進及
7、算力的成倍增長,于AI大模型訓練中得到廣泛運用的同時,為了滿足CSP客戶更高性能和更好功能的需求,定制化芯片ASIC的需求持續提升,牧本鐘擺從標準化逐漸擺向定制化。與之相應的算力基礎設施持續建設和升級,促使國內外云服務商資本開支持續高速增長,帶來AI服務器市場規模大幅提升,預計到26年全球AI服務器出貨量將達到237萬臺,對應2023-2026年CAGR為26%。l重點推薦組合:重點推薦組合:中芯國際、翱捷科技、德明利、工業富聯、滬電股份、聯想集團、國芯科技、瀾起科技、芯原股份、龍芯中科、東山精密、景旺電子。l風險提示:風險提示:宏觀AI應用推廣不及預期、AI投資規模低于預期、AI服務器滲透率
8、提升低于預期、AI監管政策收緊。請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeek發展突飛猛進,領跑開源大模型技術與生態0101AI應用爆發在即,算力需求持續攀升,關注ASIC及服務器產業鏈0202風險提示0303目錄目錄請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeekDeepSeek發展突飛猛進,領跑開源大模型技術與生態發展突飛猛進,領跑開源大模型技術與生態請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeekDeepSeek成立不到兩年顛覆開源大模型格局,性能對標海外成立不到兩年顛覆開源大模型格局,性能對標海外l DeepSeekDeepSeek(深度求索深度求
9、索)公司成立于2023年5月,是一家致力于實現AGI(Artificial General Intelligence,通用人工智能)的創新型科技公司,專注于開發先進的大語言模型和相關技術。DeepSeek由知名量化資管巨頭幻方量化創立,幻方量化創始人梁文峰在量化投資和高性能計算領域具有深厚的背景和豐富的經驗。l 20242024年年5 5月,月,DeepSeek-V2DeepSeek-V2發布,成為全球最強開源通用發布,成為全球最強開源通用MoEMoE模型。模型。DeepSeek獨創Attention結構MLA(一種新的多頭潛在注意力機制)、稀疏結構DeepSeek-MoE在大模型競技場(LM
10、SYS)位列全球開源模型第一名,依靠創新結構,將推理成本降低近百倍。l 20242024年年1212月,月,DeepSeek-V3DeepSeek-V3發布,性能對齊海外領軍閉源模型發布,性能對齊海外領軍閉源模型。該模型在多項評測集上超越了阿里Qwen2.5-72B、Meta的Llama-3.1-405B等其他開源模型,并逼近GPT-4o、Claude-3.5-Sonnet等頂尖閉源模型。據官方技術論文披露,V3模型的總訓練成本為557.6萬美元,對比GPT-4o等模型的訓練成本約為1億美元。l 20252025年年1 1月,月,DeepSeek-R1DeepSeek-R1發布,性能對標發布,
11、性能對標OpenAI-o1OpenAI-o1正式版正式版。DeepSeek-R1在后訓練階段大規模使用了強化學習技術,在僅有極少標注數據的情況下,極大提升了模型推理能力。在數學、代碼、自然語言推理等任務上,性能比肩OpenAI-o1正式版。同時DeepSeek開源R1推理模型,允許所有人在遵循MIT License的情況下,蒸餾R1訓練其他模型。圖:圖:DeepSeekDeepSeek模型迭代與發展歷史沿革模型迭代與發展歷史沿革資料來源:DeepSeek官網,國信證券經濟研究所整理2023/052023/052023/112023/112024/022024/022024/032024/032
12、024/052024/052024/062024/06DeepSeek(深度求索)成立。DeepSeek Math發布,7B模型逼近GPT-4的數學能力。DeepSeek V2發布,成為全球最強開源通用MoE模型。DeepSeek Coder V2發布,成為全球最強代碼開源模型。DeepSeek VL發布,作為自然語言到多模態初探。DeepSeek Coder發布,目前仍是開源代碼模型標桿。2024/092024/092024/112024/11DeepSeek-V2.5發布,融合通用與代碼能力的全新開源模型。DeepSeek-R1-Lite預覽版正式上線,展現了o1沒有公開的完整思考過程。2
13、024/12/102024/12/10DeepSeek-V2.5-1210發布,V2系列收官;聯網搜索上線官網。2024/12/262024/12/262025/01/202025/01/20DeepSeek-R1發布,性能對標OpenAI-o1正式版。DeepSeek-V3發布,性能對齊海外領軍閉源模型。請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeekDeepSeek模型已成為全球現象級大模型模型已成為全球現象級大模型l DeepSeekDeepSeek下載量占據下載量占據140140多個國家榜首。多個國家榜首。2月1日消息,據彭博社報道,DeepSeek的人工智能助手在140個
14、市場下載次數最多的移動應用程序排行榜上名列前茅,其中印度占據了新用戶的最大比例。據Appfigures數據(不包括中國的第三方應用商店),這款推理人工智能聊天機器人于1月26日升至蘋果公司應用商店的榜首,此后一直占據全球第一的位置。l 國外大型科技公司已上線部署支持用戶訪問國外大型科技公司已上線部署支持用戶訪問DeepSeek-R1DeepSeek-R1模型。模型。1月30日,微軟宣布DeepSeek-R1模型已在Azure AI Foundry和GitHub上提供。1月31日,英偉達宣布DeepSeek-R1模型已作為NVIDIA NIM微服務預覽版在英偉達面向開發者的網站上發布;同日亞馬遜
15、宣布,客戶現已可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型。l 硅基流動和華為云硅基流動和華為云宣布上線宣布上線DeepSeekR1/V3DeepSeekR1/V3推理服務。推理服務。2月1日,華為云官方發布消息,硅基流動和華為云團隊聯合首發并上線基于華為云昇騰云服務的DeepSeekR1/V3推理服務。該服務具備以下特點:1)得益于自研推理加速引擎加持,硅基流動和華為云昇騰云服務支持部署的DeepSeek模型可獲得持平全球高端GPU部署模型的效果。2)提供穩定的、生產級服務能力,讓模型能夠在規模生產環境中穩定運行,并滿足業務商部署
16、需求。華為云昇騰云服務可以提供澎湃、彈性、充足的算力。資料來源:各公司官網,國信證券經濟研究所整理圖:微軟宣布支持訪問圖:微軟宣布支持訪問DeepSeek-R1DeepSeek-R1模型模型圖:英偉達圖:英偉達宣布支持訪問宣布支持訪問DeepSeek-R1DeepSeek-R1模型模型圖:亞馬遜圖:亞馬遜宣布支持訪問宣布支持訪問DeepSeek-R1DeepSeek-R1模型模型請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeek-DeepSeek-V3V3發布,性能對齊海外領軍閉源模型發布,性能對齊海外領軍閉源模型l 20242024年年1212月月2626日,全新系列模型日,全新系
17、列模型DeepSeek-V3DeepSeek-V3首個版本上線并同步開源。首個版本上線并同步開源。DeepSeek-V3為自研MoE模型,共有671B參數,每個token激活37B,在14.8T token上進行預訓練。DeepSeek-V3多項評測成績超越了Qwen2.5-72B和Llama-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o及Claude-3.5-Sonnet不分伯仲。l DeepSeek-V3DeepSeek-V3模型模型生成速度提升至生成速度提升至3 3倍。倍。通過算法和工程上的創新,DeepSeek-V3的生成吐字速度從20TPS大幅提高至60
18、TPS,相比V2.5模型實現了3倍的提升,能夠為用戶帶來更加迅速流暢的使用體驗。l DeepSeek-V3DeepSeek-V3模型具有更優的模型性能模型具有更優的模型性能/價格比例。價格比例。隨著性能更強、速度更快的DeepSeek-V3更新上線,模型API服務定價調整為每百萬輸入tokens 0.5元(緩存命中)/2元(緩存未命中),每百萬輸出tokens8元。相比于其他模型性能和定價,該模型具有更優的模型性能/價格比例。資料來源:DeepSeek官網,國信證券經濟研究所整理資料來源:DeepSeek官網,國信證券經濟研究所整理圖:圖:DeepSeek-V3DeepSeek-V3等模型執行
19、不同推理任務性能對比等模型執行不同推理任務性能對比圖:圖:DeepSeek-V3DeepSeek-V3等模型多項評測成績對比等模型多項評測成績對比圖:圖:DeepSeek-V3DeepSeek-V3具有更優的模型性能具有更優的模型性能/價格比例價格比例資料來源:DeepSeek官網,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeek-R1DeepSeek-R1發布,性能對標發布,性能對標OpenAIOpenAI-o1o1正式版正式版l 20252025年年1 1月月2020日,日,DeepSeek-R1DeepSeek-R1正式發布,并同步開源模型權重,性能對齊
20、正式發布,并同步開源模型權重,性能對齊OpenAI-o1OpenAI-o1正式版。正式版。DeepSeek-R1在后訓練階段大規模使用了強化學習技術,在僅有極少標注數據的情況下,極大提升了模型推理能力。在數學、代碼、自然語言推理等任務上,性能比肩OpenAI-o1正式版。l DeepSeek-R1遵循MIT License,允許用戶通過蒸餾技術借助R1訓練其他模型;同時上線API,對用戶開放思維鏈輸出;DeepSeek官網與App同步更新上線,用戶打開“深度思考”模式,即可調用最新版DeepSeek-R1完成各類推理任務。l DeepSeekDeepSeek蒸餾小模型超越蒸餾小模型超越Open
21、AIo1-miniOpenAIo1-mini。在開源DeepSeek-R1-Zero和DeepSeek-R1兩個660B模型的同時,通過DeepSeek-R1的輸出,蒸餾了6個小模型開源給社區,其中32B和70B模型在多項能力上實現了對標OpenAIo1-mini的效果。圖:圖:DeepSeek-R1DeepSeek-R1等模型執行不同推理任務性能對比等模型執行不同推理任務性能對比圖:圖:DeepSeekDeepSeek蒸餾小模型蒸餾小模型等等執行不同推理任務性能對比執行不同推理任務性能對比資料來源:DeepSeek官網,國信證券經濟研究所整理資料來源:DeepSeek官網,國信證券經濟研究所
22、整理請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeek-DeepSeek-V3V3通過通過MLAMLA和和DeepSeekMoEDeepSeekMoE實現高效的推理和低成本訓練實現高效的推理和低成本訓練l DeepSeek-V3DeepSeek-V3以以TransformerTransformer框架為基石,創新性地融入多頭潛在注意框架為基石,創新性地融入多頭潛在注意力力(Multi-head Latent Attention(Multi-head Latent Attention,MLA)MLA)和和DeepSeekMoEDeepSeekMoE架構。架構。這一設計在維持模型高性能的
23、同時,極大地提升了訓練與推理的效率。l 多頭潛在注意力多頭潛在注意力(MLA)(MLA):在傳統的注意力機制中,推理期間的鍵值(Key-Value,即KV)緩存往往占用大量資源。而MLA則另辟蹊徑,通過低秩聯合壓縮技術,大幅削減了注意力鍵(keys)和值(values)的存儲空間。在生成過程中,僅需緩存壓縮后的潛在向量,這一舉措顯著降低了內存需求,但在性能上與標準多頭注意力(Multi-head Attention,MHA)相比毫不遜色,有力地保障了模型運行的流暢性。l DeepSeekMoEDeepSeekMoE架構:架構:該架構采用了更為精細粒度的專家設置,還特別將部分專家設定為共享專家。
24、在每一個MoE層中,都由共享專家和路由專家協同構成。其中,共享專家負責處理所有token的輸入信息,為模型提供基礎的處理支撐;而路由專家則依據每個token與專家之間的親和度分數(這一分數通過sigmoid函數計算得出,即token-to-expert affinity)來決定是否被激活。這種獨特的設計,使得模型在處理不同類型的輸入時,能夠更加靈活且高效地調配資源,進一步提升了整體的運行效率和表現。圖:圖:DeepSeek-V3DeepSeek-V3模型技術架構模型技術架構資料來源:DeepSeek-V3技術報告,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容DeepSee
25、k-DeepSeek-V3V3構建構建DualPipeDualPipe算法算法和和混合精度訓練混合精度訓練優化計算與通信負載優化計算與通信負載l 對跨節點的全對全通信機制進行優化,充分利用對跨節點的全對全通信機制進行優化,充分利用InfiniBandInfiniBand和和NVLinkNVLink提供的高帶寬。提供的高帶寬。DeepSeek-V3模型在擁有2048個NVIDIA H800 GPU的大規模集群上進行訓練,每個節點配置了8個GPU,并通過NVLink與NVSwitch實現內部高速互聯;不同節點間的高效通信則依賴于InfiniBand(IB)網絡。l 創新性提出了創新性提出了Dual
26、PipeDualPipe算法,通過優化計算與通信的重疊,有效減少了流水線中的空閑時間。算法,通過優化計算與通信的重疊,有效減少了流水線中的空閑時間。對于DeepSeek-V3而言,由于跨節點專家并行引入的通信開銷導致計算與通信的比例接近1:1,因此提出DualPipe(雙向管道并行)算法,采用一種新的雙向流水線方法,在獨立的前向和后向處理塊中實現了計算與通信的重疊,從而加速模型的訓練過程并降低了氣泡效應。為了確保DualPipe的性能最優,定制設計了高效的跨節點全對全通信核心,包括優化的調度和組合策略,減少用于通信的流式多處理器(SMs)資源占用,并通過調優PTX指令集和自動調整通信數據塊大小
27、,顯著減少了L2緩存的使用及對其他SMs的干擾。l 采用采用FP8FP8混合精度訓練技術,不僅極大地加快了訓練速度,還大幅降低了混合精度訓練技術,不僅極大地加快了訓練速度,還大幅降低了GPUGPU內存的消耗。內存的消耗?;诘途扔柧氼I域的成熟經驗,開發人員構建了一個適用于FP8訓練的混合精度框架,其中大部分計算密集型任務以FP8精度執行,而關鍵操作則保持原有精度,以確保數值穩定性和訓練效率之間的平衡。結合FP8訓練框架,能夠將緩存激活值和優化器狀態壓縮至低精度格式,進一步減少了內存占用和通信負載。圖:采用圖:采用FP8FP8數據格式的整體混合精度框架數據格式的整體混合精度框架資料來源:Dee
28、pSeek-V3技術報告,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容DeepSeek-DeepSeek-R1(-Zero)R1(-Zero)通過通過(分階段分階段)強化學習強化學習實現性能突破實現性能突破lDeepSeek-R1-ZeroDeepSeek-R1-Zero:通過強化學習架構創新實現突破性性能:通過強化學習架構創新實現突破性性能。該模型突破性地采用純強化學習(RL)方法,未經過傳統監督式微調(SFT)即達成卓越性能表現,在特定任務基準測試中實現對OpenAI-o1的超越。其核心技術創新體現在三個維度:1 1)訓練效能優化策略訓練效能優化策略。創新性采用GRP
29、O(群體相對策略優化)算法,該技術繼承自DeepSeek-V2的RLHF(人類反饋強化學習)研發成果。與傳統方法相比,GRPO通過群體反饋數據分析替代獨立評估模型,有效降低計算資源消耗。這種優化策略無需依賴與策略模型規模匹配的獨立評估模型,通過動態基線估計顯著提升訓練效率。2 2)雙維度評價體系雙維度評價體系。建立“準確性驗證+格式規范”的復合獎勵機制:前者通過數學符號解析與代碼編譯測試進行精確度驗證,后者要求模型將推理過程嚴格置于結構化標簽內。這種雙重設計既保障了技術問題求解的嚴謹性,又確保了輸出內容的可解析性,為自動化評估提供標準化接口。3 3)結構化訓練范式結構化訓練范式。研發團隊設計了
30、標準化指令模板,通過分離推理過程與最終結論的結構化輸出要求,既保證了知識表達的清晰度,又保留了內容創作的自主性。該模板僅規范輸出框架,避免對具體解題方法或思維路徑進行預設性限制。lDeepSeek-R1DeepSeek-R1:分階段強化學習架構演進:分階段強化學習架構演進。為克服Zero版本存在的可讀性差、語言混淆的問題并提升結果校準能力,該迭代版本采用多階段強化學習策略:1 1)冷啟動冷啟動階段:階段:通過少量高質量思維鏈(CoT)示范數據進行模型初始化,有效緩解基礎模型在初始訓練階段的波動性。2 2)面向推理的強化學習。)面向推理的強化學習。和DeepSeek-R1-Zero方式相同,但引
31、入了語言一致性獎勵,對推理密集型任務進行特別優化。3 3)拒絕采樣與監督式微調。)拒絕采樣與監督式微調。使用已訓練的RL模型來生成新的訓練數據,通過構建推理數據和非推理數據提升模型的通用能力。4 4)全場景)全場景強化學習。強化學習。為了同時平衡推理能力和通用能力,將不同類型的獎勵機制有機結合,再次進行強化學習。資料來源:DeepSeek-R1技術報告,國信證券經濟研究所整理資料來源:DeepSeek-R1技術報告,國信證券經濟研究所整理圖:圖:DeepSeek-R1-ZeroDeepSeek-R1-Zero模型結構化訓練模版模型結構化訓練模版圖:圖:DeepSeek-R1-ZeroDeepS
32、eek-R1-Zero訓練中針對訓練中針對AIMEAIME正確率持續提高正確率持續提高請務必閱讀正文之后的免責聲明及其項下所有內容采用硬盤緩存技術大幅降低延遲和成本采用硬盤緩存技術大幅降低延遲和成本l DeepSeek APIDeepSeek API以其開創性的硬盤緩存技術,實現了價格的指數級下降。以其開創性的硬盤緩存技術,實現了價格的指數級下降。在大模型API的實際運用場景中,用戶輸入存在較高比例的重復內容。例如,用戶輸入的提示詞(prompt)常常包含重復引用部分;在多輪對話里,每一輪都需重復輸入前幾輪的內容。針對這些情況,DeepSeek引入上下文硬盤緩存技術,將預估未來可能復用的內容,
33、緩存至分布式硬盤陣列之中。一旦出現重復輸入,重復部分直接從緩存讀取,無需重新計算。這一技術不僅有效縮短了服務延遲,還極大地降低了最終的使用成本。1 1)降低服務延遲:)降低服務延遲:對于輸入內容長且重復部分多的請求,API服務的首token延遲會大幅降低。以128K輸入且大部分內容重復的請求為例,經實際測試,首token延遲從原本的13秒銳減至500毫秒。2 2)削減整體費用:)削減整體費用:最高能夠節省90%的費用(前提是針對緩存特性進行優化)。即便不做任何優化,按照過往使用數據統計,用戶整體節省的費用也能超過50%。并且,緩存所占用的存儲無需額外付費。3 3)保障緩存安全:)保障緩存安全:
34、在設計緩存系統時,DeepSeek已全面考量各類潛在安全問題。每個用戶的緩存相互獨立,在邏輯層面彼此不可見,從底層架構筑牢用戶數據的安全與隱私防線。長時間未使用的緩存會自動清空,不會長期留存,也不會被挪作他用。l DeepSeekDeepSeek可能是全球首家在可能是全球首家在APIAPI服務中大規模應用硬盤緩存的大模型廠商。服務中大規模應用硬盤緩存的大模型廠商。這一成果得益于DeepSeek-V2提出的MLA結構,該結構在提升模型效果的同時,極大地壓縮了上下文KVCache的大小,使得存儲所需的傳輸帶寬和存儲容量大幅降低,進而能夠將緩存置于低成本的硬盤之上。圖:圖:多輪對話場景,下一輪對話會
35、命中上一輪對多輪對話場景,下一輪對話會命中上一輪對話生成的上下文緩存話生成的上下文緩存圖:圖:數據分析場景,后續具有相同前綴的請求會數據分析場景,后續具有相同前綴的請求會命中上下文緩存命中上下文緩存資料來源:DeepSeek官網,國信證券經濟研究所整理表:表:DeepSeek-R1DeepSeek-R1 APIAPI服務定價服務定價圖:圖:DeepSeek-R1DeepSeek-R1等模型輸入輸出價格對比等模型輸入輸出價格對比模型上下文長度最大思維鏈長度最大輸出長度百萬tokens輸入價格(緩存命中)百萬tokens輸入價格(緩存未命中)百萬tokens輸出價格DeepSeek-V364K-8
36、K0.5元2元8元DeepSeek-R164K32K8K1元4元16元注1:表格中所列模型價格以“百萬tokens”為單位。Token是模型用來表示自然語言文本的的最小單位,可以是一個詞、一個數字或一個標點符號等。公司將根據模型輸入和輸出的總token數進行計量計費。注2:思維鏈為DeepSeek-R1模型在給出正式回答之前的思考過程。注3:如未指定max_tokens,默認最大輸出長度為4K??烧{整該參數以支持更長的輸出。注4:表格中展示了DeepSeek-V3模型優惠前的價格。即日起至北京時間2025-02-08 24:00,所有用戶均可享受DeepSeek-V3 API的價格優惠。在此之
37、后,模型價格將恢復至原價。DeepSeek-R1不參與優惠。注5:DeepSeek-R1的輸出token數包含了思維鏈和最終答案的所有token,其計價相同。請務必閱讀正文之后的免責聲明及其項下所有內容AIAI應用爆發在即,算力需求持續攀升,關注應用爆發在即,算力需求持續攀升,關注ASICASIC及服務器產業鏈及服務器產業鏈請務必閱讀正文之后的免責聲明及其項下所有內容Scaling LawScaling Law與與“涌現涌現”能力:大模型訓練遵循的重要法則能力:大模型訓練遵循的重要法則l ScalScaling Lawing Law:模型效果隨模型規模指數增加而線性提高。:模型效果隨模型規模指
38、數增加而線性提高。據OpenAI發布的論文Scaling laws for neural language models,模型性能極大依賴訓練規模,模型參數、數據集大小以及用于訓練的計算量增加可以達到減少模型損失,增加大模型性能的效果。l“涌現涌現”能力:隨著訓練規模不斷增大,大模型將產生質變。能力:隨著訓練規模不斷增大,大模型將產生質變。據Emergent Abilities of Large Language Models,隨著模型規模的擴大,語言模型表現出的新的、不可預測的能力。這些新能力在中小模型上線性放大都得不到線性的增長,但在模型規模突破一定閾值時突然出現?!坝楷F”能力反映了系統行
39、為質的變化,這種變化不能簡單地通過觀察或分析較小規模模型的性能來預測。圖:大模型參數量近年來迅速擴容圖:大模型參數量近年來迅速擴容l自1956年計算機專家約翰麥卡錫提出“人工智能”概念以來,在過去的近70年時間里,行業經歷了以CNN為代表的傳統神經網絡模型、以Transformer為代表的全新神經網絡模型、以GPT為代表的預訓練大模型這三個時代的進階,在“算力芯片、存儲芯片”等硬件技術持續演進的支撐下,伴隨模型參數規模超越千億級,伴隨模型參數規模超越千億級,近年來近年來人人工智能技術得以工智能技術得以“涌現涌現”出更加強大的理解、推理、聯想能力。出更加強大的理解、推理、聯想能力。資料來源:Ja
40、red等Scaling Laws for Neural Language Models,國信證券經濟研究所整理資料來源:Jared等著-Scaling Laws for Neural Language Models-Arxiv(2020)-P3,國信證券經濟研究所整理圖:模型規模圖:模型規模的指數提升線性提高模型性能的指數提升線性提高模型性能資料來源:Information is Beautiful,國信證券經濟研究所整理GPT 3.5WebGPTClaudeLuminous SupremePanGu-SigmaBard*AlpacaBloombergGPTCerebras-GPTGPT-4G
41、PT4All-LoRAJurassic-2*StableLMDolly 2.0TitanTongyi QianwenHugging ChatBingChat*PaLM2Vicuna-13BFalcon LLMOpenLLMErnie Bot 3.5Claude 2LLaMa2Bichuan 2Claude InstantIDEFICSJais ChatFalcon 180BDeciLMAceGPTRetro48BErnie 4.0FuyuOrca 2GrokMEDITRONYuan 2.0Claude 2.1Grok 1GPT-4 TurboInflection-2SeaLLMMistral-
42、smallQMistral-mediumGemini UltraGemini Pro 1.5MGIEDeepSeekFuyu-heavyGLM-4Qwen 1.5175B530BMistral-largeMM1Inflection-2.5Claude 305001000150020002022/8/272022/12/52023/3/152023/6/232023/10/12024/1/92024/4/18參數量(十億)圖:圖:大模型隨參數規模增加所體現的大模型隨參數規模增加所體現的“涌現涌現”能力能力請務必閱讀正文之后的免責聲明及其項下所有內容l 海內外科技公司紛紛發布海內外科技公司紛紛發布
43、AIAI大模型,模型的更新迭代和競爭加劇。大模型,模型的更新迭代和競爭加劇。據中國信通院數據,截至2024年7月,全球AI大模型數量約1328個(包含同一企業、同一模型的不同參數版本),其中美國AI大模型數量位居第一位,占比44%,代表性模型包括OpenAI的GPT、Anthropic的Claude、Meta的Llama、Google的Gemini等;中國AI大模型數量位居第二位,占比36%,代表性模型包括阿里的通義千問、騰訊的混元大模型、百度的文心一言、月之暗面的Kimi、字節跳動的豆包等。l 模型參數規模呈現指數級增長,模型性能持續提升。模型參數規模呈現指數級增長,模型性能持續提升。近年來
44、新推出的大語言模型所使用的數據量和參數規模呈現指數級增長,例如GPT-3模型參數約為17501750億億,據Semianalysis推測GPT-4參數量達1.81.8萬億萬億;同時,國內目前公布的大模型參數規模也普遍在百億至千億級百億至千億級別別。性能方面,據Data Learner數據,GPT-4o在MMLU測評中獲得88.7分的高分,分數較GPT-3大幅提高;國產模型中阿里的Qwen2.5-72B取得86.1分的高分,在各大模型中亦取得排名相對靠前的位置。資料來源:DataLearner,國信證券研究所整理注:MMLU是一種針對大模型的語言理解能力的測評,用以評測大模型基本的知識覆蓋范圍和
45、理解能力。資料來源:斯坦福大學人工智能指數報告,國信證券經濟研究所整理05010015020020192020202120222023開源限制訪問私有表:主流大模型信息對比表:主流大模型信息對比模型名稱參數大?。▋|)MMLU分數發布者發布時間開源情況GPT-4o未公布88.7OpenAI2024.5.13未開源Claude 3.5 Sonnet未公布88.7Anthropic2024.6.21未開源Claude 3-Opus未公布86.8Anthropic2024.3.4未開源GPT-4未公布86.4OpenAI2023.3.14未開源Qwen2.5-72B72786.1阿里2024.9.18
46、開源Llama3.1-405B405085.2Meta2024.7.23開源Gemini-Ultra未公布83.7谷歌2023.12.7未開源Qwen2.5-32B32083.3阿里2024.9.18開源Gemini 1.5 Pro未公布81.9谷歌2024.2.15未開源GLM4未公布81.5智譜AI2024.1.16未開源Grok-1.5未公布81.3xAI2024.3.29未開源YAYI2-30B30080.5中科聞歌2023.12.22 收費開源Qwen1.5-110B110080.4阿里2024.4.25開源Qwen2.5-14B14079.7阿里2024.9.18開源Llama3-
47、70B70079.5Meta2024.4.18開源Gemini-Pro100079.1谷歌2023.12.7未開源Claude 3-Sonnet未公布79.0 Anthropic2024.3.4未開源DeepSeek-V2-236B236078.5DeepSeek2024.5.6開源Qwen-72B72077.4 阿里2023.11.30開源Yi-1.5-34B34077.1 零一萬物2024.5.13開源GPT-3.5175070.0 OpenAI2022.11.30未開源GPT-3175053.9OpenAI2020.5.28未開源圖:全球模型數量激增圖:全球模型數量激增Scaling L
48、awScaling Law與與“涌現涌現”能力:大模型訓練遵循的重要法則能力:大模型訓練遵循的重要法則請務必閱讀正文之后的免責聲明及其項下所有內容AIAI模型已從大語言模型進化為全方位多模態模型,開啟模型已從大語言模型進化為全方位多模態模型,開啟AIAI應用新紀元應用新紀元l23年3月以來,OpenAI所發布的GPT-4已經具備了多模態理解和多類型內容生成的能力,使得AI真正具備了重塑人機交互模式、全方位賦能人類生活的可能性。l24年12月OpenAI連續進行新品發布,包括具備多模態推理能力的完整版o1模型,正式發布Sora視頻模型,開放并升級寫作和編程工具Canvas,將ChatGPT與Ap
49、ple生態深度整合、Siri與Apple Intelligence智能協同,發布了ChatGPT能夠進行視頻聊天的語音和視覺功能等。l字節跳動自24年5月豆包大模型家族正式發布到12月短短7個月時間,發布了Doubao-pro、Seed-TTS、Seed-ASR、Seed-Music、SeedEdit、視頻生成模型、視覺理解模型等多項重磅成果,在語言能力、多模態理解與生成、模型推理、代碼生成等方面不斷提升。圖:生成式圖:生成式AIAI市場概覽市場概覽資料來源:IDC市場概覽:生成式AI技術和服務,國信證券經濟研究所整理圖:中國市場企業生成式圖:中國市場企業生成式AIAI應用進度應用進度資料來源
50、:IDC,國信證券經濟研究所整理18%15%25%42%已經落地生成式AI應用服務并計劃增加投入已經落地生成式AI服務還在驗證階段,并未開始新一輪投資正在投資建設生成式AI應用服務已經做了初步測試驗證和POC,但還未有正式投資計劃請務必閱讀正文之后的免責聲明及其項下所有內容AIAI賦能下的賦能下的“場景數字化場景數字化”經濟效益顯著經濟效益顯著數字化解決方案的潛在價值對應近數字化解決方案的潛在價值對應近2727萬億美元萬億美元。數字化轉型是以價值驅動的,其需求來源于企業即通過數字化來解決業務痛點、創造真實價值。根據華為的數據,制造業、金融保險、零售、能源電力等產業的數字化潛在價值均在2萬億美元
51、以上;以作為支柱性工業的制造業為例,多為重資產企業,且流程復雜,需要在制造、運輸、管理等多個環節進行數字化應用以實現降本增效,轉型訴求強,數字化創造的潛在價值達6萬億美元。圖:圖:數字化潛在價值數字化潛在價值資料來源:華為數字化轉型,從戰略到執行,羅蘭貝格,國信證券經濟研究所整理圖:圖:制造業企業數字化演進制造業企業數字化演進資料來源:華為加速行業智能化白皮書、數字化轉型,從戰略到執行,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容隨著企業對數據的需求從收集到理解并進行應用過渡,隨著企業對數據的需求從收集到理解并進行應用過渡,AIAI是挖掘數據價值的重要工具是挖掘數據價值的
52、重要工具。根據華為的數據,家電行業的大模型-AI質檢系統借助AI能力,質檢速度提升了數十倍。通過機器視覺AI的方式實現產品外觀質量檢測的自動化、智能化,系統能夠使得檢測速度提升10倍以上,缺陷檢出率達到98%,進一步提高了質檢質量,提高良品率,并且幫助企業節約因質量問題產生的退換貨成本。同時,該系統能夠幫助企業大幅減少質檢工時,降低了人力成本。圖:制造業的圖:制造業的數字化轉變數字化轉變資料來源:華為,國信證券經濟研究所整理圖:圖:家電家電AIAI質檢應用案例質檢應用案例資料來源:華為,國信證券經濟研究所整理AIAI賦能下的賦能下的“場景數字化場景數字化”經濟效益顯著經濟效益顯著請務必閱讀正文
53、之后的免責聲明及其項下所有內容AIAI推動全球推動全球ITIT支出增長,生成式支出增長,生成式AIAI市場規模持續提高市場規模持續提高l AIAI技術在企業端部署和應用推動全球技術在企業端部署和應用推動全球ITIT支出的增長。支出的增長。AI技術的發展驅動企業業務自動化、幫助企業優化資源配置并協助數據分析,從而提升業務流程效率,推動企業的智能化轉型需求。個性化服務和智能應用帶來了新的市場需求,以AIGC為代表的AI應用需要強大的計算能力和數據存儲,推動了高性能計算、數據管理以及云計算的相關投資。隨著AI應用的增多,企業對網絡安全和合規服務的需求也在增加,推動相關領域的IT支出增長。據Gartn
54、er預測,企業機構將于2024年加快投資于使用生成式AI,2024年全球IT總支出預計將達到5萬億美元,較2023年增長6.8%;中國IT總支出預計將達到3.9萬億元,較2023年增長6.2%。l AIAI技術將產生巨大的經濟影響,其投入產出效益顯著。技術將產生巨大的經濟影響,其投入產出效益顯著。據IDC數據,預計到2030年,人工智能對全球經濟的累計影響將達到19.9萬億美元,占到預計2030年全球GDP的3.5%。到2030年,每在AI解決方案和服務上花費1美元,將產生4.6美元的經濟效益,包括直接影響和間接影響。l 生成式生成式AIAI市場將成為當前最熱門的市場將成為當前最熱門的ITIT
55、領域。領域。據IDC數據,24年中國生成式AI市場預計將達到33億美元,預計到2028年將達到135億美元,2024-2028年復合增長率將達33.4%,同時生成式AI市場規模占到整體AI市場規模的比例將由16%上升到29%。對于企業來講,對于生成式AI的支出亦將經歷不同階段的重點,例如2024-2025年,支出主要集中在生成式AI基礎設施建設;2025-2026年,支出重點用于推進生成式AI平臺與解決方案建設;2027年及以后,支出重點著力于生成式AI服務。資料來源:IDCsWorldwideAIandGenerativeAISpendingGuideV2,2024,國信證券經濟研究所整理0
56、20406080100120140160202320242025202620272028GenAIserviceGenAIsoftwareGenAIhardware0%5%10%15%20%25%30%050100150200250300350400450500202320242025202620272028GenAIAIGenAI%圖:圖:2023-20282023-2028年中國生成式年中國生成式AIAI市場市場預測(億美元)預測(億美元)圖:圖:2023-20282023-2028年中國生成式年中國生成式AIAI與整與整體體AIAI市場規模預測(億美元)市場規模預測(億美元)圖:圖:20
57、20-20242020-2024年全球年全球ITIT支出情況支出情況圖:圖:2020-20242020-2024年中國年中國ITIT支出情況支出情況資料來源:Gartner,國信證券經濟研究所整理資料來源:Gartner,國信證券經濟研究所整理0%1%2%3%4%5%6%7%8%9%10%38,00040,00042,00044,00046,00048,00050,00052,00020202021202220232024全球IT支出(億美元)YoY0%2%4%6%8%10%12%14%16%05,00010,00015,00020,00025,00030,00035,00040,000202
58、02021202220232024中國IT支出(億元)YoY資料來源:IDCsWorldwideAIandGenerativeAISpendingGuideV2,2024,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容智能算力是構建大模型的重要底座智能算力是構建大模型的重要底座,AIAI算力需求持續攀升算力需求持續攀升l 大模型訓練、大模型訓練、AIAI應用需求興起,推動全球算力需求快速增長。應用需求興起,推動全球算力需求快速增長。全球算力需求飆升主要基于以下原因:1)模型能力提升依賴更大的訓練數據量和參數量,對應更高的算力需求;2)AI模型的發展方向轉向多模態,訓練模型的
59、數據從單一文字數據發展到目前的圖片、視頻數據,均需要更強的算力處理;3)模型種類多樣化(文生圖、文生視頻)以及新推出的模型數量激增,均推動算力需求的增長,以AIGC為代表的AI應用用戶數量爆發,推理側算力需求快速增長。l 全球數據總量大幅上漲,數據中心算力需求快速增長。全球數據總量大幅上漲,數據中心算力需求快速增長。隨著人工智能等新技術發展,海量數據的產生及其計算處理成為數據中心發展關鍵。據IDC數據,全球數據總量預計由2021年的82.47 ZB上升至2026年的215.99 ZB,對應CAGR達21.24%。其中,大規模張量運算、矩陣運算是人工智能在計算層面的突出需求,高并行度的深度學習算
60、法在視覺、語音和自然語言處理等領域上的廣泛應用使得算力需求呈現指數級增長。此外,據IDC數據,中國生成式AI日均Tokens處理規模顯著增長,預計中國生成式AI日均Tokens調用量到2024年底將達到每天1.12萬億,是2023年底每天35億規模的320倍。l 智能算力是構建大模型的重要底座,智能算力是構建大模型的重要底座,以以AIAI服務器為代表的全球智能算力需求激增。服務器為代表的全球智能算力需求激增。算力可分為通用算力、智能算力及超算算力:1)通用算力:由基于CPU的服務器提供算力,主要用于基礎通用計算;2)智能算力:由基于GPU、FPGA、ASIC等AI芯片的加速計算平臺提供的算力,
61、主要用于人工智能訓練和推理計算;3)超算算力:由超級計算機等高性能計算集群提供算力,主要用于尖端科學領域的計算。早期通用算力占整體算力的比重達90%以上,隨著人工智能技術的發展,智能算力規模迅速增長。據中據中國信息通信研究院預期,國信息通信研究院預期,20302030年全球智能算力規模將達年全球智能算力規模將達52.5ZFLOPS52.5ZFLOPS。據。據IDCIDC預期,預期,20232023年中國智能算力規模達年中國智能算力規模達414.1EFLOPS414.1EFLOPS,至,至20272027年將達年將達1117.4EFLOPS1117.4EFLOPS。圖:中國算力規模及預期(單位:
62、圖:中國算力規模及預期(單位:EFLOPSEFLOPS)資料來源:IDC,國信證券經濟研究所整理圖:圖:AIAI大模型所需算力平均每大模型所需算力平均每2 2年增長年增長750750倍倍資料來源:riselab,國信證券經濟研究所整理010020030040050060020202021202220232024202520262027EFLOPS通用算力規模(FP32)智能算力規模(FP32)圖:圖:2021-20262021-2026年全球數據總量及預測年全球數據總量及預測19%20%20%21%21%22%22%23%05010015020025020212022E2023E2024E20
63、25E2026E數據總量(ZB)YoY資料來源:IDC,國信證券經濟研究所整理圖:中國生成式圖:中國生成式AIAI日均日均TokensTokens處理規模處理規模資料來源:IDC,國信證券經濟研究所整理02,0004,0006,0008,00010,00012,0002023年12月2024年4月2024年6月2024年11月E日均Tokens處理規模(億)請務必閱讀正文之后的免責聲明及其項下所有內容AIAI應用智能化推動算力基礎設施升級,算力廠商將率先受益應用智能化推動算力基礎設施升級,算力廠商將率先受益l AIAI應用智能化應用智能化推動算力基礎設施升級。推動算力基礎設施升級。伴隨著AI應
64、用的智能化,一方面將通過優化智能汽車、智能機器人、智能家居、空間計算終端(MRVRAR)等各類智能物聯產品的人機交互體驗,加速其市場推廣速度;另一方面也將倒逼相應的算力基礎設施、終端硬件架構為此做出適應性的升級。l 算力需求催化投資,算力廠商將率先受益。算力需求催化投資,算力廠商將率先受益。根據斯坦福大學人工智能指數報告估算,OpenAI的GPT-4使用了價值約7800萬美元的計算資源進行訓練,而谷歌的Gemini Ultra耗費了1.9億美元的計算成本。2024年3月,微軟和OpenAI宣布計劃投資1000億美元打造星際之門AI超算,全球算力投資迅速提升,算力廠商將率先受益。圖:全球模型訓練
65、投入激增圖:全球模型訓練投入激增資料來源:斯坦福大學人工智能指數報告,國信證券經濟研究所整理0.00090.0030.24.36.41.312.478.43.9191.4050100150200250TransformerBERT LargeRoBERTa LargeGPT-3 175B(davinci)Megatron Turing NLG 530BLaMDAPaLMGPT-4LaMDA 270BGemini Ultra投入成本(百萬美元)2017201820192020202120222023請務必閱讀正文之后的免責聲明及其項下所有內容英偉達英偉達CUDACUDA平臺及平臺及GPUGPU架
66、構快速迭代更新奠定其領先地位架構快速迭代更新奠定其領先地位圖:英偉達圖:英偉達GPUGPU架構演進歷程架構演進歷程資料來源:woshipm,國信證券經濟研究所整理圖:英偉達圖:英偉達BlackwellBlackwell架構的架構的技術突破技術突破資料來源:英偉達官網,國信證券經濟研究所整理l 英偉達將英偉達將GPUGPU從圖形處理器演進為通用計算處理器,從圖形處理器演進為通用計算處理器,CUDACUDA降低通用降低通用GPUGPU應用門檻。應用門檻。成立于1993年的英偉達以制造單芯片圖形用戶界面加速器起家,于1999年發明了圖形處理器GPU,從而定義了現代計算機圖形學,并確立在該領域的領導地
67、位。2006年公司推出用于通用GPU計算的CUDA平臺,是首次可以利用GPU作為C語言編譯器的開發環境,使得GPU能夠進行圖像處理之外的通用計算,英偉達GPU體系結構全面支持通用編程,GPU成為了真正的GPGPU(通用GPU)。l 英偉達英偉達GPUGPU加速計算發展始于加速計算發展始于TeslaTesla架構,其架構約每兩年完成迭代更新奠定其領先地位。架構,其架構約每兩年完成迭代更新奠定其領先地位。2008年,Tesla架構推出,成為第一代真正開始用于并行運算的GPU架構。2010年,Fermi架構推出,是第一個支持DirectX 11的GPU計算架構,采用臺積電40nm制程。2012年的K
68、epler架構是Fermi的升級版,整體架構保持一致性,采用臺積電28nm制程。2014年的Maxwell架構通過優化架構,提供了可觀的能耗比提升。2016年,Pascal架構推出,采用臺積電16nm制程,支持DirectX 12標準,是首個為深度學習而設計的GPU架構。2017年的Volta架構專注于提高深度學習的性能,采用臺積電12nm制程,2018年的Turing架構是全球首款支持實時光線追蹤的GPU架構。2020年,Ampere架構推出,采用臺積電7nm/三星8nm制程,統一了AI訓練和推理,并在光線追蹤和DLSS(深度學習超級采樣)方面有顯著的改進。2022年的Hopper架構采用臺
69、積電4nm制程,集成多達800億個晶體管,主要面向AI及數據中心等構建。2024年3月最新推出的Blackwell架構采用臺積電4nm制程,集成了2080億個晶體管,使用了二代Transformer、Secure AI、5代NVLink等最新技術。請務必閱讀正文之后的免責聲明及其項下所有內容隨著芯片架構不斷演進,隨著芯片架構不斷演進,英偉達英偉達GPUGPU算力成倍增長算力成倍增長B200B100H200 SXMH100 SXMH800 SXMA100 SXMA800 SXML40SL40FP418 PFLOPS14 PFLOPS-INT4-1466 TOPS1448 TOPSFP8/FP69
70、 PFLOPS7 PFLOPS3958 TFLOPS3958 TFLOPS3958 TFLOPS-1466 TFLOPS724 TFLOPSINT89 POPS7 POPS3958 TOPS3958 TOPS3958 TOPS1248 TOPS1248 TOPS1466 TOPS724 TFLOPSFP164.5 PFLOPS3.5 PFLOPS1979 TFLOPS1979 TFLOPS1979 TFLOPS624 TFLOPS624 TFLOPS733 TFLOPS362.1 TFLOPSTF322.2 PFLOPS1.8 PFLOPS989 TFLOPS989 TFLOPS989 TFL
71、OPS312 TFLOPS312 TFLOPS366 TFLOPS191 TFLOPSFP3280 TFLOPS60 TFLOPS67 TFLOPS67 TFLOPS67 TFLOPS19.5 TFLOPS19.5 TFLOPS91.6 TFLOPS90.5 TFLOPSFP6440 TFLOPS30 TFLOPS34 TFLOPS34 TFLOPS1 TFLOPS9.7 TFLOPS9.7 TFLOPS-顯存最高192GB最高192GB141GB80GB80GB80GB80GB48GB48GB顯存帶寬最高8 TB/s最高8 TB/s4.8 TB/s3.35 TB/s3.35 TB/s2039
72、 GB/s2039 GB/s864 GB/s864 GB/s熱設計功耗1000W700W最高700W最高700W最高700W400W400W350W300W互聯速度NVLink:1.8TB/sPCle 6.0:256GB/sNVLink:1.8TB/sPCle 6.0:256GB/sNVLink:900GB/sPCle 5.0:128GB/sNVLink:900GB/sPCle 5.0:128GB/sNVLink:400GB/sPCle 5.0:128GB/sNVLink:600GB/sPCle 4.0:64GB/sNVLink:400GB/sPCle 4.0:64GB/sPCle 4.0:6
73、4GB/sPCle 4.0:64GB/s表:英偉達數據運算表:英偉達數據運算GPU主流產品主流產品性能性能資料來源:英偉達官網,國信證券經濟研究所整理l 英偉達英偉達GPUGPU芯片隨著架構的不斷演進及算力的成倍增長,在大算力需求的芯片隨著架構的不斷演進及算力的成倍增長,在大算力需求的AIAI大模型訓練中得到廣泛運用。大模型訓練中得到廣泛運用?;贏mpere架構的A100 GPU建立在Volta和Turing SM架構中引入的特性之上,并顯著提高了性能,與Volta和Turing相比,每平方米的計算馬力增加了2倍;Ampere架構還引入了細粒度結構稀疏性,可以使深層神經網絡的計算吞吐量翻倍。
74、Hopper架構利用專為加速AI模型訓練而設計的Transformer引擎,進一步提升Tensor核心技術。Hopper Tensor核心可應用混合式FP8和FP16精確度,大幅加速Transformer的AI運算;和前一代Ampere相比,Hopper將TF32、FP64、FP16和INT8每秒浮點運算次數提高三倍。Blackwell架構使用了第二代Transformer引擎,將定制的Blackwell Tensor Core技術與NVIDIA TensorRT-LLM和NeMo框架創新相結合,加速大語言模型和專家混合模型的推理和訓練;與上一代H100相比,使用Blackwell架構的GB2
75、00 NVL72將資源密集型應用程序(例如1.8T參數GPT-MoE)的速度提高了30倍。請務必閱讀正文之后的免責聲明及其項下所有內容GB200GB200系統強勢賦能下一代系統強勢賦能下一代AIAI模型,模型,系列新品即將陸續出貨系列新品即將陸續出貨l 面向生成式面向生成式AIAI時代的全新機架級擴展的時代的全新機架級擴展的DGX SuperPODDGX SuperPOD架構架構基于基于DGX GB200DGX GB200系統,將前所未有賦能下一代系統,將前所未有賦能下一代AIAI模型。模型。GB200是由兩個Blackwell B200 GPU和一個Grace CPU組成的AI加速平臺,每個
76、B200 GPU含有2080億個晶體管。相較于H100,GB200的算力提升了6倍;而在處理多模態特定領域任務時,其算力更是達到H100的30倍。GB200 NVL72是一套多節點液冷機架級擴展系統,適用于高度計算密集型的工作負載,它將36個Grace Blackwell超級芯片組合在一起,其中包含通過第五代NVLink相互連接的72個Blackwell GPU和36個Grace CPU。DGX SuperPOD由8個或以上的DGX GB200 NVL72系統構建而成,這些系統通過NVIDIA Quantum InfiniBand網絡連接,可擴展到數萬個GB200超級芯片,可以用于處理萬億參數
77、模型,能夠保證超大規模生成式AI訓練和推理工作負載的持續運行。l 預計預計B200B200和和GB200GB200系列在系列在20242024年第四季度和年第四季度和20252025年第一季度之間陸續出貨,年第一季度之間陸續出貨,B300B300系列將于系列將于20252025年第二季度至第三季度之間陸續出貨。年第二季度至第三季度之間陸續出貨。據TrendForce數據,英偉達對Blackwell系列芯片的劃分更為細致,以向大型云服務商提供符合其能效要求和服務器OEM性價比需求的產品,并根據供應鏈情況動態調整。預計2025年英偉達將更著力于營收貢獻度較高的AI機種,例如積極投入技術和資源在NV
78、L Rack方案,協助服務器系統廠商針對NVL72系統調教或液冷散熱等,推動大型云服務廠商從現有NVL36轉為擴大導入NVL72。出貨占比方面,據TrendForce數據,英偉達高端GPU增長明顯,預計2024年出貨占比約為50%;預計2025年受Blackwell新平臺帶動,其高端GPU出貨占比將提升至65%以上。TrendForce指出,英偉達近期將其所有Blacwell Ultra產品更名為B300系列,預計B200和GB200系列在2024年第四季度和2025年第一季度之間陸續出貨,B300系列將于2025年第二季度至第三季度之間陸續出貨。舊名稱舊名稱新名稱新名稱主要服務器主要服務器出
79、貨單位出貨單位HBMHBM類型類型CoWoSCoWoS類型類型B100B100HGXHBM3e 8hi*8(192GB)CoWoS-LB200B200HGXHBM3e 8hi*8(192GB)CoWoS-LB200 UltraB300HGXHBM3e 12hi*8(288GB)CoWoS-LGB200GB200NVL72(main)、NVL36HBM3e 8hi*8(192GB)CoWoS-LGB200 UltraGB300NVL72(main)、NVL36HBM3e 12hi*8(288GB)CoWoS-LB200A UltraB300AHGX、MGXHBM3e 12hi*4(144GB)C
80、oWoS-SGB200A UltraGB300ANVL36、MGXHBM3e 12hi*4(144GB)CoWoS-S資料來源:TrendForce,國信證券經濟研究所整理表:英偉達表:英偉達Blackwell系列產品重要規格預測系列產品重要規格預測表:英偉達表:英偉達GB200芯片及性能提升示意圖芯片及性能提升示意圖資料來源:英偉達官網,國信證券經濟研究所整理表:英偉達表:英偉達DGX SuperPODDGX SuperPOD架構架構示意圖示意圖資料來源:英偉達官網,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容國內外云服務商資本開支快速增長,國內大廠增速明顯國內外云服務
81、商資本開支快速增長,國內大廠增速明顯l 國內外大型云服務廠商近兩年資本開支快速國內外大型云服務廠商近兩年資本開支快速增長,增長,算力算力“軍備競賽軍備競賽”愈演愈烈愈演愈烈。國外四大CSP廠商今年前三季度資本開支均已超過200億美元,亞馬遜更是超過500億美元。中國頭部云服務商如騰訊、阿里巴巴等今年前三季度資本開支增長均超過100%。l 國外四大CSP廠商亞馬遜、微軟、谷歌、Meta在2024年第三季度資本開支分別達到226.2億、149.23億、130.61億、82.58億美元,同比分別增長81.3%、50.5%、62.1%、26.2%;2024年前三季度累計資本開支分別達551.65億、3
82、97.48億、382.59億、228.31億美元,同比分別增長44.6%、56.1%、80.2%、16.5%。l 國內頭部云服務商如騰訊、阿里巴巴在2024年第三季度資本開支分別達到170.94億、169.77億元,同比分別增長113.54%、312.86%;2024年前三季度累計資本開支分別達到401.82億、390.90億元,同比分別增長145.5%、209.5%。圖:阿里巴巴季度資本開支圖:阿里巴巴季度資本開支圖:騰訊季度資本開支圖:騰訊季度資本開支-100%-50%0%50%100%150%200%250%300%0204060801001201401601801Q202Q203Q20
83、4Q201Q212Q213Q214Q211Q222Q223Q224Q221Q232Q233Q234Q231Q242Q243Q24資本開支(億元)YoY-100%-50%0%50%100%150%200%250%300%350%020406080100120140160180FY4Q20FY1Q21FY2Q21FY3Q21FY4Q21FY1Q22FY2Q22FY3Q22FY4Q22FY1Q23FY2Q23FY3Q23FY4Q23FY1Q24FY2Q24FY3Q24FY4Q24FY1Q25FY2Q25資本開支(億元)YoY圖:亞馬遜季度資本開支圖:亞馬遜季度資本開支資料來源:Wind,國信證券經濟
84、研究所整理圖:微軟季度資本開支圖:微軟季度資本開支圖:谷歌季度資本開支圖:谷歌季度資本開支圖:圖:MetaMeta季度資本開支季度資本開支-50%0%50%100%150%200%0501001502002501Q202Q203Q204Q201Q212Q213Q214Q211Q222Q223Q224Q221Q232Q233Q234Q231Q242Q243Q24資本開支(億美元)YoY0%10%20%30%40%50%60%70%020406080100120140160FY3Q20FY4Q20FY1Q21FY2Q21FY3Q21FY4Q21FY1Q22FY2Q22FY3Q22FY4Q22FY1
85、Q23FY2Q23FY3Q23FY4Q23FY1Q24FY2Q24FY3Q24FY4Q24FY1Q25資本開支(億美元)YoY-60%-40%-20%0%20%40%60%80%100%0204060801001201401Q202Q203Q204Q201Q212Q213Q214Q211Q222Q223Q224Q221Q232Q233Q234Q231Q242Q243Q24資本開支(億美元)YoY-40%-20%0%20%40%60%80%100%120%140%01020304050607080901001Q202Q203Q204Q201Q212Q213Q214Q211Q222Q223Q224
86、Q221Q232Q233Q234Q231Q242Q243Q24資本開支(億美元)YoY資料來源:Wind,國信證券經濟研究所整理資料來源:Wind,國信證券經濟研究所整理資料來源:Wind,國信證券經濟研究所整理資料來源:Wind,國信證券經濟研究所整理資料來源:Wind,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容算力需求爆發式增長,算力需求爆發式增長,AIAI服務器市場規模大幅提升服務器市場規模大幅提升l 受益于智能算力市場的推動,全球受益于智能算力市場的推動,全球AIAI服務器市場規模實現快速增長。服務器市場規模實現快速增長。據TrendForce數據,預計2024
87、年全球AI服務器市場規模為1870億美金,同比增長69%;從服務器出貨量占比來看,預計2024年AI服務器占比為12.2%,同比提升3.4pct。TrendForce預計AI服務器出貨量將由2023年的118萬臺增長至2026年的237萬臺,對應CAGR為26%。假設單臺AI服務器價值量為25萬美金,則預計2026年AI服務器市場規模為5922.5億美金。l 中國中國AIAI服務器市場規模同樣將實現快速增長,服務器市場規模同樣將實現快速增長,AIAI服務器工作負載將由訓練逐步過渡到推理。服務器工作負載將由訓練逐步過渡到推理。據IDC數據,2023年中國AI服務器出貨量達32.2萬臺,預計到20
88、27年將達到80.9萬臺,對應CAGR達25.9%;對應到2023年AI服務器市場規模為60.8億美元,預計到2027年將達到134億美元,對應CAGR達21.8%。從工作負載來看,2023年訓練服務器占比達58.7%。隨著訓練模型的完善與成熟,模型和應用產品逐步進入投產模式,處理推理工作負載的人工智能服務器占比將隨之攀升,到2027年,用于推理的工作負載將達到72.6%。圖:全球圖:全球AIAI服務器出貨量及預測服務器出貨量及預測圖:中國圖:中國AIAI服務器出貨量及預測服務器出貨量及預測資料來源:Trendforce,國信證券經濟研究所整理資料來源:IDC,國信證券經濟研究所整理圖:中國圖
89、:中國AIAI服務器工作負載占比及預測服務器工作負載占比及預測資料來源:IDC,國信證券經濟研究所整理0%5%10%15%20%25%30%35%40%05010015020025020222023202420252026AI服務器出貨量(萬臺)YoY0%5%10%15%20%25%30%35%40%0102030405060708090202220232024202520262027中國AI服務器出貨量(萬臺)YoY0%10%20%30%40%50%60%70%80%90%100%20232024202520262027推理訓練請務必閱讀正文之后的免責聲明及其項下所有內容政策支持亦將拉動中國
90、政策支持亦將拉動中國AIAI服務器市場規模增長服務器市場規模增長資料來源:中商產業研究院,國信證券經濟研究所整理發布日期發布日期發布單位發布單位政策名稱政策名稱主要內容主要內容2024年1月工信部國家人工智能產業綜合標準化體系建設指南(征求意見稿)到2026年,共性關鍵技術和應用開發類計劃項目形成標準成果的比例達到60%以上,標準與產業科技創新的聯動水平持續提升。新制定國家標準和行業標準50項以上,推動人工智能產業高質量發展的標準體系加快形成。開展標準宣貫和實施推廣的企業超過1000家,標準服務企業創新發展的成效更加凸顯。參與制定國際標準20項以上,促進人工智能產業全球化發展。2023年4月工
91、信部、中央網信辦、國家發改委教育部等關于推進IPv6技術演進和應用創新發展的實施意見推動IPv6與5G、人工智能、云計算等技術的融合創新,支持企業加快應用感知網絡、新型IPv6測量等“IPv6+”創新技術在各類網絡環境和業務場景中的應用。2023年2月中共中央、國務院辦公廳質量強國建設綱要加快大數據、網絡、人工智能等新技術的深度應用,促進現代服務業與先進制造業、現代農業融合發展。2022年12月中共中央、國務院辦公廳擴大內需戰略規綱要(2022-2035年)加快物聯網、工業互聯網、衛星互聯網、壬兆光網建設,構建全國一體化大數據中心體系,布局建設大數據中心國家樞紐節點,推動人工智能、云計算等廣泛
92、、深度應用,促進“云、網、端”資源要素相互融合、智能配置。推動5G、人工智能、大數據等技術。2022年8月科技部關于支持建設新一代人工智能示范應用場景的通知充分發揮人工智能賦能經濟社會發展的作用,圍繞構建全鏈條、全過程的人工智能行業應用生態,支持一批基礎較好的人工智能應用場景,加強研發上下游配合與新技術集成,打造形成一批可復制、可推廣的標桿型示范應用場景。首批支持建設十個示范應用場景。2022年7月科技部、教育部、工業和信息化部、交通運輸部等關于加快場景創新以人工智能高水平應用促進經濟高場景創新成為人工智能技術升級、產業增長的新路徑,場景創新成果持續涌現推動新一代人工智能發展上水平。鼓勵在制造
93、、農業、物流、金融、商務、家等重點行業深入挖據人工智能技術應用場景,促進智能經濟高端高效發展。2021年5月國家發改委、中央網信辦、工信部中央能源局全國一體化大數據中心協同創新體系算力樞紐實施方案引導超大型、大型數據中心集聚發展,構建數據中心集群,推進大規模數據的“云端”分析處理,重點支持對海量規模數據的集中處理,支撐工業互聯網、金融證券、災害預遠程醫療、視頻通話、人工智能推理等抵近一線、高頻實時交互型的業務需求,數據中心端到端單向網絡時延原則上在20毫秒范圍內。2021年3月中共中央國民經濟和社會發展第十四個五年規劃和二零三五年遠景目標瞄準人工智能等前沿領域,實施一批具有前瞻性、戰略性的國家
94、重大科技項目。推動互聯網、大數據、人工智能等同各產業深度融合,推動先進制造業集群發展,構建一批各具特色、優勢互補、結構合理的戰略性新興產業增長引警,培育新技術、新產品、新業態、新模式。表:中國人工智能行業政策節選表:中國人工智能行業政策節選l 政策支持亦將拉動中國政策支持亦將拉動中國AIAI服務器市場規模增長。服務器市場規模增長。在當前數字經濟時代背景下,國家出臺多個政策支持AI產業發展,AI服務器行業將保持快速增長。相關企業加速布局以及人工智能應用場景的逐步落地,AI服務器在服務器整體市場中比重提高。中國的企業和研究機構積極進行人工智能服務器的技術研發和創新,包括高性能處理器、大容量內存、高
95、速存儲器和高效冷卻系統等領域的創新,以滿足計算能力和數據處理速度的需求。請務必閱讀正文之后的免責聲明及其項下所有內容AIAI服務器搭載服務器搭載AIAI芯片仍以芯片仍以GPUGPU為主,英偉達占據絕對的供應地位為主,英偉達占據絕對的供應地位l AIAI服務器搭載服務器搭載AIAI芯片仍以芯片仍以GPUGPU為主,搭載為主,搭載ASICASIC芯片服務器占比有上升趨勢。芯片服務器占比有上升趨勢。當前主流的AI芯片包括GPU、FPGA、ASIC等,其中GPU是前期較為成熟的芯片架構,屬于通用型芯片;ASIC屬于為AI特定場景定制的芯片。由于GPU通用型較強、適合大規模并行運算,設計和制造工藝成熟,
96、適用于高級復雜算法和通用性人工智能平臺。由于ASIC根據產品的需求進行特定設計和制造的集成電路,能夠更有針對性地進行硬件層次的優化,因此具有更高的處理速度和更低的能耗;相比于其他AI芯片,ASIC設計和制造需要大量的資金、較長的研發周期和工程周期。據TrendForce數據,預計2024年搭載GPU的AI服務器占比約為71%,仍占據主導地位。而隨著北美云服務商如亞馬遜、Meta等,以及國內云服務商如阿里、百度、華為等持續積極擴大自研ASIC方案,使得搭載ASIC服務器占整體AI服務器比重在2024年將提升至26%。l 英偉達仍是搭載英偉達仍是搭載GPUGPU的的AIAI服務器的絕對芯片供應商。
97、服務器的絕對芯片供應商。據TrendForce數據,單看AI服務器搭載GPU的芯片供應商中,英偉達占據絕對的主導地位,2022-2024年市占率均達到85%以上。隨著AMD發布Instinct系列AI芯片并在AI服務器方面不斷發力,其市占率有望從2022年的5.7%上升至2024年的8.1%。Intel在AI服務器芯片供應商中占比近年保持相對穩定,約占3%左右。圖:搭載不同圖:搭載不同AIAI芯片的芯片的AIAI服務器占比服務器占比圖:圖:搭載搭載GPUGPU的的AIAI服務器市場格局服務器市場格局資料來源:Trendforce,國信證券經濟研究所整理資料來源:Trendforce,國信證券經
98、濟研究所整理表:表:不同技術架構不同技術架構AIAI芯片比較芯片比較AIAI芯片芯片種類種類GPUGPUASICASIC定制化程度定制化程度通用型全定制化算力算力中高價格價格高低優點優點通用型較強、適合大規模并行運算;設計和制造工藝成熟。通過算法固化實現極致的性能和能效、平均性強;功耗低;體積??;量產后成本低。缺點缺點并行運算能力在推理段無法完全發揮。前期投入成本高;研發時間長;技術風險大。應用場景應用場景高級復雜算法和通用性人工智能平臺。當客戶處在某個特殊場景,可以為其獨立設計一套專業智能算法軟件。資料來源:億歐智庫,國信證券經濟研究所整理0%10%20%30%40%50%60%70%80%
99、90%100%202220232024E搭載GPU的AI服務器搭載其他AI芯片的AI服務器0%10%20%30%40%50%60%70%80%90%100%202220232024ENVIDIAAMDIntel請務必閱讀正文之后的免責聲明及其項下所有內容圖:圖:ASICASIC在達到在達到4040萬片后性價比相對萬片后性價比相對FPGAFPGA更高更高資料來源:鮮棗課堂公眾號,國信證券經濟研究所整理資料來源:Marvell,國信證券經濟研究所整理圖:數據中心定制加速計算芯片市場規模圖:數據中心定制加速計算芯片市場規模l ASIC專用集成電路是應特定用戶的要求,或特定電子系統的需要,專門設計、制
100、造的集成電路。根據下圖顯示,40萬片的產量是ASIC和FPGA成本高低的分界線,當產量大于40萬片時,ASIC的性價比相對FPGA更高。l 根據Marvell預測,數據中心定制加速芯片2023至2028年市場規模CAGR有望達到45.5%。2023年數據中心ASIC市場規模約66億美元,占整體數據中心加速計算芯片680億美元市場的16%。預計到2028年數據中心ASIC市場將達到429億美元,占整體數據中心加速芯片2020億美元的25%。相較于GPU,AI ASIC整體復合增速更快,達到45.4%。牧本定律擺向定制化,關注國產牧本定律擺向定制化,關注國產ASICASIC服務商服務商請務必閱讀正
101、文之后的免責聲明及其項下所有內容圖:標準化制造和定制化應用互相更替圖:標準化制造和定制化應用互相更替資料來源:土人觀芯公眾號,國信證券經濟研究所整理資料來源:土人觀芯公眾號,國信證券經濟研究所整理圖:牧本定律在標準化與定制化之間交替擺動圖:牧本定律在標準化與定制化之間交替擺動l 牧本擺動每十年波動一次,有望從標準化擺向定制化牧本擺動每十年波動一次,有望從標準化擺向定制化。1987年,原日立公司總工程師牧本次生提出牧本擺動,揭露半導體產品發展歷程總是在“標準化”與“定制化”之間交替擺動,大概每十年波動一次。牧本擺動背后是性能、功耗和開發效率之間的平衡,當算法發展達到平臺期,無法通過進一步創新來推
102、動發展時,就需要依賴于擴大規模來維持進步,這時轉向ASIC的開發就變得至關重要。然而十年后,當規模擴張遭遇限制,又會重新聚焦于算法的創新,同時伴隨半導體制造技術的進步,一些可編程解決方案在性價比上將會重新獲得競爭優勢。當前為了滿足CSP客戶更高性能和更好功能的需求,定制化芯片ASIC的需求持續提升,牧本鐘擺從標準化逐漸擺向定制化。牧本定律擺向定制化,關注國產牧本定律擺向定制化,關注國產ASICASIC服務商服務商請務必閱讀正文之后的免責聲明及其項下所有內容圖:博通已為兩家頭部圖:博通已為兩家頭部CSPCSP客戶提供客戶提供ASICASIC資料來源:Broadcom官網,國信證券經濟研究所整理資
103、料來源:Broadcom官網,國信證券經濟研究所整理圖:圖:AIAI芯片集群有望達到芯片集群有望達到100100萬張量級萬張量級l 在博通2024財年報告中,公司AI業務營收達到約122已美元,同比增長220%。同時,公司預計2027年AI業務可達市場規模為600-900億美元,客戶有望在AI芯片集群中部署100萬個芯片,當前公司已開始為三家頭部CSP客戶提供ASIC。l 國內具備較強芯片定制服務能力的公司,有望在當前定制化ASIC芯片的趨勢中收益。例如,翱捷科技基于豐富的設計經驗及雄厚的技術積累,曾為全球領先的人工智能平臺公司S、登臨科技、美國Moffett等數家知名人工智能技術企業提供先進
104、工藝下的人工智能云端推理超大規模芯片定制服務。牧本定律擺向定制化,關注國產牧本定律擺向定制化,關注國產ASICASIC服務商服務商請務必閱讀正文之后的免責聲明及其項下所有內容-30%-20%-10%0%10%20%30%40%50%01002003004005006007008009001990199119921993199419951996199719981999200020012002200320042005200620072008200920102011201220132014201520162017201820192020202120222023全球PCB產值(億美元)YoYl 印制電
105、路板(印制電路板(Printed Circuit Board,PCBPrinted Circuit Board,PCB)是指在絕緣基板上,有選擇地加工安裝孔、連接導線和裝配電子元器件的焊盤,以實現電子元器件之間的電氣互連的組裝板。由于PCB可以實現電路中各元器件之間的電氣連接,幾乎任何一臺電子設備都離不開它,它對電路的電氣性能、機械強度和可靠性都起著重要作用,因此被稱為因此被稱為“電子產品之母電子產品之母”。l 根據Prismark數據,2023年全球PCB總產值同比下滑14.9%,達到695億美金規模,Prismark預計2024年全球PCB產值將重回增長,達到730.26億美金,同比增長5
106、%。來源:Prismark,國信證券經濟研究所整理 算力需求是算力需求是PCBPCB行業行業的主要增長引擎的主要增長引擎圖:全球圖:全球PCBPCB產值(億美元)產值(億美元)全球臺式機興起歐美是主要的PCB生產國HDI技術逐漸成熟全球功能機、筆記本市場增長迅猛產能向日本轉移HDI、Flex、ICS是主要增量 2008年全球金融危機 產業鏈從日本向亞洲其他地區轉移 智能手機爆發云計算、5G、互聯網爆發19年疫情經濟推動電子產品需求請務必閱讀正文之后的免責聲明及其項下所有內容算力需求是算力需求是PCBPCB行業的主要增長引擎行業的主要增長引擎資料來源:Prismark,國信證券經濟研究所整理 l
107、 PCBPCB市場下游應用分布廣泛,主要涉及計算機、服務器、消費電子、汽車、工業、醫療、軍事航天等領域。市場下游應用分布廣泛,主要涉及計算機、服務器、消費電子、汽車、工業、醫療、軍事航天等領域。根據Prismark 2023年數據,手機占比最大,約為18.8%;其次是個人計算機和消費電子,占比分別約13.5%和13.1%;服務器/數據存儲領域的占比也均達12%左右。此外,2023年汽車的占比有所提升,達到13.2%。預計2023-2028年增速最快的是服務器和存儲相關PCB,CAGR達到11%,其次為有線通信,CAGR 6%,然后是汽車,CAGR達到5%。l 從產品種類來看,剛性板的市場規模最
108、大,其中多層板和單雙面板的產值占比分別達到36.5%和10.9%;接下來是封裝基板,產值占比為21.3%;柔性板和HDI板的產值占比分別為16.9%以及14.4%。圖圖:20232023年全球年全球PCBPCB分下游應用領域產值占比(分下游應用領域產值占比(%)PC13.5%服務器/數據存儲11.8%其他計算機5.3%手機18.8%有線基礎設施8.6%無線基礎設施4.5%消費電子13.1%汽車13.2%工業4.1%醫療2.1%軍事/航天航空5.1%3%11%2%5%6%4%5%5%4%4%5%0%2%4%6%8%10%12%PC服務器/存儲其他計算機手機有線通信無線通信消費電子汽車工控醫療軍事
109、/航天航空圖圖:23-2823-28年分應用領域增速預期年分應用領域增速預期圖圖:20222022年全球年全球PCB細分產品的細分產品的產值產值占比(占比(%)單雙面板10.9%多層板36.5%HDI板14.4%封裝基板21.3%柔性板16.9%資料來源:Prismark,國信證券經濟研究所整理 資料來源:Prismark,國信證券經濟研究所整理 請務必閱讀正文之后的免責聲明及其項下所有內容算力需求是算力需求是PCBPCB行業的主要增長引擎行業的主要增長引擎l 服務器平臺的升級會要求服務器平臺的升級會要求PCBPCB板層數增加以及板層數增加以及CCLCCL介電損介電損耗降低。耗降低。PCB在服
110、務器中的應用主要包括加速板、主板、電源背板、硬盤背板、網卡、Riser卡等,特點主要體現在高層數、高縱橫比、高密度及高傳輸速率。l 1)PCB1)PCB板層數增加:板層數增加:隨著服務器平臺的演進,服務器PCB持續向更高層板發展,對應于PCIe3.0的Purely服務器平臺一般使用8-12層的PCB主板;但Whitley搭載的PCIe4.0總線則要求12-16層的PCB層數;而對于未來將要使用PCIe5.0的Eagle Stream平臺而言,PCB層數需要達到16-18層以上。根據Prismark數據,18層以上PCB單價約是12-16層價格的3倍。圖:服務器升級要求圖:服務器升級要求PCBP
111、CB層數增加層數增加英特爾英特爾Purley(Sky Lake)Purley(Cascade Lake)WhitleyEagle StreamCPU制程14nm+14nm+10nm+10nm+PCIePCIe3.0PCIe3.0PCIe4.0PCIe5.0內存6DDR46DDR48DDR48DDR5核數28282848傳輸速率(Gbps)22L范圍無變化,但是高層占比會提升最大層數24-2830-34線間距4 mil 3.5 mil材料Mid-Loss到Very-Loss層壓板、薄銅電性能要求更高、需要ultra low-loss,extreme,low-loss層壓板、極薄型銅請務必閱讀正文
112、之后的免責聲明及其項下所有內容算力需求是算力需求是PCBPCB行業的主要增長引擎行業的主要增長引擎l HDIHDI在在20202020年、年、20212021年增長強勁,分別同比增長年增長強勁,分別同比增長9.6%9.6%、19.6%19.6%,20222022年年HDIHDI由于中國智能手機需求下滑,市場下滑由于中國智能手機需求下滑,市場下滑0.4%0.4%。2023年,由于高存貨、下游需求疲軟、供大于求和市場競爭加劇導致價格下滑,整體市場下滑嚴重。1Q24,智能手機的HDl板產量較去年有所改善,由于利潤率低,供應能力有所萎縮,低端HDI供應緊張,平均售價從2023年的歷史低點回升20%以上
113、。1H24,新的應用領域增速迅猛,衛星通信、汽車智能駕駛和中控板,無線通信、AI GPU模組卡、可穿戴設備、AR/VR等推動了高端HDI的需求。l 預計預計HDIHDI市場將從市場將從20232023年的年的105105億美元增長至億美元增長至20282028年的年的142142億美元,億美元,CAGRCAGR達到達到6.2%6.2%。下游具體的應用占比來看,2023年占比最大的智能機份額從50%下滑到45%,增速最快的是有線和無線基建,其次就是服務器和數據存儲,CAGR達到16%。由于高端產品需求增速更快,由于高端產品需求增速更快,3+HDI3+HDI及及以上的產品占比預計將從以上的產品占比
114、預計將從20232023年的年的51%51%提升到提升到54%54%。圖圖:HDIHDI下游應用下游應用圖圖:HDIHDI分種類的占比分種類的占比0%10%20%30%40%50%60%70%80%90%100%20232028F電腦服務器/存儲手機有線通信無線通信消費電子汽車工業醫療軍事/航天航空0%20%40%60%80%100%120%20232028F1+HDI2+HDI3+HDIAny-LayermSAP HDI資料來源:Prismark,國信證券經濟研究所整理資料來源:Prismark,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容算力需求是算力需求是PCBPC
115、B行業的主要增長引擎行業的主要增長引擎資料來源:Prismark,國信證券經濟研究所整理圖:全球圖:全球服務器系統及組件服務器系統及組件PCBPCB市場規模市場規模l 根據Prismark數據,2023年全球服務器及相關系統組件的PCB市場規模約為51.77億美元,預計未來將以9%的增速增長至2028年的79.74億美元。l 未來五年未來五年AIAI系統、服務器、存儲、網絡設備等是系統、服務器、存儲、網絡設備等是PCBPCB需求增長的主要動能。需求增長的主要動能。AI服務器主要涉及3塊產品:GPU的基板需要用到20層以上的高多層板,并且使用高速材料;而小型AI加速器模組通常使用HDI來達到高密
116、度互聯,通常是4-5階的HDI;傳統的CPU的母板。并且,隨著AI服務器升級,GPU主板也將逐步升級為HDI,因此HDI將是未來5年增速最快的PCB,根據Prismark預計,2023-2028年HDI的CAGR將達到16.3%,是增速最快的品類。010002000300040005000600070008000900020232024E2028F普通服務器AI服務器存儲設備其他(HDD、SSD等)CAGR9%01,0002,0003,0004,0005,0006,0007,0008,0009,00020232028F單位:$M普通板4-6多層板8-16多層板18+多層板HDIFPC4.2%7
117、.8%13.6%16.3%7.1%CAGR圖:服務器圖:服務器PCBPCB市場分產品占比市場分產品占比資料來源:Prismark,國信證券經濟研究所整理請務必閱讀正文之后的免責聲明及其項下所有內容風險提示風險提示請務必閱讀正文之后的免責聲明及其項下所有內容風險提示風險提示1 1、宏觀、宏觀AIAI應用推廣不及預期。應用推廣不及預期。AI技術在應用推廣的過程可能面臨各種挑戰,比如:(1)AI技術需要更多的時間來研發和調試,而且在應用過程中可能會受到數據質量、資源限制和技術能力等因素的制約;(2)AI技術的實施需要更多的資源和資金支持;(3)市場競爭可能也會影響企業在AI應用推廣方面的表現。因此,
118、投資者應審慎評估相關企業的技術實力、資金實力以及管理能力,相關企業的AI應用存在推廣進度不及預期的風險。2 2、AIAI投資規模低于預期。投資規模低于預期。盡管AI技術在過去幾年中受到廣泛關注,但AI相關領域的企業投資回報并不總是符合預期。部分企業在AI領域可能缺乏足夠的經驗和資源,難以把握市場機會。此外,市場競爭也可能會影響企業的投資力度。因此,存在AI領域投資規模低于預期,導致企業相關業務銷售收入不及預期的風險。3 3、AIAI服務器滲透率提升低于預期。服務器滲透率提升低于預期。雖然AI服務器的應用已經較為廣泛,但AI服務器滲透率提升的速度存在低于預期的風險,這與企業對AI技術的投資意愿有
119、關,也可能與市場需求和技術進展的速度有關。4 4、AIAI監管政策收緊。監管政策收緊。由于AI技術的快速發展和廣泛應用,監管機構可能會加強對AI技術的監管力度。監管機構可能會制定嚴格的AI技術使用規定,以保障人們的隱私和數據安全,這些監管政策可能會對企業的業務模式和發展戰略造成影響。請務必閱讀正文之后的免責聲明及其項下所有內容免責聲明免責聲明分析師承諾分析師承諾作者保證報告所采用的數據均來自合規渠道;分析邏輯基于作者的職業理解,通過合理判斷并得出結論,力求獨立、客觀、公正,結論不受任何第三方的授意或影響;作者在過去、現在或未來未就其研究報告所提供的具體建議或所表述的意見直接或間接收取任何報酬,
120、特此聲明。重要聲明重要聲明本報告由國信證券股份有限公司(已具備中國證監會許可的證券投資咨詢業務資格)制作;報告版權歸國信證券股份有限公司(以下簡稱“我公司”)所有。本報告僅供我公司客戶使用,本公司不會因接收人收到本報告而視其為客戶。未經書面許可,任何機構和個人不得以任何形式使用、復制或傳播。任何有關本報告的摘要或節選都不代表本報告正式完整的觀點,一切須以我公司向客戶發布的本報告完整版本為準。本報告基于已公開的資料或信息撰寫,但我公司不保證該資料及信息的完整性、準確性。本報告所載的信息、資料、建議及推測僅反映我公司于本報告公開發布當日的判斷,在不同時期,我公司可能撰寫并發布與本報告所載資料、建議
121、及推測不一致的報告。我公司不保證本報告所含信息及資料處于最新狀態;我公司可能隨時補充、更新和修訂有關信息及資料,投資者應當自行關注相關更新和修訂內容。我公司或關聯機構可能會持有本報告中所提到的公司所發行的證券并進行交易,還可能為這些公司提供或爭取提供投資銀行、財務顧問或金融產品等相關服務。本公司的資產管理部門、自營部門以及其他投資業務部門可能獨立做出與本報告中意見或建議不一致的投資決策。本報告僅供參考之用,不構成出售或購買證券或其他投資標的要約或邀請。在任何情況下,本報告中的信息和意見均不構成對任何個人的投資建議。任何形式的分享證券投資收益或者分擔證券投資損失的書面或口頭承諾均為無效。投資者應
122、結合自己的投資目標和財務狀況自行判斷是否采用本報告所載內容和信息并自行承擔風險,我公司及雇員對投資者使用本報告及其內容而造成的一切后果不承擔任何法律責任。證券投資咨詢業務的說明證券投資咨詢業務的說明本公司具備中國證監會核準的證券投資咨詢業務資格。證券投資咨詢,是指從事證券投資咨詢業務的機構及其投資咨詢人員以下列形式為證券投資人或者客戶提供證券投資分析、預測或者建議等直接或者間接有償咨詢服務的活動:接受投資人或者客戶委托,提供證券投資咨詢服務;舉辦有關證券投資咨詢的講座、報告會、分析會等;在報刊上發表證券投資咨詢的文章、評論、報告,以及通過電臺、電視臺等公眾傳播媒體提供證券投資咨詢服務;通過電話
123、、傳真、電腦網絡等電信設備系統,提供證券投資咨詢服務;中國證監會認定的其他形式。發布證券研究報告是證券投資咨詢業務的一種基本形式,指證券公司、證券投資咨詢機構對證券及證券相關產品的價值、市場走勢或者相關影響因素進行分析,形成證券估值、投資評級等投資分析意見,制作證券研究報告,并向客戶發布的行為。國信證券投資評級國信證券投資評級投資評級標準投資評級標準類別類別級別級別說明說明報告中投資建議所涉及的評級(如有)分為股票評級和行業評級(另有說明的除外)。評級標準為報告發布日后6到12個月內的相對市場表現,也即報告發布日后的6到12個月內公司股價(或行業指數)相對同期相關證券市場代表性指數的漲跌幅作為
124、基準。A股市場以滬深300指數(000300.SH)作為基準;新三板市場以三板成指(899001.CSI)為基準;香港市場以恒生指數(HSI.HI)作為基準;美國市場以標普500指數(SPX.GI)或納斯達克指數(IXIC.GI)為基準。股票投資評級股票投資評級優于大市股價表現優于市場代表性指數10%以上中性股價表現介于市場代表性指數10%之間弱于大市股價表現弱于市場代表性指數10%以上無評級股價與市場代表性指數相比無明確觀點行業投資評級行業投資評級優于大市行業指數表現優于市場代表性指數10%以上中性行業指數表現介于市場代表性指數10%之間弱于大市行業指數表現弱于市場代表性指數10%以上請務必閱讀正文之后的免責聲明及其項下所有內容國信證券經濟研究所國信證券經濟研究所深圳深圳深圳市福田區福華一路125號國信金融大廈36層郵編:518046 總機:0755-82130833上海上海上海浦東民生路1199弄證大五道口廣場1號樓12樓郵編:200135北京北京北京西城區金融大街興盛街6號國信證券9層郵編:100032