《通信行業深度:AI文生視頻多模態應用的下一站-231009(24頁).pdf》由會員分享,可在線閱讀,更多相關《通信行業深度:AI文生視頻多模態應用的下一站-231009(24頁).pdf(24頁珍藏版)》請在三個皮匠報告上搜索。
1、請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 證券研究報告|行業深度 2023 年 10 月 09 日 通信通信 AI 文生視頻:多模態應用的下一站文生視頻:多模態應用的下一站 市場認為,AI 應用已經逐漸步入成熟期,但未見殺手級應用。本篇報告中,我們謹以“文生視頻”這一多模態應用為例,闡述 AI應用的發展尚處于早期,相對應地,算力需求遠未見頂。文生視頻是多模態文生視頻是多模態 AIGCAIGC 圣杯,優化迭代速度慢。圣杯,優化迭代速度慢。視頻是多幀圖像的組合,然而文生視頻在文生圖的基礎上增加了時間維度,技術實現更困難。即便是 Meta 和 Google 這樣的硅谷人工智能巨頭,在文生視頻
2、上進展緩慢,它們分別推出的 Make-A-Video 和 Phenaki 均尚未公測。文生視頻底層模型及技術仍在優化,未篩選出最優模型。文生視頻底層模型及技術仍在優化,未篩選出最優模型。文生視頻技術主要發展過程經歷了基于 GAN 和 VAE、基于 Transformer 模型、基于擴散模型三個階段。目前主流的文生視頻模型主要依托 Transformer 模型和擴散模型。1)基于Transformer的代表Phenaki突破了視頻生成時長限制,但效果相對粗糙缺少細節。2)基于擴散模型的代表 Make-A-Video 重在提升視頻質量,但其視頻時長均在 4s 以內。文生視頻效果各異,文生視頻效果各
3、異,總體質量較低??傮w質量較低。當前文生視頻可公測應用較少,僅有 RunwayGen-2、ZeroScope 及 Pika Labs 等少數幾個,它們有如下共同問題:1)復雜人物動作生成幀連續效果較差;2)非日常場景的視頻架構能力連續能力一般;3)多主體視頻生成缺乏邏輯連續性等。文生視頻當前商用化程度較低,可從圖片生成看其商業前景。文生視頻當前商用化程度較低,可從圖片生成看其商業前景。1)根據七麥數據,圖片生成類應用在多模態大模型中,表現出較強的收費能力,應用數量上占比最高。2)當前唯一收費的文生視頻應用(Runway Gen-2),商業模式與圖片生成趨同,即主要按照生成量定價??春萌讼裆杉?/p>
4、分領域,但營收持續增長能力仍待驗證??春萌讼裆杉毞诸I域,但營收持續增長能力仍待驗證。1)Lensa AI推出人像生成功能后,去年 12 月前 12 日內創收 2930 萬美元,但 2023年 7 月全球收入已回落為 100 萬美元;2)妙鴨相機上線即火爆,半月營收估計超過 29 萬美元,后續須上線新模板、新玩法維持營收增長??春盟懔浯髲S在多模態生成領域的發展??春盟懔浯髲S在多模態生成領域的發展。1)文生圖應用Midjourney 日活達 1500 萬,年收入超 1 億美元,它推出的多版無限量套餐、高速 GPU 服務反映出市場對算力的巨大需求。2)目前國內文生圖多為計次付費,尚未出現無
5、限量套餐,或因算力受限,我們認為,具有算力儲備的云服務廠商在發展視頻生成類應用上具有天然優勢??春脴I務協同向發展,看好文生視頻與文生圖、圖生視頻的看好業務協同向發展,看好文生視頻與文生圖、圖生視頻的聯動。聯動。AI 對產品價值的拉動表現為:1)促活、拉新:Adobe、Microsoft 365 Copilot 分別在軟件原有基礎上推出 AI 工具;2)提升產品價格:Office Copilot 是基于 GPT-4 API 的應用,Copilot 加入后 Office 當前四種商業版整體訂閱價格漲幅達 53-240%。我們看好文生視頻能與原有產品產生協同,降本增效的公司,例如游戲、影視制作等領域
6、的公司。投資建議:投資建議:1)算力:AIGC 蓬勃發展的基石,建議關注光通信,包括中際旭創、天孚通信、新易盛、太辰光、德科立;算力設備:盛科通信、恒為科技、銳捷網絡、寒武紀、美格智能、紫光股份、工業富聯、中興通訊等;算力租賃:中貝通信、云賽智聯等;2)模型層:建議關注金山辦公、萬興科技、科大訊飛等;3)應用層:看好游戲的迭代創新,建議關注愷英網絡、神州泰岳、盛天網絡、游族網絡等。風險提示風險提示:倫理風險、知識產權及版權風險、計算資源限制。增持增持(維持維持)行業行業走勢走勢 作者作者分析師宋嘉吉分析師宋嘉吉 執業證書編號:S0680519010002 郵箱: 分析師孫爽分析師孫爽 執業證書
7、編號:S0680521050001 郵箱: 相關研究相關研究 1、通信:亞馬遜重金投資 Anthropic,AI 戰場的合縱連橫2023-09-26 2、通信:AI 算力再起,開啟全球共振2023-09-24 3、通信:“文生游戲”誕生,Roblox 開啟游戲 AIGC革命2023-09-18-16%0%16%32%48%64%80%2022-102023-022023-062023-09通信滬深3002023 年 10 月 09 日 P.2 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 內容目錄內容目錄 1 文生視頻,多模態 AIGC 圣杯.4 1.1 相較于文字和圖片,視頻能承載的信息
8、量更大.4 1.2 當前公測的文生視頻應用數量較少.4 1.3 文生視頻,難在哪里?.5 2 技術路線沿革:文生視頻,哪種技術更強?.6 2.1 階段一:基于 GAN 和 VAE,以 Text2Filter 為代表.6 2.2 階段二:基于 Transformer,以 Phenaki 為代表.6 2.3 階段三:基于擴散模型,以 Make-A-Video 和阿里通義為代表.7 2.3.1 Meta:Make-A-Video.8 2.3.2 阿里達摩院:通義文生視頻大模型.9 2.3.3 Zeroscope:由阿里達摩院 Modelscope 文生視頻模型優化得出.9 3 實測:文生視頻模型當前
9、風格各異,總體質量較低.10 3.1 復雜人物動作生成幀連續效果較差.10 3.2 非日常場景的視頻架構能力連續能力一般.11 3.3 多主體視頻生成缺乏邏輯連續性.12 4 從圖片生成看文生視頻的商業前景.13 4.1 為什么選擇圖片生成作為對標對象?.13 4.1.1 圖片生成相對成熟.13 4.1.2 已經收費的視頻生成應用,商業模式與圖片生成趨同.13 4.2 細分領域:看好人像生成,短期內變現較快.14 4.2.1 Lensa AI:人像生成功能推出后用戶付費意愿高.14 4.2.2 妙鴨相機:國內首個“破圈”應用,寫真生成引起社交裂變.15 4.3 競爭優勢:看好有算力儲備的公司.
10、16 4.3.1 Midjourney:“無限量”套餐攏獲用戶,映射市場對算力的高需求.16 4.3.2 騰訊云:云服務廠商加緊多模態生成布局.17 4.3.3 無界 AI:“按時長付費”和“潮汐生成模式”彰顯算力底座特性.18 4.4 業務協同:看好多模態生成與原有業務有協同的公司.19 4.4.1 Adobe:AI 生成工具有望帶來增量付費用戶.19 4.4.2 Microsoft 365 Copilot:推出增強功能,高定價反應市場強需求.20 4.5 展望:看好文生視頻與文生圖、圖生視頻的聯動.20 5 投資建議.21 風險提示.23 圖表目錄圖表目錄 圖表 1:文生圖與文生視頻發展進
11、程.4 圖表 2:Phenaki 與 Make-A-Video 模型對比.5 圖表 3:基于 GAN 及 VAE 文生視頻示意圖.6 圖表 4:Phenaki 文生視頻示意圖.7 圖表 5:Phenaki 模型原理圖.7 圖表 6:擴散模型原理示意圖.8 圖表 7:Make-A-Video 視頻生成過程圖解.8 圖表 8:Make-A-Video 模型原理圖.8 圖表 9:通義-文本生成視頻大模型-英文-通用領域-v1.0 模型原理示意圖.9 圖表 10:Runway、ZeroScope、Pika Labs 生成時長、平臺對比.10 XZiXnXlY8VkWrNnRqN9P8Q8OmOoOoM
12、tQfQpOoOkPpOpO9PnMnNuOnPrRwMtPqQ2023 年 10 月 09 日 P.3 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 圖表 11:Runway Gen-2、ZeroScope、PikaLabs 人物動作應用效果對比.11 圖表 12:Runway Gen-2、ZeroScope、PikaLabs 非日常場景應用效果對比.11 圖表 13:RunwayGen-2、ZeroScope、PikaLabs 多主體應用效果對比.12 圖表 14:各家圖像生成類模型/應用對比.13 圖表 15:Runway Gen-2 套餐收費標準及對應權益.14 圖表 16:Len
13、sa AI“魔法頭像”應用截圖.14 圖表 17:妙鴨相機寫真制作過程圖.15 圖表 18:妙鴨相機榜單排名.15 圖表 19:妙鴨相機近一月收入估算(截至 2023 年 8 月 14 日).16 圖表 20:Midjourney 套餐收費標準及對應權益.16 圖表 21:騰訊云 AI 繪畫 PaaS 版收費標準.17 圖表 22:騰訊云 AI 繪畫功能示意圖.17 圖表 23:無界 AI 專業版購買時長收費標準.18 圖表 24:無界 AI 權益卡等級與對應權益.18 圖表 25:Adobe Firefly 功能示意圖.19 圖表 26:Firefly 定價方案.19 圖表 27:科幻預告片
14、Trailer:Genesis(創世紀)2 周內在 YouTube 上達 14 萬播放量.20 圖表 28:投資標的.22 2023 年 10 月 09 日 P.4 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 1 文生視頻,多模態文生視頻,多模態 AIGC 圣杯圣杯 文生視頻當前處于起步階段,隨著文生圖、圖片對話技術的成熟,文生視頻成為多模態大模型下一步發展的重點。目前國內亦有文生視頻功能,但主要停留在圖片組合階段。我們認為,多模態,尤其是文生視頻的發展將為應用的爆發提供更立體的基礎設施,同時對算力的需求也將指數級增長,對 AI 下階段的發展至關重要。本文所介紹的文生視頻是指內容之間有關
15、聯性與協同性,能生成有連續邏輯的視頻模型。1.1 相較于文字和圖片,視頻能承載的信息量更大相較于文字和圖片,視頻能承載的信息量更大 相較于文字和圖片,視頻在多維信息表達、畫面豐富性及動態性方面有更大優勢。視頻可以結合文本、圖像、聲音及視覺效果,在單一媒體中融合多種信息形式。從視頻生視頻到文生視頻、圖生視頻,多模態的發展重視用更少的用戶輸入信息量實從視頻生視頻到文生視頻、圖生視頻,多模態的發展重視用更少的用戶輸入信息量實現更豐富的現更豐富的 AI 生成結果。生成結果。自 Runway 推出 Gen-1 視頻生視頻工具后,AI 處理視頻、圖片功能在社交平臺爆火,其背后即是多模態大模型發展的表現之一
16、。在多模態應用方面,當前可應用的模態轉化主要集中在文字、圖片、視頻的轉化。1.2 當前公測的文生視頻應用數量較少當前公測的文生視頻應用數量較少 文生圖領域,2021 年 1 月 5 日,Open AI 發布其首個基于 Clip 模型的文生圖模型DALLE,但并未開源,自此眾多公司爭先研發文生圖模型;2022 年 3 月 13 日,Midjourney 發布可公測的文生圖模型,其效果優越,引發了公眾關于 AI 藝術的討論。目前已積累較多用戶、可穩定使用的文生圖模型主要有 Midjourney、Stable Diffusion、DALL E 等。文生視頻領域,目前公眾可使用的主要有 Runway
17、Gen-1、RunwayGen-2、ZeroScope、Pika Labs。其中,除 Runway 收費外,ZeroScope、Pika Labs 均可免費使用。文生視頻發展速度慢于文生視頻,在視頻質量、視頻時長等方面突破較為困難,相比于文生圖的快速優化迭代,文生視頻的進展較慢。圖表 1:文生圖與文生視頻發展進程 資料來源:Open AI、Microsoft、Midjourney、Google、Stability AI、Adobe、阿里達摩院、百度、魔塔,國盛證券研究所 2023 年 10 月 09 日 P.5 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 即便是 Meta和 Google
18、這樣的硅谷人工智能巨頭,在文生視頻方面也進展緩慢。她們分別推出的 Make-A-Video 和 Phenaki 均尚未公測,從官方公布的 Demo 看,Phenaki 雖然可生成任意長度視頻,但其質量較差且欠缺真實性;Make-A-Video 無需“文本-視頻”配對數據集,視頻質量相對較好,但時長短。1.3 文生文生視頻,難在哪里?視頻,難在哪里?文生視頻更困難。文生視頻更困難。技術實現本身更困難。技術實現本身更困難。從本質看,視頻是連續的多幀圖像,然而文生圖到文生視頻并非簡單的圖片組合,而文生視頻在文生圖的基礎上增加了時間維度。文生視頻需突破瓶頸多。文生視頻需突破瓶頸多??捎玫奈纳曨l需具備
19、一定的時長,優良的畫面質量,一定的創意邏輯性及還原指令要求能力。計算難度大計算難度大 計算成本高。計算成本高。通過文本生成高質量圖片對算力的要求已經達到了一定程度,由于生成視頻模型復雜度提升及其時長、分辨率提高等因素,文生視頻對算力的需求進一步加大。計算復雜性提升。計算復雜性提升。文生視頻需要進行高維特征融合,模型復雜度顯著提升。數據要求高數據要求高 缺乏高質量配對數據集。缺乏高質量配對數據集。視頻的合理性及連貫性體現模型的架構能力、創造力、理解能力。例如,當用戶輸入“一只大象在廚房做飯”這類文字指令時,模型需理解文字指令內容,并根據訓練數據庫選取畫面及對象組合,過程中可能出現缺乏相應素材、難
20、以合理組合人物、難以合理架構場景等問題。文生視頻需要大量的文本-視頻配對數據,但當前缺乏相應數據集,數據標注工作量極高。缺乏具備多樣性的數據集。缺乏具備多樣性的數據集。由于用戶的文本指令要求各異,缺乏多樣數據集使得模型無法生成預期效果。技術融合難度大技術融合難度大 多領域融合技術復雜性提升。多領域融合技術復雜性提升。文生視頻涉及自然語言處理、視覺處理、畫面合成等領域,跨學科多領域使其需攻克的技術難點增加。圖表 2:Phenaki 與 Make-A-Video 模型對比 Phenaki Make-A-Video 模型原理模型原理 Transformer 擴散模型 數據集類型數據集類型 文本+圖像
21、;文本+視頻 文本+圖像 突破點突破點 視頻長度 視頻品質 資料來源:Phenaki:Variable length video generation from open domain textual descripitons、Make-A-Video:Text-To-Video generation without Text-Video data,國盛證券研究所 2023 年 10 月 09 日 P.6 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 2 技術路線沿革:文生視頻,哪種技術更強?技術路線沿革:文生視頻,哪種技術更強?同文生圖及大語言模型的發展類似,文生視頻也在不斷探索中尋找更
22、為高效且效果更佳的基礎模型。目前主流的文生視頻模型主要依托 Transformer 模型和擴散模型。目前阿里 ModelScope 社區中提供了可用的、基于擴散模型的開源文生視頻模型,促進了如 ZeroScope 高質量文生視頻模型的發展,有利于后續文生視頻的技術迭代優化。2.1 階段一:基于階段一:基于 GAN 和和 VAE,以,以 Text2Filter 為代表為代表 原理:原理:文生視頻發展早期主要基于 GAN(Generative Adversarial Nets,生成式對抗網絡)和 VAE(Variational autoencoder,變分自編碼器)進行視頻生成。GAN 由生成器和
23、判別器構成,生成器類似于小偷,生成器生成圖片;判別器類似于警察,負責判斷是生成器生成圖片還是真實圖片。VAE由編碼器及解碼器構成,其使得圖片能夠編碼成易于表示的形態,并且這一形態能夠盡可能無損地解碼回原真實圖像。生成過程分為兩步:首先,利用條件 VAE 模型從文本中提取出要點,即靜態和通用的特征,生成視頻的基本背景;再借助 GAN 框架中的神經網絡生成視頻細節。問題問題:應用范圍窄;僅適用靜態、單一畫面;分辨率低。代表代表:Text2Filter。圖表 3:基于 GAN 及 VAE 文生視頻示意圖 資料來源:Video Generation From Text,國盛證券研究所 2.2 階段二:
24、基于階段二:基于 Transformer,以,以 Phenaki 為代表為代表 原理原理:Transformer 模型在文本及圖像生成中均得到了廣泛應用,因此也成為文生視頻使用較多的框架之一,但各模型在具體應用上仍有差別。主要思路即輸入文本后利用 Transformer 模型編碼,將文本轉化為視頻令牌,進行特征融合后輸出視頻。問題問題:訓練成本高;對配對數據集需求大。代表代表:Phenaki、Cog Video、VideoGPT。Phenaki 是基于是基于 Transformer 框架進行文生視頻的代表之一,其突破了文生視頻的時框架進行文生視頻的代表之一,其突破了文生視頻的時長限制進行任意時
25、長視頻生成。長限制進行任意時長視頻生成。Phenaki 模型基于 1.4s 左右的短視頻進行訓練,通過連2023 年 10 月 09 日 P.7 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 續的文字指令生成連續的較短時長的視頻并串聯成 1 分鐘左右的長視頻。例如,通過輸入一段類似故事的文字指令,從而實現逐個短視頻的銜接成為長視頻。圖表 4:Phenaki 文生視頻示意圖 資料來源:Phenaki:Variable length video generation from open domain textual descripitons,國盛證券研究所 圖表 5:Phenaki 模型原理圖
26、 資料來源:Phenaki:Variable length video generation from open domain textual descripitons,國盛證券研究所 2.3 階段三:基于擴散模型,以階段三:基于擴散模型,以 Make-A-Video 和阿里通義為代表和阿里通義為代表 原理原理:當前擴散模型是文生視頻領域使用更廣的架構之一。通過預訓練模型進行文本特征提取后,再進行文本到圖片,圖片到視頻的生成,過程中需基于擴散模型進行。簡單來說,擴散模型即在圖片上逐漸添加高斯噪聲再進行反向操作。以擴散模型為基礎的文生視頻模型,一般是在文生圖基礎上增加時間維度實現視頻生成。擴散模
27、型在語義理解、內容豐富性上更有優勢。問題問題:耗時長。代表代表:Make-A-Video、Video LDM、Text2Video-Zero、Runway-Gen1、Runway-Gen2 以及 NUWA-XL。2023 年 10 月 09 日 P.8 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 2.3.1 Meta:Make-A-Video Make-A-Video 是基于擴散模型的代表之一,其重點在于提升視頻品質。是基于擴散模型的代表之一,其重點在于提升視頻品質。其模型訓練時間較短,無需“文本-視頻”配對數據即可生成視頻。Make-A-Video 生成視頻主要思路為首先接受文字指令,
28、后利用 CLIP 文字解碼將其轉化為向量;接著先驗網絡將 CLIP文本向量“翻譯”到對應的 CLIP 圖像向量;后利用 Base Diffusion Model(一種文生圖的模型)生成視頻的基本框架;此處得到額外的卷積層和注意力層到時間維度;后利用Temporal Super-Resolution(TSR)進行幀插值以補充關鍵細節,最后利用兩個空間超分辨率模型升級各個幀的分辨率。圖表 7:Make-A-Video 視頻生成過程圖解 資料來源:Make-A-Video:Text-To-Video generation without Text-Video data,國盛證券研究所 圖表 8:Ma
29、ke-A-Video 模型原理圖 資料來源:Make-A-Video:Text-To-Video generation without Text-Video data,國盛證券研究所 圖表 6:擴散模型原理示意圖 資料來源:Diffusion Models in Vision:A Survey,國盛證券研究所 2023 年 10 月 09 日 P.9 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 2.3.2 阿里達摩院:通義文生視頻大模型阿里達摩院:通義文生視頻大模型 通義通義-文本生成視頻大模型文本生成視頻大模型-英文英文-通用領域通用領域-v1.0 是由阿里達摩院提供的、發布在阿里是由
30、阿里達摩院提供的、發布在阿里ModelScope 平臺上的開源文生視頻大模型,目前仍在集成中,暫未開放公測。平臺上的開源文生視頻大模型,目前仍在集成中,暫未開放公測。通義-文本生成視頻大模型僅支持英文輸入,基于多階段文本到視頻生成擴散模型。根據Model Scope 官網,該模型整體參數約 60 億,由五個子網格構成:文本特征提?。豪脠D文預訓練模型 CLIP ViT-L/14336px 的 text encoder 來提取文本特征。文本到圖像特征擴散模型:Diffusion prior 部分,以 CLIP text embedding 為條件,輸出 CLIP image embedding。
31、圖像特征到 64x64 視頻生成模型:同樣采用 diffusion model,以 GLIDE 模型中UNet 結構為基礎改造 UNet3D 結構,采用 cross attention 實現 image embedding 嵌入,輸出 16x64x64 視頻。視頻插幀擴散模型(16X64x64 到 64X64x64):diffusion 視頻插幀模型,輸入包括16x64x64 視頻、image embedding,輸出 64X64x64 視頻,其中 16x64x64 視頻復制 4 次到 64X64x64 以 concat 形式輸入、image embedding 同樣以 cross atten
32、tion形式嵌入。視頻超分擴散模型(64X64x64 到 64X256x256):diffusion 視頻超分模型,同樣為UNet3D 結構,推理過程輸入 64X64x64 視頻,輸出 64X256x256 視頻。圖表 9:通義-文本生成視頻大模型-英文-通用領域-v1.0 模型原理示意圖 資料來源:ModelScope 官網,國盛證券研究所 2.3.3Zeroscope:由阿里達摩院:由阿里達摩院 Modelscope 文生視頻模型優化得出文生視頻模型優化得出 在我們找到的三個文生視頻模型(在我們找到的三個文生視頻模型(Runway Gen-2、Pika Labs 和和 Zeroscope)
33、中,)中,Zeroscope 明確提出其由開源模型優化而來。我們認為,這在一定程度上代表了一種明確提出其由開源模型優化而來。我們認為,這在一定程度上代表了一種新的技術路線新的技術路線基于開源,開枝散葉?;陂_源,開枝散葉。ZeroScope 所依托的文本生成視頻大模型是阿里達摩院 vilab“modelscope-damo-text-to-video-synthesis”,后者由文本特征提取、文本特征到視頻隱空間擴散模型、視頻隱空間到視頻視覺空間這 3 個子網絡組成,整體模型參數約 17 億。ZeroScope 由兩個組件構成:Zerscope_v2 567w(用于以較低分辨率快速創建內容)和
34、 Zeroscope_v2 XL(用于將內容升級到高清分辨率)。ZeroScope V3 目前在 Discord 服務器內測試,即將推出。2023 年 10 月 09 日 P.10 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 3 實測:文生視頻模型當前風格各異,總體質量較低實測:文生視頻模型當前風格各異,總體質量較低 對于文生視頻應用,用戶主要關注視頻生成質量、是否可定制化生成特定內容(如風格、可對生成內容調整細節等)、使用簡易程度等。盡管當前已有可公測的應用,但由于生成結果粗糙等問題,文生視頻并未在實際的媒體內容生成、創意制作領域得到廣泛應用。具體來看,當前可測試的產品風格各異、總體質
35、量較低:RunwayGen-1、Gen-2:是當前文生視頻領域實際應用最“出圈”的模型,具有較好的畫面質感,其功能眾多,可在文字、圖片、視頻中自由轉化。ZeroScope:是目前文生視頻領域高質量的開源大模型之一。ZeroScope 在ModelScope 的模型基礎上優化而來,能提供更高的分辨率。ZeroScope 可供用戶免費使用,盡管視頻分辨率、生成質量與 Runway Gen-2 有一定差距,但其后續潛力大。PikaLabs:為近期發布的文生視頻平臺,該模型一經發布便因其真實感、動作連續性效果好引發關注。從生成時間看,當前的文生視頻結果時間短,目前 Runway Gen-2 最長可生成
36、 18 秒視頻內容,一般其他可公測使用文生視頻模型生成結果均在 4s 左右,且無法融合音頻。從生成平臺看,與 Runway、ZeroScope 不同,PikaLabs 采取了與 Midjourney 相同的應用平臺,當前可通過申請在Discord端試用(Discord是一款可進行社群交流的數字發行平臺,用戶可發布文字、圖片、視頻、音頻等內容)。圖表 10:Runway、ZeroScope、Pika Labs 生成時長、平臺對比 模型名稱模型名稱 最長生成視最長生成視頻時長頻時長(秒)(秒)平均生成所需時平均生成所需時間(秒)間(秒)應用平臺應用平臺 Runway Gen-2 18 60 網頁、
37、APP PikaLabs 4 40 Discord ZeroScope 3 80 Hugging Face(網頁)資料來源:Runway、ZeroScope、Pika Labs,國盛證券研究所 目前的文生視頻模型產出結果質量較低,主要存在以下問題:時長有限。分辨率低,細節粗糙,畫質低,畫面模糊,不清晰。語義理解困難,生成內容不合邏輯,人體器官靜態形象不合理,動作不合理。視頻對象運動缺乏連貫性,場景變化不自然,多物體運動中發生混同。3.1 復雜人物動作生成幀連續效果較差復雜人物動作生成幀連續效果較差 復雜人物動作的視頻生成考驗文生視頻模型的幀連續效果及動作理解能力。復雜人物動作的視頻生成考驗文生
38、視頻模型的幀連續效果及動作理解能力。從測試效果看:RunwayGen2:基本完成文字指令要求,突出“一個女孩”人物主題,跳舞動作有一定流暢性,但后續出現身體器官重疊問題;PikaLabs:未理解文字指令主題“一個女孩”,出現多個人物,但其舞蹈動作連續流暢性相對較好;ZeroScope:人物模糊,但身體部位變化自然,且未出現變型、消失等問題。2023 年 10 月 09 日 P.11 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 圖表 11:Runway Gen-2、ZeroScope、PikaLabs 人物動作應用效果對比(文字指令:A girl dancing in the classr
39、oom)資料來源:Runway、ZeroScope、Pika Labs,國盛證券研究所 3.2 非日常場景的視頻架構能力連續能力一般非日常場景的視頻架構能力連續能力一般 非日常場景的視頻生成考驗文生視頻模型的指令理解及架構能力。非日常場景的視頻生成考驗文生視頻模型的指令理解及架構能力。從“貓拿遙控器看電視”這一虛構場景文字指令的要求生成效果看:RunwayGen-2:整體仍然最為出色,但后續動作變化不自然且幅度小,出現臉部變形等情況;PikaLabs:對文字指令的理解有一定問題,并未體現“拿遙控器”的動作,但其視頻畫面細節如毛發、飄動動作更為連貫順暢;ZeroScope:真實性較強,但動作僵硬
40、且幅度較小。圖表 12:Runway Gen-2、ZeroScope、PikaLabs 非日常場景應用效果對比(文字指令:Cat watching TV with a remote in hand)資料來源:Runway、ZeroScope、Pika Labs,國盛證券研究所 2023 年 10 月 09 日 P.12 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 3.3 多主體視頻生成缺乏邏輯連續性多主體視頻生成缺乏邏輯連續性 多主體的視頻生成考驗文生視頻模型的復雜場景處理能力及細微語言理解能力。多主體的視頻生成考驗文生視頻模型的復雜場景處理能力及細微語言理解能力。當前文生視頻模型出現直
41、接忽略文字指令中的如“手牽手”,“一個男孩和一個女孩”等細微要求問題。Runway Gen-2:對畫面及人物動作細節及雙人互動如“牽手”指令的處理較好,生成人物符合邏輯但人物動作幅度不明顯;PikaLabs:未體現雙人“牽手“細節,但跑步動作自然連貫;ZeroScope:在多人物互動及跑步動作上處理較好,但畫面粗糙。圖表 13:RunwayGen-2、ZeroScope、PikaLabs 多主體應用效果對比(文字指令:A girl and a boy running hand in hand)資料來源:Runway、ZeroScope、Pika Labs,國盛證券研究所 總體來看,三個文生視頻
42、模型的不同生成效果體現其背后模型及訓練數據特點。RunwayGen-2:畫面精細度、清晰度及藝術美感均較強,視頻動作幅度均較小,視頻動感主要體現在如頭發的飄動上;PikaLabs:擅于生成連貫動作;ZeroScope:表現較為平均。2023 年 10 月 09 日 P.13 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4 從圖片生成看文生視頻的商業前景從圖片生成看文生視頻的商業前景 4.1 為什么選擇圖片生成作為對標對象?為什么選擇圖片生成作為對標對象?4.1.1 圖片生成相對成熟圖片生成相對成熟 圖片生成類在多模態大模型中的商業程度較高,可為視頻生成的商業化前景可提供一圖片生成類在多模
43、態大模型中的商業程度較高,可為視頻生成的商業化前景可提供一定參考。定參考。以相對成熟的美國市場為例,據七麥數據 8 月 13 日 IOS 應用榜單,以“AI”作為搜索關鍵詞,榜內共計 247 個應用,其中“攝影與錄像”、“圖形與設計”類的圖像生成類應用占比 31.6%;而“音樂”類應用僅占比 2.8%;“效率”類語言生成或對話式應用占比20.2%??梢妶D片生成類的商業化程度最高,且從實際案例來看,目前已有圖片生成類應用表現出較強的收費能力。4.1.2 已經收費的視頻生成應用,商業模式與圖片生成趨同已經收費的視頻生成應用,商業模式與圖片生成趨同 目前,從類別上目前,從類別上看,圖片生成類為現階段
44、多模態大模型相對成熟的商業化場景,視頻看,圖片生成類為現階段多模態大模型相對成熟的商業化場景,視頻生成類的商業前景可參考圖片生成類的商業化發展歷程。生成類的商業前景可參考圖片生成類的商業化發展歷程。整體來看,圖片生成類的商業模式較為單一,收費模式和收費依據較為趨同,即按照人工智能生成產品的生成量、生成速度計算收費,現已出現的視頻生成模型的收費依據也與其類似。另外,市場上已出現個別破圈現象級圖片生成類應用,以及與其原有業務協同的 AI 增強功能產品,也可為未來視頻生成類應用的發展提供一定參考。Runway Gen-2 是文生視頻領域最先形成商業模式的多模態大模型案例,其收費標準是文生視頻領域最先
45、形成商業模式的多模態大模型案例,其收費標準為文生視頻領域大模型及應用端樹立了標桿,與廣泛的圖片生成類模型及應用的商業為文生視頻領域大模型及應用端樹立了標桿,與廣泛的圖片生成類模型及應用的商業模式類似,模式類似,Runway Gen-2 也按照生成量、附加權益等區分不同套餐定價。也按照生成量、附加權益等區分不同套餐定價。自發布以來,Runway Gen-2 引起關注度很高,由于是為數不多的開放公測的文生視頻大模型,很多玩家前往其官網進行文生視頻的嘗試,2023 年 9 月其網站總訪問人次為 760 萬,平均停留時長為 3 分 37 秒。圖表 14:各家圖像生成類模型/應用對比 產品名產品名 Mi
46、djourney 文心一格文心一格 妙鴨相機妙鴨相機 Lensa AI 公司名 Midjourney 百度 阿里巴巴 Prisma Labs 活躍用戶數 8 月網站總訪問量2100 萬+N/A 7 月 16 日-8 月 14 日總下載量 203 萬 9 月下載量 10 萬 套餐內容 特點 標準版以上套餐擁有無限量圖片生成數量。僅為限量套餐,且單張圖片生成價格與Midjourney 限量套餐價格接近。9.9 元可解鎖 30+種模板,制作寫真生成 1次。50 張圖(3.99 美元);100 張圖(5.99 美元);200 張圖(7.99 美元)。資料來源:各公司官網、Similar Web、七麥數
47、據、CNN、Sensor Tower,國盛證券研究所 2023 年 10 月 09 日 P.14 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4.2 細分領域細分領域:看好人像生成,短期內變現較快:看好人像生成,短期內變現較快 4.2.1 Lensa AI:人像生成功能推出后用戶付費意愿高:人像生成功能推出后用戶付費意愿高 Lensa AI 切入人像生成領域,新功能推出后收入可觀,但是否可若想形成持續性付費切入人像生成領域,新功能推出后收入可觀,但是否可若想形成持續性付費收入仍需探索。收入仍需探索。Lensa AI App 于 2018 年上線,原本的主要用途是圖片編輯和美化。2022
48、年 11 月 21 日,Lensa AI 上線的新功能“魔法頭像”(Magic Avatars)讓其在全球人氣迅速飆升。用戶上傳人像圖,可通過“魔法頭像”自動生成各種不同風格的人臉照,包括搖滾風格、時尚風、科幻風、動漫風等。11 月 30 日至 12 月 14 日,連續兩周位列美國 AppStore 免費榜榜首,還拿下十多個國家的免費榜 Top 1。從商業模式上看,該應用提供三種不同的購買方案,主要的區別是生成的照片的數量差異。用戶可以選 50、100、200 張照片,分別對應 3.99、5.99、7.99 美元。根據分析公司 Sensor Tower 的數據,該應用程序在 12 月的前 12
49、 天在全球范圍內安裝了約 1350 萬次,是11月200萬次的六倍多。這12天消費者在App上花費了大約 2930 萬美元(日流水超百萬美元)。根據 Sensor Tower 的最新數據,Lensa AI 在今年 7 月的全球下載量僅為 40 萬人次,同月全球收入僅為 100 萬美元??梢娙讼裆深悜萌粝刖S持熱度、形成長期穩定的收費能力,市場玩家仍需繼續探索。圖表 15:Runway Gen-2 套餐收費標準及對應權益 套餐版套餐版本本 月付套月付套餐價格餐價格(美元(美元/月)月)年付套年付套餐價格餐價格(美元(美元/月)月)點數權點數權益益(點(點數)數)單個視單個視頻可生頻可生成的最成
50、的最長長度長長度(秒)(秒)套餐內可套餐內可生成視頻生成視頻的總長度的總長度(秒)(秒)存儲空間存儲空間權益權益(GB)標準版 15 12 625 16 125 100 Pro 版 35 28 2250 16 1450 500 無限制版 95 76 無限 16 無限 500 資料來源:Runway 官網,國盛證券研究所 圖表 16:Lensa AI“魔法頭像”應用截圖 資料來源:Medium,國盛證券研究所 2023 年 10 月 09 日 P.15 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4.2.2 妙鴨相機:國內首個“破圈”應用,寫真生成引起社交裂變妙鴨相機:國內首個“破圈”應用
51、,寫真生成引起社交裂變 人像生成寫真應用妙鴨相機上架即火爆,迅速爬升社交類應用第一名。人像生成寫真應用妙鴨相機上架即火爆,迅速爬升社交類應用第一名。妙鴨相機是國內第一個出圈的圖片生成類應用。用戶通過上傳一張正面照以及不少于 20 張的補充照片,就能利用妙鴨相機生成各式寫真。妙鴨相機收費 9.9 元,可以解鎖現有模板,包括證件照、古裝寫真、晚禮服寫真等。妙鴨相機上線后非?;鸨?,生成圖片的等待時長一路走高,7 月 20 日晚間高峰期有4000-5000 人排隊,需等待十幾個小時才能生成圖片。據七麥數據,妙鴨相機近自發布以來,熱度高漲,截至 8 月 13 日,妙鴨相機在 iPhone 社交類應用中排
52、名第一。妙鴨相機現階段收入規??捎^,但市場對其復購及持續收費能力存疑,后續須不停上妙鴨相機現階段收入規??捎^,但市場對其復購及持續收費能力存疑,后續須不停上線新模板、開創新玩法。線新模板、開創新玩法。據七麥數據,妙鴨相機近自上線以來,半個月時間收入預估總計超過 29 萬美元,近七日日均收入超過 3 萬美元,在國內圖像生成領域的應用中遙遙領先,可以算作破圈的現象級產品。但目前還處于拉新階段,后期用戶的復購收入持續增長的能力亟待驗證。圖表 17:妙鴨相機寫真制作過程圖 資料來源:AI Hub,國盛證券研究所 圖表 18:妙鴨相機榜單排名 資料來源:七麥數據,國盛證券研究所 2023 年 10 月
53、09 日 P.16 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4.3 競爭優勢:看好有算力儲備的公司競爭優勢:看好有算力儲備的公司 目前,國內外圖像生成類模型及模應用大多按照生成量、生成速度等來區分定價,但不同點是國外產品的付費套餐中多有“無限量”套餐,而國內產品未出現“無限量”套餐,可看出國內算力仍為瓶頸,因此,具有算力儲備的云服務廠商在發展視頻生成類應用可看出國內算力仍為瓶頸,因此,具有算力儲備的云服務廠商在發展視頻生成類應用時具有天然優勢。時具有天然優勢。4.3.1 Midjourney:“:“無限量無限量”套餐攏獲用戶,映射市場對算力的高需求套餐攏獲用戶,映射市場對算力的高需求
54、 Midjourney 作為文生圖領域的代表性多模態大模型,相比于大多數有限生成量的圖片作為文生圖領域的代表性多模態大模型,相比于大多數有限生成量的圖片生成類模型及應用,生成類模型及應用,Midjourney 的“無限量”套餐具有天然優勢的“無限量”套餐具有天然優勢,其用戶規模和營收,其用戶規模和營收已建立起一定壁壘。已建立起一定壁壘。據 Similar Web 數據,Midjourney 官網在 2023 年 8 月網站訪問量為 2850萬人次,平均停留時長達到 6分 30秒。且從市場公開信息得知,Midjourney的日活用戶已達到 1500 萬,超過開源模型 StableDiffusio
55、n 的 1000 萬日活,其年營收也超過 1 億美元。從官網看,Midjourney 共有四個套餐版本,分別為:圖表 19:妙鴨相機近一月收入估算(截至 2023 年 8 月 14 日)資料來源:七麥數據,國盛證券研究所 圖表 20:Midjourney 套餐收費標準及對應權益 套餐版本套餐版本 套餐價格套餐價格(美元(美元/月)月)圖片生成數量圖片生成數量(張)(張)高速高速 GPU 體體驗驗(小時)(小時)是否具有隱私是否具有隱私模式模式 基礎版 10 200 無 否 標準版 30 無限 無 否 Pro 版 60 無限 30 是 Mega 版 120 無限 60 是 資料來源:Midjou
56、rney 官網,國盛證券研究所 2023 年 10 月 09 日 P.17 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4.3.2 騰訊云:云服務廠商加緊多模態生成布局騰訊云:云服務廠商加緊多模態生成布局 反過來看,由于本身具有算力能力優勢,云服務大廠也開始注重多模態生成的能力建反過來看,由于本身具有算力能力優勢,云服務大廠也開始注重多模態生成的能力建設,上線圖像生成類產品。設,上線圖像生成類產品。以騰訊為例,騰訊的 AI 繪畫產品作為功能模塊,集成在騰訊云解決方案平臺上,客戶可選擇開通 AI 繪畫服務,便可使用此項功能。目前,用戶可在騰訊云上體驗“智能文生圖”及“智能圖生圖”功能,兩種
57、功能每月共提供 20 次體驗額度,正式服務需接入 API 使用。騰訊云 AI 繪畫功能分為 PaaS 和 SaaS 兩種產品形態,PaaS 需要二次開發,SaaS 版開箱即用。圖表 21:騰訊云 AI 繪畫 PaaS 版收費標準 接口名稱接口名稱 新用戶價格新用戶價格 限購限購 1 次價格次價格(元)(元)新老同享不限購新老同享不限購價格(元)價格(元)資源包資源包(千次)(千次)智能圖生圖 19.9 65 1 智能文生圖 29.9 65 1 資料來源:騰訊云,國盛證券研究所 圖表 22:騰訊云 AI 繪畫功能示意圖 資料來源:騰訊云,國盛證券研究所 2023 年 10 月 09 日 P.18
58、 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4.3.3 無界無界 AI:“按時長付費”和“潮汐生成模式”彰顯算力底座特性:“按時長付費”和“潮汐生成模式”彰顯算力底座特性 無界 AI 于 2022 年 5 月入局 AI 繪畫,為國內較早起步的 AI 作畫工具平臺之一。用戶可通過直接開通會員享受基本權益,價格為100元/月、1000元/年,能實現文生圖,選擇畫面大小、主題、風格等元素,還享有潮汐模式免費無限創作、解鎖全部專用模型、存儲無限擴容、精繪折扣、選擇更多參數等會員權益。其中,潮汐模式下會員可以免費無限創作?!俺毕J健庇梢归g生成更便宜的“夜間生成模式”發展而來,旨在利用算力資源空
59、閑時段作畫,實現“以時間換價格”。用戶還可開通權益卡或購買時長。用戶還可開通權益卡或購買時長。其中,1)開通權益卡能獲得更多積分,適用于對普通文生圖有更多需求(如更多超分辨次數、更多單張加速次數)的用戶。2)購買時長適用于需要更多生成類型(如圖生圖、條件生圖)和功能(如局部重繪、多區域控制繪圖等)的用戶,即專業版用戶。按時長付費也是阿里云、騰訊云等 AI 云算力服務商常用的收費方式,我們認為,這在一定程度上,反映出 AI 圖片生成應用與底層算力服務的高度相關性。圖表 23:無界 AI 專業版購買時長收費標準 時間時間(小時)(小時)套餐價格套餐價格(元)(元)預計生成創作(張)預計生成創作(張
60、)1 20 450 4 80 1800 12 216 5400 24 432 10800 資料來源:無界 AI,國盛證券研究所 圖表 24:無界 AI 權益卡等級與對應權益 權益卡等級權益卡等級 套餐價格套餐價格(元(元/月)月)贈送積分贈送積分(積分(積分/月)月)有效期有效期(月)(月)超分辨次數超分辨次數(次)(次)單張加速次數單張加速次數(次)(次)AI 魔法體驗卡 0 30 -青銅權益卡 99 1200 1-白銀權益卡 199 1200 2-黃金權益卡 1299 1800 6 100 100 鉑金權益卡 4699 3600 12 200 200 資料來源:無界 AI,國盛證券研究所
61、2023 年 10 月 09 日 P.19 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4.4 業務協同:看好多模態生成與原有業務有協同的公司業務協同:看好多模態生成與原有業務有協同的公司 4.4.1 Adobe:AI 生成工具有望帶來增量付費用戶生成工具有望帶來增量付費用戶 Adobe 上線上線 AI 創意生成工具創意生成工具 Firefly(螢火蟲),或為(螢火蟲),或為 Adobe 帶來增量付費用戶。帶來增量付費用戶。Photoshop 于 2023 年 3 月發布 AI 創意生成工具 Firefly,具有文生圖及圖像填充功能,并且于 5 月底宣布全面開放,深度綁定 Adobe 旗
62、下產品 Photoshop。圖表 25:Adobe Firefly 功能示意圖 資料來源:Adobe Firefly 官網,國盛證券研究所 Adobe于2023年9月13日宣布Firefly正式商用,將采取按生成點數(Generativecredits)收費的模式,每個點數對應一張圖片。其中,免費賬戶每月享有 25 生成點數,升級版用戶每月支付 4.99 美元即可享有 100 積分。根據 Adobe官網,Firefly 自 2023 年 11 月1 日起將實行限額,生成積分的消耗取決于生成輸出的計算成本和所使用的生成人工智能功能的價值。圖表 26:Firefly 定價方案 資料來源:Adobe
63、Firefly 官網,國盛證券研究所 2023 年 10 月 09 日 P.20 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 4.4.2 Microsoft 365 Copilot:推出增強功能,高定價反應市場強需求:推出增強功能,高定價反應市場強需求 Microsoft 365 Copilot 定價策略大幅超預期,側面反應人工智能生成產品的強勁需求。定價策略大幅超預期,側面反應人工智能生成產品的強勁需求。Office Copilot 是基于 GPT-4 API 的應用,具有文檔編輯、表格處理等在 Office 軟件原有基礎上利用 AI 開發的增強功能。7 月 18 日,微軟在合作伙伴會
64、議上宣布 Microsoft 365 Copilot 定價策略,Microsoft 365Copilot 將面向 Microsoft 365 E3、E5、Business Standard 和 Business Premium 客戶的商業客戶提供,價格為每用戶 30 美元/月,大超發布前的市場預期。此前 Microsoft 365 商業版定價最高為 22 美元/月,按照當前四種商業版的訂閱價格計算,Copilot 加入后整體訂閱價格漲幅約在 53-240%。此次 Copilot的定價反映了微軟對其新產品的信心以及市場對 AI 增強功能的強需求。4.5 展望:看好文生視頻與文生圖、圖生視頻的聯動
65、展望:看好文生視頻與文生圖、圖生視頻的聯動 由于當前文生圖、文生視頻、文生音頻等都具有一定局限性,已經有創作者借助不同由于當前文生圖、文生視頻、文生音頻等都具有一定局限性,已經有創作者借助不同模型平臺進行視頻合成,從而實現最優效果。模型平臺進行視頻合成,從而實現最優效果。例如,近日出現的一則約一分鐘左右完全由 AI 生成的科幻預告片Trailer:Genesis(創世紀),其中用到了 Midjourney 處理圖像、Runway 處理視頻、Pixabay 處理音樂、CapCut 剪輯視頻。我們預計,后續AI在文生圖、文生視頻、文生音頻及剪輯等方面的應用仍有很大的發展空間,其對于生產力的釋放值得
66、期待。圖表 27:科幻預告片Trailer:Genesis(創世紀)2 周內在 YouTube 上達 14 萬播放量 資料來源:Youtube,國盛證券研究所 2023 年 10 月 09 日 P.21 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 5 投資建議投資建議 綜上所述,從文生圖到文生視頻的發展體現了 AIGC 未來在多模態大模型的趨勢,世界各科技公司及模型開發者正加緊開發多模態的更多應用以釋放其生產力。下一步,更大的機會在哪里?從投資角度看,我們總結如下:1)算力層 一方面重視全球布局的行業領跑者,這類企業離本輪創新更近,更容易享受行業紅利。與此前的 5G 行情有所不同,本來
67、AIGC 是完全由創新需求驅動的投資上行,因此,個股的訂單上修、業績釋放是行業變化的結果而非起因。如果市場能接受 AIGC 逐漸成為工作、生活必不可少的工具,那么各種硬件加單將是必然結果,主要以光模塊、交換路由設備、服務器、PCB 為代表。另一方面,重視國產化趨勢,AIGC 是下一輪全球科技創新的焦點,國內提倡數字經濟也將聚焦與此,我們已經著手建立“東數西算”算力網絡,疊加 5G、物聯網的產業鏈優勢,在 AIGC 時代大有可為。需要重視的是,AIGC 對超算網絡的算力、功耗比提出了更高要求,會把更多材料、網絡架構技術的商用時點拉近,這一趨勢將會越來越明顯。2)模型層 大模式層面的競爭將持續,國
68、內外巨頭均重視對多模態大模型的開發應用。投資層面,我們將進一步聚焦大模型的邊際變化,例如 OpenAI 發布圖生文、語音交互等多模態功能。大模型仍是互聯網巨頭的兵家必爭之地,具備搜索、云計算能力的企業具備先發優勢。3)應用層 看好工具型應用+游戲、電商方向。我們認為本輪 AIGC 最大的變化在于 AI 的通識化和顯性化,讓其服務于大眾用戶。工具型應用因其本身覆蓋面廣,例如搜索引擎、Office套件、視頻會議系統等,上述也是微軟與 OpenAI 首先拓展的領域,代表了主流玩家的策略。而游戲和電商則屬于年輕人集中、變現能力較強且迭代迅速的領域,對于具備IP優勢的企業將強化其變現能力,且向元宇宙的進
69、化路徑更為明確。綜上所述,在算力、模型、應用等維度,我們給出如下投資組合標的:2023 年 10 月 09 日 P.22 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 圖表 28:投資標的 賽道賽道 公司公司 代碼代碼 內容內容 算力算力 新易盛 300502 400G 時代領先的光收發器件解決方案提供商。天孚通信 300394 全球光模塊及數通廠商光學器件供應商。中際旭創 300308 全球光電子領軍企業,四大云廠商供應商,光模塊行業“灰馬”。太辰光 300570 掌握 MPO 核心技術,供應北美云廠商IDC建設,有望受益超算需求爆發。德科立 688205 光模塊行業“灰馬”,有望受益”
70、相干下沉”趨勢與光模塊景氣周期。華工科技 000988 發布 800G 相干光模塊,硅光技術領先。銳捷網絡 301165 主營網絡設備、網絡安全產品、云桌面,2019 年至 2021 年中國以太網交換機市占率第三。紫光股份 000938 網絡設備龍頭,2022 年中國交換機市占率第二。工業富聯 601138 2022 年云計算服務器出貨量全球第一。菲菱科思 301191 國內稀缺的算力交換機代工龍頭。寒武紀 688256 國內 AI 芯片第一梯隊。中興通訊 000063 5G 設備商龍頭,在數通及服務器市場亦處于領先地位。美格智能 002881 物聯網智能算力模組供應商。奧飛數據 300738
71、 有影響力的 IDC 服務提供商。光環新網 300383 國內第三方 IDC 核心服務商,深度合作 AWS。中貝通信 603220 主業聚焦 5G 新基建、云網算力服務。云賽智聯 600602 大數據中心資源平臺總集成商和運維商、數據運營平臺總運營商。NLP、AIGC 生成生成算 法 和 大算 法 和 大模型模型 谷歌 GOOG 深度學習模型 Transformer,AIGC 生成應用 Imagen。微軟 MSFT 自然語言處理應用 Apache Spark,投資了 OpenAI。百度 BIDU 擁有文心大模型,不僅可以自然語言處理,還可以生成修復圖片。昆侖萬維 300418 發布昆侖天工 A
72、IGC 全系列算法模型,具有多模態內容生成能力。三六零 601360 三六零版 GPT 搜索引擎對標 NewBing+ChatGPT??拼笥嶏w 002230 語音識別和人工智能領域的長期積累。拓爾思 300229 通過基于大數據和 NLP 的知識圖譜的構建,為數字人安裝知識大腦。金山辦公 688111 發布基于大語言模型的智能辦公助手 WPS AI。萬興科技 300624 發布國內首個以視頻創意應用為核心的百億級參數多媒體大模型“天幕”。數據要素數據要素 中國電信 601728 天翼云在國內公有云中占有率第三,且增速明顯。中國移動 600941 國內運營商龍頭,移動云在國內公有云中占有率第六。
73、中國聯通 600050 深耕 B/G 端業務,聯通云 2022 年增速 121%。浩瀚深度 688292 運營商 DPI 龍頭。恒為科技 603496 運營商匯聚分流龍頭。中新賽克 002912 政府可視化龍頭。東方國信 300166 華為系 Maas(模型即服務)龍頭,運營商 BOSS 系統核心供應商。天源迪科 300047 運營商 BOSS 系統核心供應商。AI 監管監管 新華網 603888 中國最具影響力的網絡媒體,AI 時代肩負內容審查與 IP 保護責任。人民網 603000 AIGC-X,國內首個 AI 生成內容檢測工具。博匯科技 688004 公司的監測、監管產品目前已基本覆蓋國
74、內各級監管、播出機構。愷英網絡 002517 AI 技術加持,鎖定”傳奇游戲”細分賽道。盛天網絡 300494 國內領先的場景化互聯網用戶運營平臺,引入 AIGC 降低 UGC 壁壘。吉比特 603444 聚焦 MMORPG、SLG 等注重交互的游戲品類。游族網絡 002174 卡牌 IP“少年三國志”三體”;與商湯科技合作 AI 游戲。藍色光標 300058 數字人”蘇小妹”與北京衛視春晚合作。2023 年 10 月 09 日 P.23 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 游戲游戲 IP 湯姆貓 300459 湯姆貓 IP 植入連接了 ChatGPT 的應用程序接口,進行語音互
75、動產品功能測試。神州泰岳 30002 深度開發”NLP+游戲”,布局 SLG、模擬經營游戲。中文在線 300364 正版中文數字內容提供商,原創文學內容平臺及虛擬人將率先接入 AI。奧飛娛樂 002292 擁有“喜洋洋”、“超級飛俠”、“巴拉拉小魔仙”等一眾知名 IP。浙文互聯 600986 國風虛擬 IP“君若錦”和 Z 世代虛擬 IP“蘭_Lan”等。捷成股份 300182 其參股公司世優科技(25%左右份額)是國內領先的數字數字人解決方案供應商,已幫助“復活”近 500 個虛擬形象,宣布接入 ChatGPT。資料來源:公司官網、公司公告、東方財富、人民網、新華網、富途牛牛、中國發展網、證
76、券日報,國盛證券研究所 風險提示風險提示 倫理風險倫理風險:文生視頻可能被應用于制作虛假信息,引發倫理風險。知識產權及版權風險知識產權及版權風險:未經授權使用他人創作視頻可能引發知識產權及版權糾紛。計算資源限制:計算資源限制:文生視頻模型訓練及生成過程均需消耗大規模的計算資源,增加了商用部署成本。2023 年 10 月 09 日 P.24 請仔細閱讀本報告末頁聲明請仔細閱讀本報告末頁聲明 免責聲明免責聲明 國盛證券有限責任公司(以下簡稱“本公司”)具有中國證監會許可的證券投資咨詢業務資格。本報告僅供本公司的客戶使用。本公司不會因接收人收到本報告而視其為客戶。在任何情況下,本公司不對任何人因使用
77、本報告中的任何內容所引致的任何損失負任何責任。本報告的信息均來源于本公司認為可信的公開資料,但本公司及其研究人員對該等信息的準確性及完整性不作任何保證。本報告中的資料、意見及預測僅反映本公司于發布本報告當日的判斷,可能會隨時調整。在不同時期,本公司可發出與本報告所載資料、意見及推測不一致的報告。本公司不保證本報告所含信息及資料保持在最新狀態,對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。本公司力求報告內容客觀、公正,但本報告所載的資料、工具、意見、信息及推測只提供給客戶作參考之用,不構成任何投資、法律、會計或稅務的最終操作建議,本公司不就報告中的內容對最終
78、操作建議做出任何擔保。本報告中所指的投資及服務可能不適合個別客戶,不構成客戶私人咨詢建議。投資者應當充分考慮自身特定狀況,并完整理解和使用本報告內容,不應視本報告為做出投資決策的唯一因素。投資者應注意,在法律許可的情況下,本公司及其本公司的關聯機構可能會持有本報告中涉及的公司所發行的證券并進行交易,也可能為這些公司正在提供或爭取提供投資銀行、財務顧問和金融產品等各種金融服務。本報告版權歸“國盛證券有限責任公司”所有。未經事先本公司書面授權,任何機構或個人不得對本報告進行任何形式的發布、復制。任何機構或個人如引用、刊發本報告,需注明出處為“國盛證券研究所”,且不得對本報告進行有悖原意的刪節或修改
79、。分析師聲明分析師聲明 本報告署名分析師在此聲明:我們具有中國證券業協會授予的證券投資咨詢執業資格或相當的專業勝任能力,本報告所表述的任何觀點均精準地反映了我們對標的證券和發行人的個人看法,結論不受任何第三方的授意或影響。我們所得報酬的任何部分無論是在過去、現在及將來均不會與本報告中的具體投資建議或觀點有直接或間接聯系。投資評級說明投資評級說明 投資建議的評級標準投資建議的評級標準 評級評級 說明說明 評級標準為報告發布日后的 6 個月內公司股價(或行業指數)相對同期基準指數的相對市場表現。其中 A股市場以滬深 300 指數為基準;新三板市場以三板成指(針對協議轉讓標的)或三板做市指數(針對做
80、市轉讓標的)為基準;香港市場以摩根士丹利中國指數為基準,美股市場以標普 500 指數或納斯達克綜合指數為基準。股票評級 買入 相對同期基準指數漲幅在 15%以上 增持 相對同期基準指數漲幅在 5%15%之間 持有 相對同期基準指數漲幅在-5%+5%之間 減持 相對同期基準指數跌幅在 5%以上 行業評級 增持 相對同期基準指數漲幅在 10%以上 中性 相對同期基準指數漲幅在-10%+10%之間 減持 相對同期基準指數跌幅在 10%以上 國盛證券研究所國盛證券研究所 北京北京 上海上海 地址:北京市西城區平安里西大街 26 號樓 3 層 郵編:100032 傳真:010-57671718 郵箱: 地址:上海市浦明路 868 號保利 One56 1 號樓 10 層 郵編:200120 電話:021-38124100 郵箱: 南昌南昌 深圳深圳 地址:南昌市紅谷灘新區鳳凰中大道 1115 號北京銀行大廈 郵編:330038 傳真:0791-86281485 郵箱: 地址:深圳市福田區福華三路 100 號鼎和大廈 24 樓 郵編:518033 郵箱: