《傳媒行業專題研究:Vidu~國內AI視頻生成模型新突破-240509(23頁).pdf》由會員分享,可在線閱讀,更多相關《傳媒行業專題研究:Vidu~國內AI視頻生成模型新突破-240509(23頁).pdf(23頁珍藏版)》請在三個皮匠報告上搜索。
1、 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。1 證券研究報告 傳媒傳媒 Vidu-國內國內 AI 視頻生成模型新突破視頻生成模型新突破 華泰研究華泰研究 傳媒傳媒 增持增持 (維持維持)研究員 朱珺朱珺 SAC No.S0570520040004 SFC No.BPX711 +(86)10 6321 1166 研究員 吳珺吳珺 SAC No.S0570523100001 +(86)755 8249 2388 行業走勢圖行業走勢圖 資料來源:Wind,華泰研究 重點推薦重點推薦 股票名稱股票名稱 股票代碼股票代碼 目標價目標價 (當地幣種當地幣種)投資評級投資評級 昆侖萬維 3
2、00418 CH 50.09 買入 捷成股份 300182 CH 6.16 買入 光線傳媒 300251 CH 13.60 買入 資料來源:華泰研究預測 2024 年 5 月 09 日中國內地 專題研究專題研究 全球全球 AI 大模型持續迭代,持續看好視頻等多模態發展前景大模型持續迭代,持續看好視頻等多模態發展前景 今年以來,全球 AI 大模型端都持續迭代升級,包括海外的 Sora、Llama3等,國內的 Kimi、昆侖天工 AI、階躍星辰等。4 月 27 日,北京生數科技有限公司聯合清華大學發布了中國首個長時長、高一致性、高動態性視頻大模型 Vidu。行業的發展進度有望不斷催化傳媒相關板塊的
3、發展,我們看好:1)AI 視頻大模型依賴多樣化訓練數據,高質量視頻素材庫價值凸顯;2)AI 大模型助力應用場景發展。我們推薦:昆侖萬維、光線傳媒、捷成股份、值得買。其他產業鏈標的包括華策影視、中文在線、中廣天擇、掌閱科技等。Vidu:國內:國內 AI 視頻生成模型新突破視頻生成模型新突破 Vidu 采用了團隊原創的 Diffusion 與 Transformer 融合的架構 U-ViT,能夠一鍵生成長達 16 秒、分辨率達到 1080P 的高清視頻內容,其擁有豐富的想象力,能夠模擬真實物理世界,并具備多鏡頭生成、時空一致性高等特點。核心團隊來源于清華大學人工智能團隊,首席科學家為清華人工智能研
4、究院副院長朱軍。公司的多模態大模型為全棧自研,能夠融合文本、圖像、3D、視頻等多模態信息。除文生視頻外,公司在文生圖、3D 生成等多模態能力上均有所造詣。Vidu 快速進化,與快速進化,與 Sora 差距不斷縮小差距不斷縮小 2024 年 1 月,生數團隊實現 4 秒視頻的生成,已可以達到 Pika、Runway的效果,至 3 月底實現 8 秒視頻生成,4 月實現 16 秒視頻生成,在 3 個月內生成時長提升至 4 倍,且據 4 月 27 日中關村論壇中生數領軍人朱軍的發言,Vidu 會以更快的速度迭代,與 Sora 差距將越來越小。Vidu 生成視頻的運動幅度較大。除 Sora 外,目前文/
5、圖生視頻較難做到讓人物做出復雜動作,因此為了保證畫面畸變最小,視頻生成的策略為選擇小幅度的運動,較難設計復雜動作,難以處理場景和人物的一致性問題。Vidu 在保證了時空一致性的前提下運動幅度較大。分辨率趕上第一梯隊,但仍為固定比例尺寸。Vidu 模型使用模型使用 U-ViT 架構,多模態、效果好、成本低架構,多模態、效果好、成本低 在 U-ViT 前,Diffusion 模型中的主流主干(backbone)一直為基于 CNN 的U-Net。U-ViT 是生數科技團隊設計的一種簡單通用的、基于 ViT 的架構,使用 Diffusion 生成圖像,打響了擴散模型中 CNN 被 Transforme
6、r 取代的第一槍。模型首先對輸入圖像進行分割處理(分割為 patch),與時間和條件一道表示為 token 后通過 Embedding 層,隨后經過 Transformer Block 后輸出為 token,并通過一個線性層轉為圖塊,最后通過一個可選的 3X3 卷積層輸出為最終結果。此外,U-ViT 成本優勢大幅領先,主要得益于 ViT 架構的訓練成本較低。風險提示:競爭加劇,模型發展進度低于預期,政策監管風險等。(38)(26)(14)(2)10May-23Sep-23Jan-24May-24(%)傳媒滬深300 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。2 傳媒傳媒 正文
7、目錄正文目錄 Vidu:國內:國內 AI 視頻生成模型新突破視頻生成模型新突破.3 明星創業公司,中國視頻大模型重大突破明星創業公司,中國視頻大模型重大突破.3 團隊核心成員來自清華團隊核心成員來自清華團隊,已實現三輪融資團隊,已實現三輪融資.3 多模態布局,涵蓋圖片、視頻、多模態布局,涵蓋圖片、視頻、3D 等領域等領域.4 視頻模型橫向比較:視頻模型橫向比較:Vidu 快速進化,與快速進化,與 Sora 差距不斷縮小差距不斷縮小.5 Vidu 模型:模型:U-ViT,多模態、效果好、成本低,多模態、效果好、成本低.9 理論端:自理論端:自 ViT 誕生后,誕生后,CV 與與 NLP 再無阻隔
8、再無阻隔.9 應用端:應用端:U-ViT 架構受架構受 U-Net 啟發,為圖像生成而來啟發,為圖像生成而來.10 結構:向結構:向 U-NeT 拜師學藝,換下拜師學藝,換下 CNN、換上、換上 Transformer,為圖像生成而來,為圖像生成而來.10 結果:質量與結果:質量與 U-Net 不分伯仲,成本優勢大幅領先不分伯仲,成本優勢大幅領先.12 投資建議投資建議.15 預計文生視頻將對影視、營銷與游戲行業產生較大影響預計文生視頻將對影視、營銷與游戲行業產生較大影響.15 投資邏輯投資邏輯:沿沿“素材庫素材庫”與與“大模型大模型”兩條主線布局兩條主線布局.15 主線一:主線一:AI 視頻
9、大模型依賴多樣化訓練數據,高質量視頻素材庫價值凸顯視頻大模型依賴多樣化訓練數據,高質量視頻素材庫價值凸顯.15 主線二:主線二:AI 大模型,助力應用場景發展大模型,助力應用場景發展.17 風險提示風險提示.20 8XeZdXfVbU8XbZfV6MaObRtRoOtRmQjMmMtOfQoPqR6MqRoPMYnOoOxNsQnO 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。3 傳媒傳媒 Vidu:國內:國內 AI 視頻生成模型新突破視頻生成模型新突破 明星創業公司,中國視頻大模型重大突破明星創業公司,中國視頻大模型重大突破 1)2024 年 4 月 27 日,中關村論壇未來
10、人工智能先鋒論壇上,北京生數科技有限公司聯合清華大學發布了中國首個長時長、高一致性、高動態性視頻大模型,其采用了團隊原創的Diffusion 與 Transformer 融合的架構 U-ViT,該架構不采用插幀的多步驟處理方式來生成視頻,而是通過單一步驟“端到端”直接生成內容,從文本到視頻的轉換是直接、連續的。2)Vidu 能夠一鍵生成長達 16 秒、分辨率達到 1080P 的高清視頻內容,其擁有豐富的想象力,可以模擬真實物理世界中細節復雜且符合物理規律的場景,例如合理的光影效果、細膩的人物表情等,還可生成具有深度和復雜性的超現實主義內容(例如“戴珍珠耳環的貓”)。圖表圖表1:Vidu 官方演
11、示視頻之一,能夠模擬真實世界的物理特性官方演示視頻之一,能夠模擬真實世界的物理特性 圖表圖表2:Vidu 官方演示視頻之“戴珍珠耳環的貓”,想象力較高官方演示視頻之“戴珍珠耳環的貓”,想象力較高 注:Prompt“畫室里的一艘船駛向鏡頭”資料來源:PixWeaver,華泰研究 注:Prompt“這是一只藍眼睛的橙色貓的肖像,慢慢地旋轉,靈感來自維米爾的戴珍珠耳環的女孩,畫面上戴著珍珠耳環,棕色頭發像荷蘭帽一樣,黑色背景,工作室燈光”資料來源:PixWeaver,華泰研究 團隊核心成員來自清華團隊,已實現三輪融資團隊核心成員來自清華團隊,已實現三輪融資 2023 年 6 月,公司宣布完成近億元人
12、民幣的天使輪融資,由螞蟻集團領投,BV 百度風投、卓源資本與卓源亞洲跟投;此后,公司在 2023 年 8 月完成了數千萬元人民幣的天使+輪融資,該輪融資由錦秋基金獨家投資;2024 年 3 月,公司已完成三輪融資,融資額達數億元人民幣,投資方包括啟明創投、智譜 AI、BV 百度風投、錦秋基金等機構。圖表圖表3:生數科技已進行三輪融資生數科技已進行三輪融資 序號序號 日期日期 融資額融資額 輪次輪次 估值估值 投資方投資方 1 2024/3/12 數億人民幣 A 輪-啟明創投 錦秋基金 智譜 AI BV 百度風投 卓源亞洲 2 2023/8/10 數千萬人民幣 天使+-錦秋基金 3 2023/6
13、/19 近億人民幣 天使輪 1 億美元 螞蟻集團 BV 百度風投 卓源亞洲 卓源資本 資料來源:證券時報,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。4 傳媒傳媒 核心團隊來源于清華大學人工智能團隊,首席科學家為清華人工智能研究院副院長朱軍核心團隊來源于清華大學人工智能團隊,首席科學家為清華人工智能研究院副院長朱軍。北京生數科技有限公司成立于2023年3月6日,核心成員主要來自清華大學人工智能學院,其首席科學家朱軍為 IEEE Fellow、清華大學計算機系教授與人工智能研究院副院長、清華智能技術與系統國家重點實驗室主任。此外,公司的 CEO 唐家渝是 THUNLP
14、組成員,CTO鮑凡長期關注擴散模型領域研究并主導了 U-ViT 和 UniDiffuser,其均為人工智能和擴散模型領域有著深厚研究的專家,此外還匯集了來自阿里、騰訊、字節等知名科技公司的頂尖人才。公司團隊致力于貝葉斯機器學習的理論和算法研究,是國際上較早研究深度概率生成模型公司團隊致力于貝葉斯機器學習的理論和算法研究,是國際上較早研究深度概率生成模型的團隊之一的團隊之一。工作主要面向針對深度生成式模型的骨干網絡、高速采樣、可控生成、大模型訓練等全棧底層原創研發。生數科技團隊在 ICML、NeurIPS、ICLR 等計算機頂刊發了20 多篇相關論文,擴散模型是團隊的主要發力陣地。先后提出的采樣
15、算法 Analytic-DPM、DPM-Solver 等成果,被 DALLE、Stable Diffusion 等應用。圖表圖表4:生數科技在通用架構、高速采樣和多模型訓練等領域均有較大技術積淀生數科技在通用架構、高速采樣和多模型訓練等領域均有較大技術積淀 領域領域 論文名稱論文名稱 通用架構 All are Worth Words:A ViT Backbone for Diffusion Models(CVPR 2023)UniDiffuser:One Transformer Fits All Distributions in Multi-Modal Diffusion at Scale(I
16、CML 2023)高速采樣 Analytic-DPM:an Analytic Estimate of the Optimal Reverse Variance in Diffusion Probabilistic Models(ICLR 2022)DPM-Solver:A Fast ODE Solver for Diffusion Probabilistic Model Sampling in Around 10 Steps(NeurIPS 2022)Estimating the Optimal Covariance with Imperfect Mean in Diffusion Proba
17、bilistic Models(ICML 2022)DPM-Solver-v3:Improved Diffusion ODE Solver with Empirical Model Statistics(NeurIPS 2023)高效訓練 Memory efficient optimizers with 4-bit states Training Transformers with 4-bit Integers Towards Accelerated Model Training via Bayesian Data Selection 可控生成 A Closer Look at Paramet
18、er-Efficient Tuning in Diffusion Models EGSDE:Unpaired Image-to-Image Translation via Energy-Guided Stochastic Differential Equations(NeurIPS 2022)Equivariant Energy-Guided SDE for Inverse Molecular Design(ICLR 2023)多模態訓練 ProlificDreamer:High-Fidelity and Diverse Text-to-3D Generation with Variation
19、al Score Distillation(NeurIPS 2023)ControlVideo:Conditional Control for One-shot Text-driven Video Editing and Beyond 強化學習 Contrastive Energy Prediction for Exact Energy-Guided Diffusion Sampling in Offline Reinforcement Learning(ICML 2023)Offline reinforcement learning via high-fidelity generative
20、behavior modeling 基礎理論 Improved Techniques for Maximum Likelihood Estimation for Diffusion ODEs(ICML 2023)Robust Classification via a Single Diffusion Model Diffusion models and semi-supervised learners benefit mutually with few labels(NeurIPS 2023)注:截止于 2024 年 4 月 29 日 資料來源:北京生數科技官網,華泰研究 多模態布局,涵蓋圖片
21、、視頻、多模態布局,涵蓋圖片、視頻、3D 等領域等領域 公司的多模態大模型為全棧自研,能夠融合文本、圖像、公司的多模態大模型為全棧自研,能夠融合文本、圖像、3D、視頻等多模態信息、視頻等多模態信息。除文生視頻外,公司在文生圖、3D 生成上均有所造詣,其主要得益于 ViT 結構打通了 CV 與 NLP,使得多模態成為可能。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。5 傳媒傳媒 圖表圖表5:北京生數科技的生物體、靜態文生圖還原度較高北京生數科技的生物體、靜態文生圖還原度較高 圖表圖表6:北京生數科技的風景文生圖還原度較高北京生數科技的風景文生圖還原度較高 資料來源:PixWeav
22、er,華泰研究 資料來源:PixWeaver,華泰研究 圖表圖表7:北京生數科技的北京生數科技的 3D 模型生成模型生成 資料來源:VoxCraft,華泰研究 視頻模型橫向比較:視頻模型橫向比較:Vidu 快速進化,與快速進化,與 Sora 差距不斷縮小差距不斷縮小 整體來看,整體來看,Vidu 生成結果的動作幅度、畫面一致性均處于國內領先水準。生成結果的動作幅度、畫面一致性均處于國內領先水準。Vidu 目前已經開始內測,表明其并非概念型工具,側面反映 Vidu 的技術水準較為成熟。與國內文生視頻模型對比,Vidu 的特點表現在:1.動作幅度、畫面一致性領先;2.采用 U-ViT 模型架構(其
23、優勢將在下一章節詳述)。圖表圖表8:Vidu 領跑國內的文生視頻模型領跑國內的文生視頻模型 國家國家 公司公司 名稱名稱 動作幅度動作幅度 一致性一致性 是否開源是否開源 推出時間推出時間 是否已經是否已經 對公眾開放對公眾開放 底層模型結構底層模型結構 底層模型結構底層模型結構 是否開源是否開源 中國 上海人工智能實驗室 書生筑夢 低 中高 否 2024 年 2 月 否 Animate Diff 是 中國 超訊通信 Etna 中 中高 否 2024 年 3 月 否 基于 DiT 否 中國 字節跳動 Dreamina 中高 低 否 2024 年 3 月 是,內測是,內測 可能基于 MagicV
24、ideo 是 中國 商湯科技/否 2024 年 4 月 否/否 中國 北京數科 Vidu 中高中高 中高中高 否 2024 年 4 月 是,內測是,內測 基于 U-ViT 是 資料來源:各公司官網,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。6 傳媒傳媒 Vidu 的視頻生成時長僅次于的視頻生成時長僅次于 Sora,且可生成時長進步速度較快。,且可生成時長進步速度較快。時長方面,Runway 推出 的 Gen 模型目前已經更新至 Gen2,其最長可生成 16 秒視頻,與 Vidu 一并位列第二,僅 次于 Sora 的 60 秒鐘。2024 年 1 月,生數團隊實現 4
25、 秒視頻的生成,已可以達到 Pika、Runway 的效果,至 3 月底達到 8 秒,4 月達到 16 秒、進步快速。且據 4 月 27 日中關村 論壇中生數領軍人朱軍的發言 Vidu 會以更快的速度迭代,與 Sora 差距將越來越小。商業 化方面,目前主流文生視頻的價格均按月收費,海外收費為 8-95 美元/月不等。圖表圖表9:目前文生視頻的定價整體較高,目前文生視頻的定價整體較高,Vidu 的視頻生產時長僅次于的視頻生產時長僅次于 Sora 團隊團隊 文生視頻推出時間文生視頻推出時間 收費收費 可生成時長可生成時長 Runway 2023 年 6 月 免費版每天可生成 5 個視頻;付費版定
26、價 15-95 美元/月 4-16 秒 Pika 2023 年 11 月 免費版每天可生成 15 個視頻;付費版定價 8-58 美元/月 3-7 秒 Sora 2024 年 2 月 未開放 最長 60 秒 Dreamina 2024 年 3 月 免費版每天可生成 5 個視頻;付費版 69 人民幣/月起 3-9 秒 Vidu 2024 年 4 月 未開放 最長 16 秒 資料來源:各公司官網,華泰研究 相比于相比于 Runway,Vidu 生成視頻的運動幅度更大生成視頻的運動幅度更大。除 Sora 外,目前文/圖生視頻較難做到讓人物做出復雜動作,因此為了保證畫面畸變最小,視頻生成的策略為選擇小幅
27、度的運動,較難設計復雜動作,難以處理場景和人物的一致性問題。目前Sora在視頻生成中領先較多,在除 Sora 外,Vidu 在保證了時空一致性的前提下運動幅度較大。圖表圖表10:Sora 演示視頻的開始部分演示視頻的開始部分 圖表圖表11:Sora 演示視頻首尾差異較大,視頻運動幅度領先演示視頻首尾差異較大,視頻運動幅度領先 資料來源:Sora,華泰研究 資料來源:Sora,華泰研究 圖表圖表12:Vidu 官方演示視頻的開始部分官方演示視頻的開始部分 圖表圖表13:Vidu 官方演示視頻結束部分,多物體變化官方演示視頻結束部分,多物體變化 資料來源:PixWeaver,華泰研究 資料來源:P
28、ixWeaver,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。7 傳媒傳媒 圖表圖表14:用用 Runway 制作的視頻開始部分制作的視頻開始部分 圖表圖表15:視頻結束部分,畫面從其側面轉向正面,運動幅度較小視頻結束部分,畫面從其側面轉向正面,運動幅度較小 注:將運動幅度參數調至 10(最大)資料來源:Runway,華泰研究 注:將運動幅度參數調至 10(最大)資料來源:Runway,華泰研究 分辨率趕上第一梯隊,但仍為固定比例尺寸分辨率趕上第一梯隊,但仍為固定比例尺寸。目前除 Sora 可以在 1920X1080 至 1080X1920間以任意尺寸進行生成,其余頭
29、部文生視頻模型均為固定比例生成。就分辨率而言,Vidu使用了支持 1080p 輸出的端到端模型,在同業中處于第一梯隊。圖表圖表16:Vidu 生成分辨率屬于第一梯隊生成分辨率屬于第一梯隊 團隊團隊 生成尺寸生成尺寸 每秒幀數每秒幀數 其他其他 Runway 固定比例,可生成 720p/2K 24 插幀/端到端 Pika 固定比例,最高 1024x576,幀速度 8 幀/秒 8-24 插幀 Sora 1920X1080 與 1080X1920 之間任意尺寸/端到端 Dreamina 固定比例/Vidu 固定比例,最高 1080p/端到端 資料來源:各公司官網,華泰研究 Vidu 一致性較強,多鏡
30、頭中畫面依舊連貫一致性較強,多鏡頭中畫面依舊連貫。AI 生成視頻的一大困難是時間的連貫性,目前龍頭 Sora 能記住視頻中的人和物體,在其被暫時擋住或移出畫面后依然能按照物理邏輯地讓視頻保持連貫性。而 Vidu 此次公布的演示視頻中具有多鏡頭的視頻,其展示了較高的連貫一致性。圖表圖表17:Vidu 多鏡頭視角的視頻生成的第一部分多鏡頭視角的視頻生成的第一部分 圖表圖表18:Vidu 多鏡頭視角的視頻生成第二部分,銜接自然多鏡頭視角的視頻生成第二部分,銜接自然 注:Prompt“在一個古色古香的海邊小屋里,陽光沐浴著房間,鏡頭緩慢過渡到一個陽臺,俯瞰著寧靜的大海,最后鏡頭定格在漂浮著大海、帆船和
31、倒影般的云彩?!辟Y料來源:PixWeaver,華泰研究 注:Prompt“在一個古色古香的海邊小屋里,陽光沐浴著房間,鏡頭緩慢過渡到一個陽臺,俯瞰著寧靜的大海,最后鏡頭定格在漂浮著大海、帆船和倒影般的云彩?!辟Y料來源:PixWeaver,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。8 傳媒傳媒 圖表圖表19:相同相同 Prompt,Runway 生成的生成的 18 秒視頻首幀秒視頻首幀 圖表圖表20:Runway 生成的生成的 18 秒視頻首尾幀畫面風格差異較大秒視頻首尾幀畫面風格差異較大 注:Prompt“在一個古色古香的海邊小屋里,陽光沐浴著房間,鏡頭緩慢過渡到一
32、個陽臺,俯瞰著寧靜的大海,最后鏡頭定格在漂浮著大海、帆船和倒影般的云彩?!辟Y料來源:Runway,華泰研究 注:Prompt“在一個古色古香的海邊小屋里,陽光沐浴著房間,鏡頭緩慢過渡到一個陽臺,俯瞰著寧靜的大海,最后鏡頭定格在漂浮著大海、帆船和倒影般的云彩?!辟Y料來源:Runway,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。9 傳媒傳媒 Vidu 模型:模型:U-ViT,多模態、效果好、成本低,多模態、效果好、成本低 理論端:自理論端:自 ViT 誕生后,誕生后,CV 與與 NLP 再無阻隔再無阻隔 ViT(VisionTransformers)為谷歌團隊)為谷歌團
33、隊 2020 年提出,是視覺領域中首個完全基于年提出,是視覺領域中首個完全基于Transformer 的模型,其模型效果與的模型,其模型效果與 CNN 相當、打通了視覺領域(相當、打通了視覺領域(CV)與自然語言處理)與自然語言處理(NLP)兩大領域)兩大領域。ViT 是一種基于 Transformer 架構的深度學習模型,由 GoogleBrain 團隊于 2020 年發表在Arxiv 的論文“AnImageisWorth16x16Words:TransformersforImageRecognitionatScale”中提出,主要用于視覺任務。在 ViT 被提出前,注意力機制或與 CNN
34、結合使用,或用來取代 CNN的某些組件,CNN結構并未被徹底顛覆。因此,ViT 的創新在于其完全拋棄了 CNN,直接將標準的 Transformer 模型應用于圖像分類等視覺任務,將 CV 與 NLP 連接起來。經過大量數據預訓練的 ViT取得了與 CNN媲美甚至更好的性能,而所需計算資源大大下降;若未預訓練,Transformer 會缺乏需要大量學習才能得到的先驗知識歸納偏置,如相鄰區域特征相似和平移等變性等,導致結果不如 CNN 理想。ViT 的提出,表明經過大量數據預訓練后的 Transformer 模型能夠直接應用于視覺處理任務,使得 CV 與 NLP 領域的壁壘被打通,以 Trans
35、former 為底層架構的模型在多模態領域中的障礙越發減少。圖表圖表21:在對圖片進行遮掩、偏移、對抗和重新組合中,在對圖片進行遮掩、偏移、對抗和重新組合中,ViT 效果勝過效果勝過 CNN 資料來源:aseerMM,RanasingheK,KhanSH,etal.IntriguingpropertiesofvisiontransformersJ.AdvancesinNeuralInformationProcessingSystems,2021,34:23296-23308.,華泰研究 圖表圖表22:圖像分類任務中,目前表現最好的模型圖像分類任務中,目前表現最好的模型 OmniVec 基于基于
36、 ViT 架構架構 注:數據集為 ImageNet,截止 2024 年 4 月 29 日 資料來源:paperwithcode,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。10 傳媒傳媒 圖表圖表23:ViT 基礎架構流程圖,演示圖片如何被基礎架構流程圖,演示圖片如何被 Tranformer 模型分類或回歸模型分類或回歸 資料來源:DosovitskiyA,BeyerL,KolesnikovA,etal.Animageisworth16x16words:TransformersforimagerecognitionatscaleJ.arXivpreprintarXiv
37、:2010.11929,2020.,華泰研究 應用端:應用端:U-ViT 架構受架構受 U-Net 啟發,為圖像生成而來啟發,為圖像生成而來 結構:向結構:向 U-NeT 拜師學藝,換下拜師學藝,換下 CNN、換上、換上 Transformer,為圖像生成而來,為圖像生成而來 在在 U-ViT 前,前,Diffusion 模型中的主流主干(模型中的主流主干(backbone)一直為基于)一直為基于 CNN 的的 U-Net。U-net是 2015 年的論文 U-Net:ConvolutionalNetworksforBiomedicalImageSegmentation 中首次提出的,其在生物
38、醫學圖像分割領域取得了顯著的效果,并因此被廣泛應用于各種圖像分割任務中。由于網絡圖形似英文字母“U”,故稱為 U-Net。具體來看,基于 CNN 的 U-Net具有一組下采樣(downsampling)塊和一組上采樣(upsampling)塊,且以長跳躍連接(longskipconnection)貫穿整個網絡。其中,長跳躍連接有助于解決 CNN 在處理圖像分割等任務時可能出現的信息丟失問題,也是隨后 U-Net 重點借鑒的部分。圖表圖表24:U-Net 組織圖,其使用組織圖,其使用 Encoder-Decoder 結構、以結構、以 CNN 作為主干,用跳躍連接解決了由于下采樣所丟失掉的細節損失
39、作為主干,用跳躍連接解決了由于下采樣所丟失掉的細節損失 注:藍/白色框表示特征圖;藍色箭頭表示 3x3 卷積,用于特征提??;灰色箭頭表示跳躍連接,用于特征融合;紅色箭頭表示池化,用于降低維度;綠色箭頭表示上采樣,用于恢復維度;青色箭頭表示 1x1 卷積,用于輸出結果 資料來源:RonnebergerO,FischerP,BroxT.U-net:ConvolutionalnetworksforbiomedicalimagesegmentationC/Medicalimagecomputingandcomputer-assistedinterventionMICCAI2015:18thintern
40、ationalconference,Munich,Germany,October5-9,2015,proceedings,partIII18.SpringerInternationalPublishing,2015:234-241.,華泰研究 U-ViT是生數團隊設計的一種簡單通用的、基于是生數團隊設計的一種簡單通用的、基于ViT的架構,用于使用的架構,用于使用Diffusion生成圖像。生成圖像。打響擴散模型中打響擴散模型中 CNN 被被 Transformer 取代的重要一槍取代的重要一槍。生數科技團隊自主研發并于 2022年 9 月提出了 U-ViT,其早于 Sora 采用的 DiT(D
41、iffusionTransformer),是全球首個將Diffusion 與 Transformer 融合的知名架構。U-ViT 通過將廣泛應用的 U-Net 模型中的 CNN部分替換為 Transformer 架構,得以同時結合了兩者的優勢,為圖像和視頻生成提供了一種新的方法論。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。11 傳媒傳媒 模型首先對輸入圖像進行分割處理(分割為模型首先對輸入圖像進行分割處理(分割為 patch),與時間和條件一道表示為),與時間和條件一道表示為 token 后通后通過過 Embedding 層,隨后經過層,隨后經過 TransformerBlo
42、ck 后輸出為后輸出為 token,并通過一個線性層轉,并通過一個線性層轉為圖塊,最后通過一個可選的為圖塊,最后通過一個可選的 3X3 卷積層輸出為最終結果卷積層輸出為最終結果:1)遵循遵循 Transformers 的設計理念,的設計理念,U-ViT 將包括時間、條件和噪聲圖像在內的所有輸入將包括時間、條件和噪聲圖像在內的所有輸入都視作為都視作為 token。U-ViT 延續了 ViT 的方法,將帶噪圖片劃分為多個區塊之后,與時間 t、條件 c 和圖像塊一起轉為 token 輸入到 TransformerBlock。2)借鑒借鑒 U-Net,U-ViT 在在 Transformer 的淺層和
43、深層之間采用長跳轉連接,總數量為的淺層和深層之間采用長跳轉連接,總數量為(#Blocks-1)/2。長跳躍連接允許模型在處理數據時跳過某些層,從而幫助模型在深層網絡中更有效地傳遞信息、避免了在訓練深層網絡時可能出現的梯度消失或爆炸問題。通過長跳轉連接,模型可以保持對輸入數據的高層次理解,同時也能夠利用淺層網絡的細節信息。此外,U-ViT 也證明了在基于擴散的圖像建模中,CNN 中的下采樣和上采樣并非必須。3)最后添加最后添加 33 卷積塊用以增加圖片輸出質量卷積塊用以增加圖片輸出質量。U-ViT 在輸出之前添加了一個可選、而非必須的 33 卷積塊以獲得更好的視覺質量。圖表圖表25:U-ViT
44、結構圖,核心取代了結構圖,核心取代了 U-Net 的的 CNN 部分,并重點強調了長跳轉連接的重要性部分,并重點強調了長跳轉連接的重要性 資料來源:BaoF,NieS,XueK,etal.Allareworthwords,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。12 傳媒傳媒 圖表圖表26:U-ViT 中加入長跳轉連接的中加入長跳轉連接的 FID 普遍高于未加入的模型普遍高于未加入的模型 圖表圖表27:在線性層后選擇性加入在線性層后選擇性加入 33 卷積塊能提高圖片生成質量卷積塊能提高圖片生成質量 注:(1)-(5)為加入長跳轉連接的四種方法,以(1)為最優;FI
45、D 分數越低,即生成圖像與真實圖像的特征分布越接近,下同 資料來源:BaoF,NieS,XueK,etal.Allareworthwords:AvitbackbonefordiffusionmodelsC/ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.2023:22669-22679.,華泰研究 資料來源:BaoF,NieS,XueK,etal.Allareworthwords:AvitbackbonefordiffusionmodelsC/ProceedingsoftheIEEE/CVFConf
46、erenceonComputerVisionandPatternRecognition.2023:22669-22679.,華泰研究 結果:質量與結果:質量與 U-Net 不分伯仲,成本優勢大幅領先不分伯仲,成本優勢大幅領先 U-ViT 在大部分測試中與 U-Net 旗鼓相當,但其成本優勢大幅領先:1)對于無條件學習(unconditionallearning):團隊使用包含 50K 訓練圖像的 CIFAR10 和包含 162770 張人臉訓練圖像的 CelebA6464 數據集,發現同等參數的 U-ViT 與 U-Net相當,同時性能遠優于 GenViT。2)對于類條件學習(class-co
47、nditionallearning):團隊使用了 ImageNet 中分辨率為 6464、256256 和 512512 分辨率的數據集,包含來自 1K 個不同類的 1281167 個訓練圖像,同等參數的 U-ViT 結果與 U-Net 也無較大差異、甚至在 256256 中取得了最低 FID。圖表圖表28:在在 ImageNet256256 中,基于中,基于 U-ViT 的最優模型超越了基于的最優模型超越了基于 U-Net 的最優模型的最優模型 資料來源:BaoF,NieS,XueK,etal.Allareworthwords:AvitbackbonefordiffusionmodelsC/
48、ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.2023:22669-22679.,華泰研究 3)對于文生圖領域:團隊使用了分辨率為 256256 的數據集 MS-COCO,其中包含 82783個訓練圖像和 40504 個驗證圖像,每張圖片都有 5 個圖像標注。U-ViT 在 ms-coco 的256x256 數據集中的表現超越 U-Net,并隨著模型層數增加、FID 值越發減少。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。13 傳媒傳媒 圖表圖表29:在文生圖領域中的在文生圖領域中
49、的 MS-COCO 數據集中,數據集中,U-ViT 領先于領先于 U-Net 注:U-ViT-S/2(Deep)的層數為 17 層,比 U-ViT-S/2 多 4 層 資料來源:BaoF,NieS,XueK,etal.Allareworthwords:AvitbackbonefordiffusionmodelsC/ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.2023:22669-22679.,華泰研究 圖表圖表30:在文生圖領域中的在文生圖領域中的 MS-COCO 數據集中,數據集中,U-ViT
50、 與與 U-Net 生成圖片的質量差異生成圖片的質量差異 資料來源:BaoF,NieS,XueK,etal.Allareworthwords:AvitbackbonefordiffusionmodelsC/ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.2023:22669-22679.,華泰研究 4)成本優勢:大幅領先于 U-Net 在參數量和訓練成本相似的情況下,在參數量和訓練成本相似的情況下,U-ViT 的表現較佳的表現較佳。在無分類器引導的情況下,U-ViT在不同的訓練迭代中始終優于 U-N
51、et。在無分類器引導的情況下,U-ViT 的 FID 為 6.58,U-Net 的 FID 為 10.69。在無分類器引導比例為 0.4 的情況下,U-ViT 的 FID 為 2.29,U-Net的 FID 為 2.66,雙雙優于 U-Net。換言之,為達成同等 FID 值,U-ViT 的訓練成本較 U-Net大幅下降,其主要得益于 ViT 架構的訓練成本較低。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。14 傳媒傳媒 圖表圖表31:在參數數量和計算成本(不含無分類器指導)相似的情況下,在參數數量和計算成本(不含無分類器指導)相似的情況下,U-ViT 成本優勢大幅領先成本優勢大
52、幅領先 U-Net 資料來源:BaoF,NieS,XueK,etal.Allareworthwords:AvitbackbonefordiffusionmodelsC/ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition.2023:22669-22679.,華泰研究 圖表圖表32:ViT 架構的訓練天數僅為基于架構的訓練天數僅為基于 CNN 的的 ResNet 模型的三分之一模型的三分之一 資料來源:DosovitskiyA,BeyerL,KolesnikovA,etal.Animageisworth16
53、x16words:TransformersforimagerecognitionatscaleJ.arXivpreprintarXiv:2010.11929,2020.,華泰研究 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。15 傳媒傳媒 投資建議投資建議 預計文生視頻將對影視、營銷與游戲行業產生較大影響預計文生視頻將對影視、營銷與游戲行業產生較大影響 文生視頻可通過提示詞生成完整且有邏輯的視頻,為創作者提供低成本、高效率的創作方文生視頻可通過提示詞生成完整且有邏輯的視頻,為創作者提供低成本、高效率的創作方式。式。對影視行業的主要影響可能體現在:1)大幅降低制作門檻及成本。在空
54、間上,減少了對場景搭建、場地切換等特定資源的依賴,其可以用于生成逼真的特效場景降低制作成本。在時間上,也將大幅縮短影視拍攝的流程。讓非專業團隊也能夠生產出專業水準的視頻內容成為可能。2)豐富影視作品的創造性及風格。制作門檻及時間成本的大幅降低將加速影視內容的迭代,UGC 內容的專家化也將創造新的風格與形式,增強影視內容的吸引力與豐富度。3)對于具備創意和靈感優勢的生產者更為受益,能更好的幫助他們產出優質的視頻內容。文生視頻對營銷行業的影響體現在:文生視頻對營銷行業的影響體現在:1)預計將提升廣告相關視頻的創造效率。其能夠快速生成廣告宣傳視頻及商品演示視頻,大幅降低廣告相關內容的制作成本及時間,
55、預計有望取代低創造性、可復制的視頻內容,小規模且缺乏創意人才的廣告公司預計面臨壓力。2)提供靈感,增強廣告吸引力。其有望為廣告策劃環節提供靈感,加速創意實現過程。3)更低成本定制化需求。其可大批量快速生成定制化的視頻內容,以滿足不同用戶群體的需求,提升客戶轉化率及留存率。游戲:文生視頻可被應用于游戲角色創立,場景開發等過程。游戲:文生視頻可被應用于游戲角色創立,場景開發等過程。一定程度上看,游戲也是虛擬世界的一種體現,其對于物理世界的理解和模擬可以與游戲場景開發高度適配,可以幫助游戲開發者創立角色或背景故事。以 Sora 為例,其官方技術報告中指出,Sora 能夠模擬如視頻游戲的數字化過程,根
56、據官方視頻演示,其能在控制Minecraft游戲角色進行基本操作的同時,高質量動態渲染游戲世界??梢灶A見,未來文生視頻模型可能被應用生成游戲動畫和場景等,增加游戲情感故事背景提高可玩性,游戲開發者的成本將被降低。投資邏輯投資邏輯:沿沿“素材庫素材庫”與與“大模型大模型”兩條主線布局兩條主線布局 隨著全球 AI 大模型端都持續迭代升級,包括海外的 Sora、Llama3 等,國內的 Kimi、昆侖天工 AI、階躍星辰等,行業的發展進度有望不斷催化傳媒相關板塊的發展,因此我們看好:1)AI 視頻大模型依賴多樣化訓練數據,高質量視頻素材庫價值凸顯;2)AI 大模型助力應用場景發展。我們推薦:昆侖萬維
57、、光線傳媒、捷成股份、值得買。其他產業鏈標的包括華策影視、中文在線、中廣天擇、掌閱科技等。主線一:主線一:AI 視頻大模型依賴多樣化訓練數據,高質量視頻素材庫價值凸顯視頻大模型依賴多樣化訓練數據,高質量視頻素材庫價值凸顯 多模態大模型的進化依賴于大量多樣化的訓練數據持續投喂。從海外來看,Shutterstock具有全球知名的圖片、視頻和音樂素材庫,其素材具有高分辨率和創意性。據 Shutterstock官網,其與 OpenAI 在 22 年 10 月簽署六年合作協議,允許 OpenAI 在合作期間使用Shutterstock 平臺內的圖片、視頻和音樂素材來訓練 AI 模型。據美通社,23 年
58、7 月二者進一步擴大合作,OpenAI 獲得了訪問更多數據的許可。此外,24 年 3 月 20 日,谷歌被法國罰款 2.5 億歐元,主因谷歌未經通知使用了法國媒體出版商和新聞機構的內容訓練聊天機器人,違反歐盟知識產權規則。隨著大模型發展優化,視頻/語料素材庫的價值有望放大。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。16 傳媒傳媒 捷成股份:擁有國內最大的影視版權庫,集版權采購、數字分捷成股份:擁有國內最大的影視版權庫,集版權采購、數字分銷、內容運營于一身銷、內容運營于一身 據 23 年年報,作為國內領先的數字版權分銷商、全媒體文化傳播服務提供商、數字生活內容運營商,公司集版權
59、采購、數字分銷、內容運營于一身,攜手國內外千余家出品公司,積累了 10 萬余小時的影視、動漫、節目版權內容,面向廣電、互聯網新媒體、運營商等媒體渠道進行數字化發行,全面覆蓋數字電視、OTT、IPTV、電腦、平板、手機、戶外流媒體等全媒體終端。一個由“海量數字內容矩陣”、“全產業媒體發行集群”和“全媒體終端交互式覆蓋”形成的“云”、“端”、“場”一體化的運營模式,帶來了上中下游全產業融合式服務的文化傳播生態??梢灶A見 AIGC 相關技術將大大提升公司影視劇拍攝及相關影視內容二次創作效率,提升公司版權的多渠道、多模態運營價值。光線傳媒:中國動畫電影制作發行龍頭,有望建立自有動畫大模型光線傳媒:中國
60、動畫電影制作發行龍頭,有望建立自有動畫大模型 公司擁有彩條屋和光線動畫兩條業務線推動動畫電影的創作、制作,經過多年的積累和成長,目前已經具備每年 2-3 部動畫電影的生產能力。哪吒之魔童鬧海 2 西游記之大圣鬧天宮 姜子牙 2 大魚海棠 2 朔風等多部動畫電影的推進工作在順利進行中;真人電影方面,公司同樣擁有多個項目儲備。公司具備的 IP 資源和項目儲備,可為 AI 大模型數據訓練提供豐富的素材庫,特別是在動畫、視覺特效和角色建模等方面,有助于提升 AI 模型在理解復雜敘事結構、生成高質量圖像和視頻內容方面的能力。公司在 24 年 3 月 14 日互動易回復,公司對市場上的新業態、新技術始終保
61、持積極關注,正在探討可行的技術路徑,不排除在動畫領域建立自己的大模型。華策影視:豐富視頻語料華策影視:豐富視頻語料,成立成立 AIGC 應用研究院應用研究院 據 23 年年報,版權業務上,公司 2023 年完成對森聯公司的收購,集聚了國內版權市場較優秀的管理和銷售人才,在新媒體運營、新技術探索等領域不斷拓展創新業態;影視版權數量升至 5 萬小時,持續推進科技化、智能化的短視頻和鏡頭制作。據 24 年 3 月 22 日 投資者關系活動記錄表,公司的視頻語料分兩種,包括文字語料,如小說、劇本等;視頻語料,如影視作品、視頻拍攝素材等。同時公司全面布局 AI,23 年 6 月成立 AIGC 應用研究院
62、,組建了涵蓋藝術指導、產業顧問、技術開發、培訓指導等在內的聯合工作團隊。目前公司建立了文生文、文生圖、文生視頻、文生音頻的實用型 AI 應用/工具矩陣。中廣天擇:視頻內容生產的領軍者,已為萬興科技模型訓練提供優質版權數據中廣天擇:視頻內容生產的領軍者,已為萬興科技模型訓練提供優質版權數據 公司是長沙廣電控股的國有文化企業,內容事業部深耕內容領域,以研發和制作紀錄片、大型專題節目、綜藝等為主營業務;平臺事業部扎根版權運營多年,搭建了“淘劇淘”、“節目購”兩大全國交易平臺,圍繞版權創造、版權保護、版權交易等領域助推版權產業發展。公司不斷發掘新資源,穩住版權交易,23 年“節目購”打通與央視自制內容
63、的合作發行渠道,引入多家衛視、省級地面電視臺的熱門節目,為發行產品注入新力量,全年共交易節目超 68000 期;“淘劇淘”與全國 300 余家版權公司達成版權推廣、版權發行等合作,通過不斷挖掘劇源,全年交易超 94000 期。在廣電行業整體不景氣的情況下,公司版權交易經營業績穩中有進。慈文傳媒:電視劇頭部公司,積極探索慈文傳媒:電視劇頭部公司,積極探索 AI 與影視文娛業務結合可能與影視文娛業務結合可能 公司全面梳理存量 IP 以及原創儲備項目,儲備了一批現實主義題材和具有較大 IP 影響力的劇集項目。同步推進多元題材類型的項目儲備及開發,致力于形成播出一批、制作一批、研發一批的項目梯次,保障
64、精品內容的持續產出,不斷鞏固公司在頭部內容市場的領先地位。據公司 24 年 3 月 8 日互動易回復,公司持續關注人工智能技術的發展在影視行業的應用,關注市場需求與發展趨勢,積極推進短劇、互動劇等多樣化創新產品的合作開發,努力探索人工智能與影視文娛業務結合的可能性。公司及子公司已經開始逐步嘗試在自身產品上使用市場上的自動生成圖片、文案等相關技術以縮短周期、提升效率的應用。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。17 傳媒傳媒 唐德影視:優質唐德影視:優質 IP 影視資源儲備豐富,高度重視影視資源儲備豐富,高度重視 AI 技術研發和應用技術研發和應用 背靠浙江廣電,公司影視主
65、營業務持續穩定增長,成功制作并推出了包括電視劇永不消逝的電波、武媚娘傳奇、東宮以及電影絕地逃亡在內的多部作品;參與出品優質電視劇那年花開月正圓、急診科醫生和熱門電影心花路放、我不是藥神等。公司在影視行業深耕超十年,積累了豐富的 IP 資源和行業頂尖人才,具備深厚的行業背景和資本運作的豐富經驗。據公司 24 年 3 月 1 日互動易回復,公司高度重視各類 AI 技術的研發和應用,對以 Sora 為代表的新興 AI 文生視頻技術平臺保持密切關注,積極謀求與有關技術公司開展合作,為大家提供更好的產品和服務。主線二:主線二:AI 大模型,助力應用場景發展大模型,助力應用場景發展 應用接入 AI 大模型
66、(包括文本大模型和多模態大模型),有助于提升用戶體驗、擴展應用場景以及創新商業模式?;诖竽P偷奈谋纠斫饧疤幚砟芰?,有望推動影視內容制作、在線閱讀、教育、營銷、電商等多場景體驗優化、效率提升。值得買值得買:國內頭部消費決策平臺,推出自研:國內頭部消費決策平臺,推出自研 AI 購物模型購物模型 據 24 年 2 月 28 日互動易回復,AIGC 是公司的戰略重點之一,公司在 23 年成立了專門的AI 事業部,高度重視在 AIGC 領域的投入與布局,正在全方位推進 AIGC 對公司業務的轉型與升級。在應用層面,公司主要圍繞內容的識別和生成、智能用戶畫像和推薦、智能營銷策略三個方向開展研究,并在文、
67、圖、短視頻、直播等領域不斷推進產品開發,相應的應用也在陸續推出。24 年 2 月 29 日,值得買科技自研 AI 購物助手“小值”正式上線,“小值”是基于值得買消費大模型所研發的 Agent 產品,能通過對話深度理解用戶需求,為消費者提供個性化建議。昆侖萬維:持續豐富昆侖萬維:持續豐富 AI 業務多元化產品矩陣業務多元化產品矩陣 公司基于自研“天工”系列基座大模型持續豐富 AI 業務多元化產品矩陣,目前已構建起 AI大模型、AI 搜索、AI 音樂、AI 視頻、AI 社交、AI 游戲等 AI 業務矩陣。同時公司以增資等方式推進 AI 算力芯片的研發,布局 AI 全產業鏈。AI 搜索及 AI 音樂
68、是公司當下重點發力方向,同時我們看到公司出海測試的 AI 社交產品 Linky 最新也快速起量。我們看好公司在 AI賽道的綜合競爭力,期待 C 端應用天工 AI 助手后續用戶數及下載量的持續增長。中文在線:中文在線:AI 賦能賦能 IP 改編,“中文逍遙”大模型改編,“中文逍遙”大模型 公司于 2023 年 10 月發布自研 AI 大模型“中文逍遙”1.0 版本,可實現一鍵生成萬字小說、一張圖寫一部小說、一次讀懂 100 萬字小說等,賦能初學者和專業作家。此外,公司也在研發推動更多 AI 多模態產品落地,目前公司已使用 AI 生成了漫畫、動態漫畫。公司在 AI多模態領域持續投入,未來在 AI
69、多模態加持下,IP 開發制作難度大幅下降,制作周期大幅縮短,打破產能瓶頸,加速了 IP 商業化落地的進展,借助 AI 大幅提升公司 IP 的商業化變現速度。掌閱科技:深耕數字閱讀多年,積極通過掌閱科技:深耕數字閱讀多年,積極通過 AI 賦能閱讀場景賦能閱讀場景 公司主營業務為互聯網數字閱讀平臺服務、版權產品等。其旗艦產品為“掌閱”APP。公司通過多年的積累,數字內容資源豐富,品類眾多,包括圖書、有聲讀物、雜志、漫畫、自出版等多種類型,對優質重磅書始終保持了較高的覆蓋比例,能夠滿足用戶各種類別、各種場景的閱讀需求。同時公司積極擁抱 AI 技術,將生成式 AI 能力與閱讀場景相融合,23 年推出了
70、閱愛聊產品,依托 AI 大模型賦能數字閱讀場景,為用戶提供創新體驗的閱讀交互方式。閱愛聊產品聚焦閱讀過程中的“聊書”、“聊人”兩個場景,為用戶提供創新體驗的閱讀交互方式,在 2023“全球數字經濟大會”上被評選為北京市通用人工智能大模型行業應用典型場景案例。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。18 傳媒傳媒 超訊通信:靈犀妙筆超訊通信:靈犀妙筆 AI 再升級,七火山可生成再升級,七火山可生成 15 秒視頻秒視頻 靈犀妙筆 APP 產品通過垂類細分,簡化用戶指令輸入,提供所見即所得的生成式 AI 服務,涵蓋 12 大板塊及 785 個智慧體,覆蓋情感、美食、運動、旅游等全
71、方位生活場景。打通大模型鏈路后,靈犀妙筆可新增長文本處理功能,可提升用戶 AI 工具的工作效率,實現閱讀速度提高、長文本一鍵生成、文體變換等多種功能,有望放大 AI 模型優點,共同締造優質AI 應用生態。七火山科技 3 月在其官方公眾號中發布,經過深度學習和人工智能領域前沿技術的深入研究,Etna 模型正式發布。Etna 模型不僅能夠根據用戶的文本提示創建長達 15秒的逼真視頻,而且實現了 4K 分辨率和 60 幀每秒的超高流暢度。其他的 AI 視頻最高也只有每秒 30 幀。圖表圖表33:Etna 官方演示視頻畫面清晰、分辨率較高官方演示視頻畫面清晰、分辨率較高 圖表圖表34:Etna 官網顯
72、示“即將到來”,內測已在路上官網顯示“即將到來”,內測已在路上 資料來源:Etna,華泰研究 資料來源:Etna,華泰研究 世紀天鴻:已推出小鴻助教世紀天鴻:已推出小鴻助教 AI 產品,功能豐富產品,功能豐富 公司多年來深耕 K12 教育領域,公司積極運用 AI 賦能主業。據 24 年 3 月 12 日互動易回復,公司已結合人工智能技術推出小鴻助教?!靶▲欀獭笔且豢罨诖笳Z言模型研發的教師端助教產品。據 24 年 3 月 22 日互動易回復,公司的 AI+教育產品“小鴻助教”已于 4.0版本新增“文檔問答”功能,可以輸入 100MB、10 萬字之內的文檔,格式可以為 PDF、Word、圖片、
73、PPT、TXT 等,通過對文檔的解析分析幫助老師輕松閱讀文獻、輸出內容總結、提煉中心思想、解答文檔中問題、根據文檔出題并給出答案等功能。浙文互聯:國內領先數字營銷集團,“浙文互聯:國內領先數字營銷集團,“AI+”模式布局引領營銷升級”模式布局引領營銷升級 公司的“AI+創新業務”發展路徑漸清晰,搭建了圖片及場景多模態的 AIGC 數字工具矩陣,批量化工具類應用已在效果營銷業務板塊落地,現已應用于金融、網服、電商等行業領域的客戶服務。據 24 年 3 月 15 日互動易回復,公司已推出文生圖、文生文等 AIGC 應用工具,公司后續會持續探索文生圖、文生文、文生視頻等領域的應用發展情況。免責聲明和
74、披露以及分析師聲明是報告的一部分,請務必一起閱讀。19 傳媒傳媒 圖表圖表3535:重點推薦公司一覽表重點推薦公司一覽表 最新收盤價最新收盤價 目標價目標價 市值市值(百萬百萬)EPS(元元)PE(倍倍)股票名稱股票名稱 股票代碼股票代碼 投資評級投資評級(當地幣種當地幣種)(當地幣種當地幣種)(當地幣種當地幣種)2023 2024E 2025E 2026E 2023 2024E 2025E 2026E 昆侖萬維 300418 CH 買入 38.87 50.09 47,227 1.04 0.89 0.91 0.94 37.38 43.67 42.71 41.35 捷成股份 300182 CH
75、買入 5.04 6.16 13,426 0.17 0.22 0.26 0.29 29.65 22.91 19.38 17.38 光線傳媒 300251 CH 買入 9.14 13.60 26,813 0.14 0.40 0.43 0.46 65.29 22.85 21.26 19.87 資料來源:Bloomberg,華泰研究預測 圖表圖表36:重點推薦公司最新觀點重點推薦公司最新觀點 股票名稱股票名稱 最新觀點最新觀點 昆侖萬維昆侖萬維(300418 CH)23 歸母凈利同增歸母凈利同增 9%,24Q1 歸母凈虧損主因研發投入大增歸母凈虧損主因研發投入大增 昆侖萬維發布年報&一季報,2023
76、年實現營收 49.15 億元(yoy+3.78%),歸母凈利 12.58 億元(yoy+9.19%),扣非凈利 6.60 億元(yoy-42.85%),確認非經常性損益 5.99 億元,主要包括 Opera 所持有金融資產公允價值的變動收益 6.59 億元。24Q1 實現營收 12.08 億元,yoy-0.79%;歸母凈虧損 1.87 億元(23Q1 歸母 2.12 億元),主因:1)研發費用同增 1.78 億元;2)投資業務階段性虧損 1.29 億元;3)毛利率同比下滑 4.35 pct。我們預計公司 24-26 年實現歸母凈利 10.8/11.0/11.4 億元,分部估值法目標市值 608
77、.6 億元,對應目標價 50.09 元,維持“買入”評級。風險提示:AIGC 發展不及預期,模型開發進度不及預期,行業政策風險。報告發布日期:2024 年 04 月 27 日 點擊下載全文:昆侖萬維點擊下載全文:昆侖萬維(300418 CH,買入買入):AGI 戰略全面推進戰略全面推進,Opera 穩健增長穩健增長 捷成股份捷成股份(300182 CH)23 凈利凈利 4.5 億元,同降億元,同降 13.55%,維持,維持“買入買入”評級。評級。公司發布 23 年報&24Q1 季報:23 年營收 28 億元(yoy-28.33%),歸母凈利 4.5 億元(yoy-13.55%),扣非凈利 4.
78、39 億元(yoy-5.98%);24Q1營收 6.76 億元(yoy+0.93%),歸母凈利 1.17 億元(yoy-25.73%),扣非凈利 1.17 億元(yoy-23.49%)。23 年業績下滑主因版權劇業務影響。我們預計公司 24-26 年歸母凈利潤 5.93/6.88/7.61 億元,可比公司 24 年 Wind 一致預期 PE 均值約為 28X,給予公司 24 年 PE 28X,目標價 6.16 元,維持“買入”評級。風險提示:AI 產品發展不及預期,影視行業恢復不及預期。報告發布日期:2024 年 04 月 29 日 點擊下載全文:捷成股份點擊下載全文:捷成股份(300182
79、CH,買入買入):因版權劇因版權劇 23 年承壓,一體兩翼發展年承壓,一體兩翼發展 光線傳媒光線傳媒(300251 CH)23 年業績符合預告,年業績符合預告,24Q1 凈利凈利 4.25 億元同比大增,維持億元同比大增,維持“買入買入”評級評級 公司發布 23 年報及 24Q1 季報:23 年營收 15.46 億元(yoy+104.74%),歸母凈利潤 4.18 億元(yoy+158.62%),位于業績預告區間偏下區間(4.1至 5.1 億元),扣非歸母凈利潤 3.88 億元(yoy+149.29%);24Q1 營收 10.7 億元(yoy+159.33%),歸母凈利 4.25 億元(yoy
80、+248.01%),扣非歸母凈利潤 4.16 億元(yoy+252.01%)。公司 23 年擬每 10 股派發現金股利 0.7 元(含稅)。我們預計公司 24-26 年歸母凈利 11.73/12.48/13.42億元,對應 EPS 0.4/0.43/0.46 元,可比公司 Wind 一致預期 24 年 PE 均值 23X,考慮公司動畫電影領先,且公司正在積極探索 AI 賦能動畫制作,給予 24 年 PE 34X,目標價 13.6 元,維持“買入”評級。風險提示:電影上映時間不及預期、電影票房不及預期等。報告發布日期:2024 年 04 月 20 日 點擊下載全文:光線傳媒點擊下載全文:光線傳媒
81、(300251 CH,買入買入):Q1 業績高增,產品大年持續兌現中業績高增,產品大年持續兌現中 資料來源:Bloomberg,華泰研究預測 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。20 傳媒傳媒 風險提示風險提示 競爭加劇風險:競爭加劇風險:雖然大模型暫時難以替代專業團隊,但預計隨著模型持續迭代,行業關注度不斷提高,影視及營銷公司存在競爭加劇風險。監管風險:監管風險:大模型先進的生成技術可能會被用于制作虛假信息、誤導性新聞等存在違背社會道德和法律的內容,可能對整體生態產生負面影響。隨著行業進一步發展,相關監管政策有望得到完善。模型技術進展不及預期:模型技術進展不及預期:模
82、型處于成長早期階段,未來應用層面存在進一步爆發可能。但考慮到模型尚未對公眾開放,實際落地與技術表現尚不明確,需謹慎看待底層模型應用層效果。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。21 傳媒傳媒 免責免責聲明聲明 分析師聲明分析師聲明 本人,朱珺、吳珺,茲證明本報告所表達的觀點準確地反映了分析師對標的證券或發行人的個人意見;彼以往、現在或未來并無就其研究報告所提供的具體建議或所表迖的意見直接或間接收取任何報酬。一般聲明及披露一般聲明及披露 本報告由華泰證券股份有限公司(已具備中國證監會批準的證券投資咨詢業務資格,以下簡稱“本公司”)制作。本報告所載資料是僅供接收人的嚴格保密資
83、料。本報告僅供本公司及其客戶和其關聯機構使用。本公司不因接收人收到本報告而視其為客戶。本報告基于本公司認為可靠的、已公開的信息編制,但本公司及其關聯機構(以下統稱為“華泰”)對該等信息的準確性及完整性不作任何保證。本報告所載的意見、評估及預測僅反映報告發布當日的觀點和判斷。在不同時期,華泰可能會發出與本報告所載意見、評估及預測不一致的研究報告。同時,本報告所指的證券或投資標的的價格、價值及投資收入可能會波動。以往表現并不能指引未來,未來回報并不能得到保證,并存在損失本金的可能。華泰不保證本報告所含信息保持在最新狀態。華泰對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更
84、新或修改。本公司不是 FINRA 的注冊會員,其研究分析師亦沒有注冊為 FINRA 的研究分析師/不具有 FINRA 分析師的注冊資格。華泰力求報告內容客觀、公正,但本報告所載的觀點、結論和建議僅供參考,不構成購買或出售所述證券的要約或招攬。該等觀點、建議并未考慮到個別投資者的具體投資目的、財務狀況以及特定需求,在任何時候均不構成對客戶私人投資建議。投資者應當充分考慮自身特定狀況,并完整理解和使用本報告內容,不應視本報告為做出投資決策的唯一因素。對依據或者使用本報告所造成的一切后果,華泰及作者均不承擔任何法律責任。任何形式的分享證券投資收益或者分擔證券投資損失的書面或口頭承諾均為無效。除非另行
85、說明,本報告中所引用的關于業績的數據代表過往表現,過往的業績表現不應作為日后回報的預示。華泰不承諾也不保證任何預示的回報會得以實現,分析中所做的預測可能是基于相應的假設,任何假設的變化可能會顯著影響所預測的回報。華泰及作者在自身所知情的范圍內,與本報告所指的證券或投資標的不存在法律禁止的利害關系。在法律許可的情況下,華泰可能會持有報告中提到的公司所發行的證券頭寸并進行交易,為該公司提供投資銀行、財務顧問或者金融產品等相關服務或向該公司招攬業務。華泰的銷售人員、交易人員或其他專業人士可能會依據不同假設和標準、采用不同的分析方法而口頭或書面發表與本報告意見及建議不一致的市場評論和/或交易觀點。華泰
86、沒有將此意見及建議向報告所有接收者進行更新的義務。華泰的資產管理部門、自營部門以及其他投資業務部門可能獨立做出與本報告中的意見或建議不一致的投資決策。投資者應當考慮到華泰及/或其相關人員可能存在影響本報告觀點客觀性的潛在利益沖突。投資者請勿將本報告視為投資或其他決定的唯一信賴依據。有關該方面的具體披露請參照本報告尾部。本報告并非意圖發送、發布給在當地法律或監管規則下不允許向其發送、發布的機構或人員,也并非意圖發送、發布給因可得到、使用本報告的行為而使華泰違反或受制于當地法律或監管規則的機構或人員。本報告版權僅為本公司所有。未經本公司書面許可,任何機構或個人不得以翻版、復制、發表、引用或再次分發
87、他人(無論整份或部分)等任何形式侵犯本公司版權。如征得本公司同意進行引用、刊發的,需在允許的范圍內使用,并需在使用前獲取獨立的法律意見,以確定該引用、刊發符合當地適用法規的要求,同時注明出處為“華泰證券研究所”,且不得對本報告進行任何有悖原意的引用、刪節和修改。本公司保留追究相關責任的權利。所有本報告中使用的商標、服務標記及標記均為本公司的商標、服務標記及標記。中國香港中國香港 本報告由華泰證券股份有限公司制作,在香港由華泰金融控股(香港)有限公司向符合證券及期貨條例及其附屬法律規定的機構投資者和專業投資者的客戶進行分發。華泰金融控股(香港)有限公司受香港證券及期貨事務監察委員會監管,是華泰國
88、際金融控股有限公司的全資子公司,后者為華泰證券股份有限公司的全資子公司。在香港獲得本報告的人員若有任何有關本報告的問題,請與華泰金融控股(香港)有限公司聯系。免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。22 傳媒傳媒 香港香港-重要監管披露重要監管披露 華泰金融控股(香港)有限公司的雇員或其關聯人士沒有擔任本報告中提及的公司或發行人的高級人員。昆侖萬維(300418 CH):華泰金融控股(香港)有限公司、其子公司和/或其關聯公司實益持有標的公司的市場資本值的 1%或以上。有關重要的披露信息,請參華泰金融控股(香港)有限公司的網頁 https:/.hk/stock_disclos
89、ure 其他信息請參見下方“美國“美國-重要監管披露”重要監管披露”。美國美國 在美國本報告由華泰證券(美國)有限公司向符合美國監管規定的機構投資者進行發表與分發。華泰證券(美國)有限公司是美國注冊經紀商和美國金融業監管局(FINRA)的注冊會員。對于其在美國分發的研究報告,華泰證券(美國)有限公司根據1934 年證券交易法(修訂版)第 15a-6 條規定以及美國證券交易委員會人員解釋,對本研究報告內容負責。華泰證券(美國)有限公司聯營公司的分析師不具有美國金融監管(FINRA)分析師的注冊資格,可能不屬于華泰證券(美國)有限公司的關聯人員,因此可能不受 FINRA 關于分析師與標的公司溝通、
90、公開露面和所持交易證券的限制。華泰證券(美國)有限公司是華泰國際金融控股有限公司的全資子公司,后者為華泰證券股份有限公司的全資子公司。任何直接從華泰證券(美國)有限公司收到此報告并希望就本報告所述任何證券進行交易的人士,應通過華泰證券(美國)有限公司進行交易。美國美國-重要監管披露重要監管披露 分析師朱珺、吳珺本人及相關人士并不擔任本報告所提及的標的證券或發行人的高級人員、董事或顧問。分析師及相關人士與本報告所提及的標的證券或發行人并無任何相關財務利益。本披露中所提及的“相關人士”包括 FINRA定義下分析師的家庭成員。分析師根據華泰證券的整體收入和盈利能力獲得薪酬,包括源自公司投資銀行業務的
91、收入。昆侖萬維(300418 CH):華泰證券股份有限公司、其子公司和/或其聯營公司實益持有標的公司某一類普通股證券的比例達 1%或以上。華泰證券股份有限公司、其子公司和/或其聯營公司,及/或不時會以自身或代理形式向客戶出售及購買華泰證券研究所覆蓋公司的證券/衍生工具,包括股票及債券(包括衍生品)華泰證券研究所覆蓋公司的證券/衍生工具,包括股票及債券(包括衍生品)。華泰證券股份有限公司、其子公司和/或其聯營公司,及/或其高級管理層、董事和雇員可能會持有本報告中所提到的任何證券(或任何相關投資)頭寸,并可能不時進行增持或減持該證券(或投資)。因此,投資者應該意識到可能存在利益沖突。新加坡新加坡
92、華泰證券(新加坡)有限公司持有新加坡金融管理局頒發的資本市場服務許可證,可從事資本市場產品交易,包括證券、集體投資計劃中的單位、交易所交易的衍生品合約和場外衍生品合約,并且是財務顧問法規定的豁免財務顧問,就投資產品向他人提供建議,包括發布或公布研究分析或研究報告。華泰證券(新加坡)有限公司可能會根據財務顧問條例第 32C 條的規定分發其在華泰內的外國附屬公司各自制作的信息/研究。本報告僅供認可投資者、專家投資者或機構投資者使用,華泰證券(新加坡)有限公司不對本報告內容承擔法律責任。如果您是非預期接收者,請您立即通知并直接將本報告返回給華泰證券(新加坡)有限公司。本報告的新加坡接收者應聯系您的華
93、泰證券(新加坡)有限公司關系經理或客戶主管,了解來自或與所分發的信息相關的事宜。評級說明評級說明 投資評級基于分析師對報告發布日后 6 至 12 個月內行業或公司回報潛力(含此期間的股息回報)相對基準表現的預期(A 股市場基準為滬深 300 指數,香港市場基準為恒生指數,美國市場基準為標普 500 指數,臺灣市場基準為臺灣加權指數,日本市場基準為日經 225 指數),具體如下:行業評級行業評級 增持:增持:預計行業股票指數超越基準 中性:中性:預計行業股票指數基本與基準持平 減持:減持:預計行業股票指數明顯弱于基準 公司評級公司評級 買入:買入:預計股價超越基準 15%以上 增持:增持:預計股
94、價超越基準 5%15%持有:持有:預計股價相對基準波動在-15%5%之間 賣出:賣出:預計股價弱于基準 15%以上 暫停評級:暫停評級:已暫停評級、目標價及預測,以遵守適用法規及/或公司政策 無評級:無評級:股票不在常規研究覆蓋范圍內。投資者不應期待華泰提供該等證券及/或公司相關的持續或補充信息 免責聲明和披露以及分析師聲明是報告的一部分,請務必一起閱讀。23 傳媒傳媒 法律實體法律實體披露披露 中國中國:華泰證券股份有限公司具有中國證監會核準的“證券投資咨詢”業務資格,經營許可證編號為:91320000704041011J 香港香港:華泰金融控股(香港)有限公司具有香港證監會核準的“就證券提
95、供意見”業務資格,經營許可證編號為:AOK809 美國美國:華泰證券(美國)有限公司為美國金融業監管局(FINRA)成員,具有在美國開展經紀交易商業務的資格,經營業務許可編號為:CRD#:298809/SEC#:8-70231 新加坡:新加坡:華泰證券(新加坡)有限公司具有新加坡金融管理局頒發的資本市場服務許可證,并且是豁免財務顧問。公司注冊號:202233398E 華泰證券股份有限公司華泰證券股份有限公司 南京南京 北京北京 南京市建鄴區江東中路228號華泰證券廣場1號樓/郵政編碼:210019 北京市西城區太平橋大街豐盛胡同28號太平洋保險大廈A座18層/郵政編碼:100032 電話:86
96、 25 83389999/傳真:86 25 83387521 電話:86 10 63211166/傳真:86 10 63211275 電子郵件:ht- 電子郵件:ht- 深圳深圳 上海上海 深圳市福田區益田路5999號基金大廈10樓/郵政編碼:518017 上海市浦東新區東方路18號保利廣場E棟23樓/郵政編碼:200120 電話:86 755 82493932/傳真:86 755 82492062 電話:86 21 28972098/傳真:86 21 28972068 電子郵件:ht- 電子郵件:ht- 華泰金融控股(香港)有限公司華泰金融控股(香港)有限公司 香港中環皇后大道中 99 號中環中心 53 樓 電話:+852-3658-6000/傳真:+852-2567-6123 電子郵件: http:/.hk 華泰證券華泰證券(美國美國)有限公司有限公司 美國紐約公園大道 280 號 21 樓東(紐約 10017)電話:+212-763-8160/傳真:+917-725-9702 電子郵件:Huataihtsc- http:/www.htsc- 華泰證券(新加坡)有限公司華泰證券(新加坡)有限公司 濱海灣金融中心 1 號大廈,#08-02,新加坡 018981 電話:+65 68603600 傳真:+65 65091183 版權所有2024年華泰證券股份有限公司