1、國盛證券證券研究報告行業深度2022年11月13日區塊鏈AIGC-Web3時代的生產力工具在我們元宇宙(七):虛擬人的“靈魂”是什么?的報告中,提到了虛擬人的靈魂來自于增持(維持)AI自主創作內容。同時,元宇更傾向于開放世界游戲,AIGC內容生成方式的創新將成為Web3時代全新的生產力工具。行業走勢AIGC(AI-GeneratedContent人工智能生成內容)代表新一輪范式轉移的開始,近期,硅谷的眾多一線VC們開始將目光曬準AI初創公司,無其是生成式AI藝術這一領域。今年有兩家獨角獸Stability和Jasper均獲得了超過一億美元的融資,估值通信滬深300突破十億美元。AIGC賽道火爆
2、不僅得益于技術進步、商業應用廣泛和需求增長,還16%歸功于該賽道還處于早期。雖然大型科技公司捕獲了大量價值,初創企業仍有機會0%突破。AIGC將是Web3時代的生產力工具。當我們邁入Web3.0時代,人工智能、關聯-16%數據和語義網絡構建,形成人與網絡的全新鏈接,內容消費需求飛速增長。UGCIPGC-32%這樣的內容生成方式將難以匹配擴張的需求。AIGC將是新的元宇宙內容生成解決方2021-112022-032022-072022-11案。AIGC的生成利用人工智能學習知識圖譜、自動生成,在內容的創作為人類提供協助或是完全由AI產生內容。不僅能幫助提高內容生成的效率,還能提高內容的多樣性。隨
3、著NLP(NaturalLanguageProcessing,自然語言處理)技術和擴散模型作者(DiffusionModel)的發展,AI不再僅作為內容創造的輔助工具,創造生成內容成為了可能。由此,將未文字生成、圖片繪制、視頻剪輯、游戲內容生成皆可由AI替分析師宋嘉吉代。執業證書編號:S0680519010002AIGC技術主要涉及兩個方面:自然語言處理NLP和AIGC生成算法。自然語言處郵箱:理是實現人與計算機之間如何通過自然語言進行交互的手段。AIGC生成算法主流的分析師 金郁欣有生成對抗網絡GAN和擴散模型。擴散模型已經擁有了成為下一代圖像生成模型的執業證書編號:506805210700
4、02代表的港力。它具有精度更高、可擴展性和并行性,無論是質量還是效率均有所提郵箱:升,其快速發展成為AIGC增長的拐點性因素。同時,在機器學習的過程中,需要通相關研究過大量的訓練來實現更準確的結果,目前以英偉達A100為主,對于底層算力需求將有飛速增長。1、通信:2022Q3綜述:受益“通信+”與匯兌,利潤持續修復2022-11-10內外數十家AIGC相關企業,尤其在一些具備高重復性的任務、對于精度要求并不那2、通信:通信的政策新方向一大安全、虛擬現實與么高的領域應用已逐步成熟,并在探索商業模式中。目前圖片生產、文字生成較為數字會展2022-11-06常見,這類AIGC服務大多數時候會以提供S
5、aaS服務的形式變現3、區塊鏈:ZK證明計算:算力硬件的新征途?AIGC未來發展核心:大模型、大數據與大算力。結合自然語言的大模型與數據集2022-11-04已成為AIGC發展的軟件基礎,OpenAI的Clip模型基于4億組高質量的英文圖文對應數據訓練而成;算力即權力將在AIGC數字時代更加凸顯,StableDifusion目前依賴于4000個英偉達A100的GPU集群,運營成本超5000萬美全。為了讓功能更加精確,未來還將更多地基于語種去開發垂直類的應用,便于更有目的性地為特定功能進行訓練。AIGC投資框架:軟硬件與數據集。生成算法、NLP與算力決定AIGC能否運行,而高質量的數據集決定了A
6、IGC質量與商業模式。軟件層面主要包括自然語言處理技術:谷歌、微軟、科大訊飛、拓爾思;AIGC生成算法模型及數據集:英偉達、Meta、百度、藍色光標、視覺中國、昆侖萬維。算力層包括:瀾起科技、中興通訊、新易盛、天孚通信、寶信軟件、中際旭創等風險提示:技術創新不及預期:AIGC的技術發展不及預期。以及底層硬件技術,如:超級計算機、算力的發展不及預期。政策監管風險:目前AIGC還處于相對早期,后續是否會出臺AIGC作品相關知識版權或其他法律監管條款尚不明確。請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日內容目錄1.2022:AIGC強起之年.32.AIGC是什么?.自然語言處
7、理技術NLPAIGC生成模型.2.3當我們開始用AIGC商業模式的探索.3.AIGC的未來發展超勢.183.1面臨的挑戰3.2未來的發展方向4.投資策略:AIGC的軟硬件與數據集.20風險提示.21圖表目錄圖表1:紅框為網站頭條文章位置,為AI創作.圖表2宮網展示應用場景.4圖表3:AI生成的喬布斯訪談博客.圖表4幻覺東京AI重制版.5國表5:內容生成的四階段.5圖表6:AIGC發展歷程.圖表7:自然語言理解三大發展階段.圖表:微ApacheSark功能圖表10:Transformer與其他神經網絡英德翻譯質量對比.圖表11:Transformer與其他神經網絡英法翻譯質量對比.圖表12:Tr
8、ansformer模型結構.圖表13:GAN的兩個組成.10圖表14:GAN架構.圖表15:DALL-E2可以根據文字描述生成圖片.11.1圖表17:擴散模型與其他模型比較.圖表18:正態分布函教疊和.14圖表20:Jasper的應用場景.15國表22:通過AICC生成的圖片.15.16圖表23:MidJourney用戶案例.圖表24:Phenaki2分鐘視頻生成案例.1圖表25:Delysium中的虛擬人玩家.1圖表27:AIGC生成的圖片在細節上效果較差.圖表28:AIGC投資標的.P.2請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日1.2022:AIGC崛起之年近期
9、,硅谷的眾多一線VC們開始將目光曬準AI初創公司,尤其是生成式AI藝術這一領域。今年9月23日,紅杉美國官網發表了一篇名為生成式AI:一個創造性的新世界的文章,認為AIGC(AI-GeneratedContent人工智能生成內容)會代表新一輪范式轉移的開始。2022年10月,英國開源人工智能公司StabilityAI宣布獲得1.01億美元融資,估值高達10億美元,路身獨角獸行列,由Coatue、LightspeedVenturePartners和OShaughnessyVenturesLLC參與投資。StabilityAI今年發布了StableDifusion的模型,主要用于根據用戶輸入的文字
10、描述自動生成圖像。StableDiffusion的誕生讓AI繪畫這個領域念發火爆。最近,巴比特正式對外宣布,全面擁抱AIGC,開始規?;捎肁I配圖,其中頭條圖片,全面由AI創作。包括但不限于巴比特網站和APP,微信公眾號、百家號、網易號等自媒體平臺,以及微博等社交媒體賬號。國表1:紅框為網站頭條文章位置,為AI創作S媒體學院峰會解決方案產業園區活動首頁巴比特一元宇宙每日必快訊讀:又一所“雙一流”大學資訊入場!南開大學推出國內產業安院將開設面向本科教育的專業選修課“元字Web3.0演進趨勢海盜號2022-10-1718:05專題專欄項目視頻之我要投稿邁阿密Web3峰會首批嘉賓博21天技術認知逆
11、襲計劃一區溫州將迎首個元宇宙園區!國尋求報道除了繪畫以外,文字、音頻、視頻均可通過AI來生成。文字:以Jasper為例,以AI文字生成為主打產品,通過其文字生成功能,用戶可以生成Instagram標題,編寫TikTok視頻腳本、廣告營銷文本、電子郵件內容等工作。截止2021年,Japer已擁有超過70000位客戶,并創造了4000萬美元的收入。P.3請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日國表2:富網展示應用場景社交媒體廣告文章電子郵件觀看如何將賈斯珀用于社交媒體在幾分鐘內生成數月的社交媒體內容有助于激發創意并輕松創建內容,讓您始終保持最佳狀態。想出幾十個聰明的銀幼
12、稚!發布有趣的Linin文章月明上口的視頻腳使用費斯珀瀏覽器您知道嗎?讓您編寫開放式命令,音頻:以Podcast.ai為例,作為一個由AI生成的博客,每周都會探討一個話題。在第一期節目中,其通過喬布斯的傳記和收集網絡上關于他的所有錄音,Play.ht的語言模型大量訓練,最終生成了一段假JoeRogan采訪喬布斯的播客內容。圖表3:AI生成的參布斯訪談博客Welcome to podcast.ai,a podcast thatis entirely generated by artificialintelligence.Every weekweexploreanew topic in depth
13、,and listenerscan suggest topicsorevenguestsand hostsforfutureepisodes.Whetheyoureamachine learning enthusiast,just want to hear yourfavoritetopics coveredinanewwayoreven justwant to listeesfromthepastbroughtbacktolife,thisisthepodcastforyou.PODCAST.AIEPISODE1Joe Rogan interviews Steve Jobs019:1SHAR
14、EMOREINFOUBSCRIB視頻:目前的AI技術不僅可以生成圖片,也能夠生成序列慎,如:幻覺東京。經過160小時,完成3萬多張獨立插畫,再進行手動微調。雖然目前還只是在原膚本和視頻的基礎上,通過AI逐傾完成圖片生成的,但看到了AIGC參與到視頻創作中的可能。而在諾多垂直類應用中,如體育、財經等,已經可以通過文字直接生成相應的短視頻,如果配上虛擬人則可以實現自動播報。相比于單一的虛擬人讀稿,基于AIGC生產的內容在鏡頭轉換、表情動作結合方面更加逼真。P.4請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日國表4幻覺東京AI重制版好海uoIsnId)水(重是彩bussaood
15、abenbueleineN)dIN是剪Model)的發展,AI創造生成內容成為了可能。此前,內容生成主要運用GAN(GenerativeAdversarialNetwork,生成對抗網絡)來實現的,GAN不同于擴散模型依賴于超大規模語言模型,因此難以實現通過文字的描述,自主理解內容并創造出圖像、視頻等。近年來,隨著擴散模型的成熟,生成方式更接近于人腦的聯想,AIGC完成了內容創造輔助工具到內容創作主體的角色轉變。2.AIGC是什么?AIGC是通過人工智能技術自動生成內容的生產方式。從Web1.0的單向信息傳遞的“只讀”模式到Web2.0的人與人通過網絡雙向溝通交流的“交互”模式,內容的需求在不
16、斷增加。為了滿足這一需求,同時也因為互聯網的發展,內容的生成從單一的PGC演變到了現在的UGC并占據了主要市場。Youtube、Instagram、抖音、快手、B站上有大量的內容來自于UGC創作者。當我們邁入Web3.0時代,人工智能、關聯數據和語義網絡構建,形成人與機器網絡的全面鏈接,內容消費需求飛速增長,UGCPGC這樣的內容生成方式將難以匹配護張的需求。國表5:內容生成的四階段隆內容創作模式資料來源:A16Z,國盛證券研究所P.5請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日我們認為,AIGC將是Web3時代全新的內容生成工具,同樣,將對現有的短視頻、游戲及廣告行業
17、帶來巨大的影響。AIGC的生成利用人工智能學習知識圖譜、自動生成,在內容的創作為人類提供協助或是完全由AI產生內容。不僅能幫助提高內容生成的效率,還能提高內容的多樣性。2.1AIGC發展簡史AIGC的發展可以大致分為以下三個階段:早期萌芽階段:20世紀50年代-90年代中期,受限于科技水平,AIGC僅限于小范國實驗沉積積累階段:20世紀90年代中期21世紀10年代中期,AIGC從實驗向實用轉變,受限于算法,無法直接進行內容生成快速發展階段:21世紀10年代中期一現在,深度學習算法不斷選代,AI生成內容種類多樣豐富且效果通真近年來,AIGC的發展迅速,從原來作為邊緣側服務于企業、機構的角色變為了
18、現在C端零基礎用戶都可以使用的創作工具。開發側重點上,AIGC也從原先用于翻譯、語音合成以及重復性工作轉變為了更注重應用層面,用戶能夠便捷操作的方向。圖表6:AICC發展歷程+1966年,世界第一款可人機對話的機器人Eiza問世早期萌芽階80年代中期段ad問世2012年,微軟展示全自動同傳系統沉積積累階段2014年,lanJfellow提出生成對抗網絡GAN0%由人工智能創作的詩集陽光失了玻璃窗2017年,微軟“小冰”快速發展階nd發布DVD段資料來源KAIG2.2技術隨著NLP(NaturalLanguageProcessing,自然語言處理)技術和擴散模型(DiffusionModel)的
19、發展,AI不再僅作為內容創造的輔助工具,創造生成內容成為了可能。自然語言處理技術NLP自然語言處理是實現人與計算機之間如何通過自然語言進行交互的手段。融合了語言學、計算機學、數學,使得計算機可以理解自然語言,提取信息并自動翻譯、分析和處理。P.6請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日在自然語言處理技術發展之前,人類只能通過一些固定模式的指令來與計算機進行溝通,這對于人工智能的發展是一個重大的突破自然語言處理最早可以追潮到1950年,圖靈發表論文“計算機器與智能”,提出“圖靈測試”的概念作為判斷智能的條件。這一測試包含了自動語意翻譯和自然語言生成。自然語言處理技術可
20、以分為兩個核心任務:自然語言理解NLU:希望計算機能夠和人一樣,具備正常人的語言理解能力。過去,計算機只能處理結構化的數據,NLU使得計算機能夠識別和提取語言中的意圖來實現對于自然語言的理解。由于自然語言的多樣性、岐義性、知識依賴性和上下文計算機在理解上有很多難點,所以NLU至今還遠不如人類的表現自然語言理解跟整個人工智能的發展歷史類似,一共經歷了3次選代:基于規則的方法、基于統計的方法和基于深度學習的方法。國表7:自然語言理解三大發展階段自然語言理解3大發展階段0U0階段1:基于規則階段2:基于統計階段3:基于深度學習資料來easyai,研究所自然語言生成NLG:將非語言格式的數據轉換成人類
21、可以理解的語言格式,如文章、報告等。NLG的發展經歷了三個階段,從早期的簡單的數據合并到模板驅動模式再到現在的高級NLG,使得計算機能夠像人類一樣理解意圖,考慮上下文,并將結果呈現在用戶可以輕松閱讀和理解的敘述中。自然語言生成可以分為以下六個步驟:內容確定、文本結構、句子聚合、語法化、參考表達式生成和語言實現。因表8:自然語言生成6步票決定哪些信息應該包含在正在構建的文本中,哪些不應該包含。通常數據中包含的信息比最終傳達的信息要多。確定需要傳達哪些信息后,MLG系統需要合理的組織文本的順序。不是每一條信息都需要一個獨立的句子來表達,將多個信總合并到一個句子里表達可能會更加流暢,也更易于閱讀。在
22、各種信息之間加一些連接詞,看起來更像是一個完整的句子。和語法化很相似,都是選擇一些單詞和短語來構成一個完整的句子。兩者的本質區別在于當所有相關的單詞和短語都已經確定時,需要將它們組合起來形成一個結構良好的完整句子。研究2851P.7請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日NLP主要被應用在四個方面:情感分析:互聯網上存在大量的信息,表達的內容都是多種多樣的,但抒發的感情大致可以分為正面和負面的,可以被用來快速了解用戶的奧情情況。聊天機器人:近年來,智能家居的發展和普及使得聊天機器人的價值擴大。語音識別:微信中可以通過語音進行輸入或直接將語音轉化為文字,汽車導航可以直
23、接說目的地,大大提升了便利性。機器翻譯:機器翻譯的準確率在近年大幅提高,youtube和netflix甚至可以做到視頻機器翻譯。圖表9:截軟ApacheSpark功能InformatiorSpelling&GrarText ClassificationTranslationSummarationQuestionAnsweringEmotionDetectionAnnotatorsModelsanguagsClean TextSplit Te200+5000+Sp6R家SoNR商業上,NLP主要被應用在一下領域用于處理財務、醫療保健、零售、政府和其他部門手寫或機器建立檔案文字處理工作,如:名稱實
24、體辯識(NER)、分類、摘要和關聯頻取。這能將頻取、識別和分析文檔資訊的流程自動化。語意搜尋和資訊頻取和知識圖表建立跨零售、財務、旅游和其他產業客戶的交互AI系統等。神經網絡,尤其是循環神經網絡(RNN)是當前NLP的主要方法的核心。其中,2017年由Google開發的Transformer模型現已逐步取代長短期記憶(LSTM)等RNN模型成為了NLP問題的首選模型。Transformer的并行化優勢允許其在更大的數據集上進行訓練。這也促成了BERT、GPT等預訓練模型的發展。這些系統使用了維基百科、CommonCrawl等大型語料庫進行訓練,并可以針對特定任務進行微調P.8請仔細閱讀本報告末
25、頁聲明#page#國盛證券G2022年11月13日圖表10:Transformer與其他神經網絡英德翻譯質量對比圖表11:Transformer與其他種經網絡英法翻譯質量對比Quat國盛證養研究局GOogkTransformer模型是一種采用自注意力機制的深度學習模型,這一機制可以按輸入數據各部分重要性的不同而分配不同的權重。除了NP以外,也被用于計算機視覺領域。與循環神經網絡(RNN)一樣,Transformer模型旨在處理自然語言等順序輸入數據,可應用于翻譯、文本摘要等任務。而與RNN不同的是,Tansformer模型能夠一次性處理所有輸入數據。注意力機制可以為輸入序列中的任意位置提供上下
26、文。如果輸入數據是自然語言,則Transformer不必像RNN一樣一次只處理一個單詞,這種架構允許更多的并行計算,并以此減少訓練時間。圖表12:Transformer模型結構Multi-Head Attention Scaled Dot-Product Attentions Position-wise Feed-Forward NetworksPositionalEncodingAIGC生成模型近年來,AIGC的快速發展歸功于生成算法領域的技術積累,其中包含了:生成對抗網絡(GAN)、變微分自動編碼器(VAE)、標準化流模型(NFs)、自回歸模型(AR)、能量模型和擴散模型(Diffusio
27、nModel)??梢钥吹?,大模型、大數據、大算力是未來的發展超勢。我們認為,算法模型的突破是近年來AIGC得以快速突破的催化劑,下面將展開介紹一下兩個非常常用的模型,分別是生成對抗網絡和擴散模型。生成對抗網絡GAN(GenerativeAdversarialNetworks)P.9請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日2014年,Ian.Goodfellow提出了GAN,是一種深度神經網絡架構,由一個生成網絡和一個判別網絡組成。生成網絡產生“假”數據,并試圖欺騙判別網絡;判別網絡對生成數據進行真偽鑒別,試圖正確識別所有“假”數據。在訓練送代的過程中,兩個網絡持續地
28、進化和對抗,直到達到平衡狀態,判別網絡無法再識別“假”數據,訓練結束。圖表13:GAN的兩個組成生成器錦家示Discrimn生成圖像,“騙”過判別器找出生成器做的“假數據”循環訓練,兩邊能力越來越強生成器裝麗聯GoneratoDiscriminato:EaSyA,國盛證券研究所GAN被廣泛應用于廣告、游戲、娛樂、媒體、制藥等行業,可以用來創造虛構的人物、場景,模擬人臉老化,圖像風格變換,以及產生化學分子式等等。圖表14:GAN架構真圖像潛在空間DSDDiserimiG:不斷提升其辨別是非能力生成假圖像Generato使生成的圖片越來越像真圖像循環訓練模型添加噪聲國盛證券其優點在于:能更好建模數
29、據分布無需利用馬爾科夫鏈反復采樣,無需在學習過程中進行推斷,沒有復雜的變分下界,避開近似計算辣手的概率的難題缺點:難訓練,不穩定。生成器和判別器之間需要很好的同步,但是在實際訓練中很容易判別器收斂,生成器發散。兩者的訓練需要精心的設計。P.10請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日模式缺失(ModeCollapse)問題。GANS的學習過程可能出現模式缺失,生成器開始退化,總是生成同樣的樣本點,無法繼續學習。擴散模型DiffusionModel擴散模型是一種新型的生成模型,可生成各種高分辨率圖像。在OpenAI,Nvidia和Google設法訓練大模型之后,它們已
30、經引起了很多關注?;跀U散模型的示例架構包括GLIDE,DALLE-2,Imagen和完全開源的穩定擴散。擴散模型已經擁有了成為下一代圖像生成模型的代表的潛力。以DALL-E為例,能夠直接通過文本描述生成圖像,讓計算機也擁有了人的創造力。圖表15:DALL-E2可以根據文字描述生成圖片DALLE2 cancreateoriginalrealisticimages andartfromaAn astronauteddy bAbowridingahorselounging ina tropicalwithcatsinaphotorealistic stylein the styleAncyWadr
31、awing務器國盛證券研究擴散模型的生成邏輯相比其他的模型更接近人的思維模式,也是為什么近期AIGC擁有了開放性的創造力。本質上,擴散模型的工作原理是通過連續添加高斯噪聲來破壞訓練數據,然后通過反轉這個噪聲過程來學習恢復數據。訓練后,我們可以通過簡單地將隨機采樣的噪聲傳遞給學習的去噪過程來生成數據。從下圖可以看到,擴散模型是一個潛在變量(latentvariable)模型,通過馬爾科夫鏈映射到潛在空間。馬爾可夫鏈是狀態空間中經過從一個狀態到另一個狀態的轉換的隨機過程,下一狀態的概率分布只由當前狀態決定。在這一過程中逐步添加高斯噪聲來獲得近似的后驗概率q(xtlxt-1),其中x1.xt均是潛在
32、變量,并且它們的維度與原圖xo一致。從上圖中我們可以看到,圖片xo最終會變為純高斯噪聲的圖片xt。而訓練擴散模型的目標則是反向這一過程,也就是訓練圖中所示的轉移概率pe(xt-1lxt)。通過沿著這條線向后遍歷,我們可以生成新的數據。P.11請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日圖表16擴數模型訓練原理q(x1x+-1)pe(x-1|x)q(x:|x-1)資料來源回盛證券研究所相比于其他模型,擴散模型的優勢在于生成的圖像質量更高,且無需通過對抗性訓練,這使得其訓練的效率有所提升。同時,擴散模型還具有可擴展性和并行性。圖表17:擴數模型與其他模型比較Generato
33、rDiscriminaGAN:AdversarialD(x)G(z)trainingEncodelDecoderVAE:maximize96(2x)Do(x|z)InverseFlowFlow-basedmodels:f(x)f-(z)ertible transformdistributionsDiffusion models:Gradually add Gaussianoiseand thenreverse資料來源水O一的時候,是通過在一副純白的畫布(隨機白噪聲)上逐步去噪來生成最終的目標畫作。即用戶給出的文本描述形容詞,來從一個模糊的概念逐步具象。我們可以簡化為多個正態分布函數的登加,模型
34、選擇其中重疊的區間輸出,這也是一個逐步縮小范圍的過程。這與人類的思維模式很類似。簡言之,在AI訓練階段,我們將數據集中上億組圖文對進行訓練,提取特征值;生產過程中,通過添加文字描述,引入不同的特征值進行去噪,從而生產一副AI理解下的內容作品。例如,在當我們在腦海中想象一個畫面的時候,比如:一只柯基通過一個小號玩火焰。我們的思維模式也是先有一只柯基,再去想象小號和火焰,最后將這些元素疊加P.12請仔細閱讀本報告末頁聲明#page#page#G國盛證券2022年11月13日2.3當我們開始用AIGC-一商業模式的探索AIGC已被廣泛應用在文字、圖像、音頻、游戲和代碼的生成當中,一些較早創立的企業已
35、經實現了較好的商業化。尤其在一些具備高重復性的任務、對于精度要求并不那么高的領域應用較為成熟。隨著AIGC技術的發展,其適用面將會逐漸擴大。這類AIGC服務的提供商大多數時候會以提供SaaS服務的形式變現。文字創作AIGC生成文字目前主要被應用于新聞的操寫、給定格式的擺寫以及風格改寫。其中,有一家成立還不滿兩年的獨角獸企業Jasper在最新一輪的融資里獲得了1.25億美元資金,目前估值為15億美元。Jasper成立于2021年,是一個AI內容平臺,允許個人和團隊利用AI來創作內容,多用于商業。用戶可以在借助Jasper生成具有豐富關鍵詞、搜索引學優化的原創博客,可以通過文字描述讓Jasper幫
36、助完成文章的創作、創建廣告話術。通過Jasper用戶可以尋找創作思路、高效完成文案、突破語言壁壘,而不會存在抄襲的嫌疑。目前,Jasper擁有7萬多名客戶,包括Airbnb、Ibm等企業。僅2021年一年便創造了4000萬美元的收入,今年預估收入為9000萬美元。圖表20:Jasper的應用場景G6OCreate originontenad conversionsforSEOwithbettercopy10Xfaste8商Scale upaDer用戶可以通過輸入一段對于目標文章的描述或者要求,系統會自動抓取數據,根據我們描述的指令進行創作。作者本人進行如下實驗,輸入的描述為【寫一篇關于AIGC
37、的文章,其中要包含AIGC的定義、發展史、應用、現階段發展情況和對于未來發展趨勢的看法,同時,要包含細節和舉例】。同時,在風格上我選擇了“專業性”。Jasper很快就生成了一篇AIGC操寫的AIGC文章(如下圖所示),可以看到這篇文章語義通順,按照我們給出的描述逐段剛述,并且包含了一些舉例,這個生成效果無疑會大幅度提升人類的寫作效率。并且,在Jasper的網頁版APP上,還給出了數百種模板,可以根據需求更好的完成作品。P.14請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日國表21:通過AIGC接寫的AIGC報告心圖像創作Midjourney降低了藝術繪畫創作的門檻,用戶只
38、需要通過輸入文字描述,計算機將會自動生成一張作品。其背后的邏輯在于計算機通過NLP識別語意并翻譯成計算機語言,結合后臺的數據集(這些數據集主要通過自有素材或機器人爬取公開版權的內容獲得),創作出一副全新的作品。這樣產生的作品原則上屬于AI創作,因此,在新聞媒體等平臺被廣泛使用,不僅減少了成本,同時避免了潛在的版權糾紛風險。除此以外,在抖音、微信等社交平臺上,已經有一些數據集圖庫博主通過AIGC創造素材并結合自已的私域流量進行商業變現。國表22:通過AIGC生成的圖片四教學AI創作免加入社群36/1000F713P.15請仔細閱讀本報告末頁聲明#page#S國盛證券2022年11月13日BOTf
39、emale analystis sitting in the office andwritingaiBIGCat(fast)ught5U28n如GV4V1V2V3國盛證券研究所資料來源和無界版圖,近期,OpenAI已經與全球最大的版權圖片供應商之一的Shutterstock達成深度合作,Shutterstock將開始出售利用OpenAI的DALL-E生成的圖片,并禁止銷售非DALL-E生成的圖片,完成深度獨家綁定。AIGC除了大家熟知的生成繪畫以外,還可以利用這一功能完成文字和圖片的互相轉換,這在寫專利時可以被用到。圖表23:Midjourney用戶案例/beta-upscaLe3months
40、agoportrait photo ofaasia oldwarriorchieftribal panther make up blueon redside profile,lookinMantaRay資料來源MiGL視頻創作除了繪畫以外,AIGC也能夠被運用在視頻創作中。Google推出了AI視頻生成模型Phenaki能夠根據文本內容生成可變時長視頻的技術,在公布的DEMO中,Phenaki基于幾百個單詞組成一段前后邏輯連貫的視頻只需兩分鐘。相比原有的Imagen基P.16請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日礎上衍生的ImagenVideo曬準短視頻,Phen
41、aki曬準的是長視頻。AIGC視頻中的運用,讓我們看到了未來虛擬人也能夠作為演員在影視劇中扮演不同的角色以提高內容產出的效率和多樣性。圖表24:Phenaki2分鐘視頻生成策例2 minute videoThis2-1ofprompts,onanPromptsusedPhenak音頻剪輯AIGC生成音頻早被應用于我們的日常生活當中。我們常用的手機導航,可以切換不同明星甚至于卡通人物的語音提示。這是通過提前請明星或卡通人物的配音朗讀完成一個語音庫,再通過反復的訓練學習使得可以用指定的聲音說出任何話。我們自已也可以通過高德地圖錄制自己的語音導航包。而更深層次的應用將會是虛擬人領域,AIGC不僅可以
42、生成虛擬人的聲音,并可以創造出說的內容。虛擬人在未來有望和我們一樣表達自己的想法,靈魂逐步顯現。游戲開發AIGC在游戲當中的應用可以分為兩方面,一方面是用于場景和故事的搭建。開放世界游戲越來越受歡迎,通過AIGC來創建場景和NPC都將會大幅度提升效率和降低成本。另一方面,玩家可以通過AIGC的平臺工具來創建自己的虛擬人,可以用于游戲中的打金等活動。有一家叫做Delysium的游戲已經開始引入這一功能?;蛟S在未來的開放世界游戲中,不同的玩家將對應不同的游戲劇情和副本,這無疑將是令人興奮的應用。P.17請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日圖表25:Delyslum中
43、的虛擬人玩家You Are Not AloneDel代碼生成GitHubCopilot是一個GitHub和OpenAI合作產生的AI代碼生成工具,可根據命名或者正在編輯的代碼上下文為開發者提供代碼建議。官方介紹其已經接受了來自GitHub上公開可用存儲庫的數十億行代碼的訓練,支持大多數編程語言。國表26:GitHubCopilot1號GitHubCopilotService3.AIGC的未來發展趨勢AIGC是PGC、UGC之后,全新的內容生產方式。不僅能提升內容生產的效率以滿足我們飛速增長的內容需求,也能夠豐富內容的多樣性。在2022年百度世界大會上,李彥宏提到了:“AIGC將走過三個發展階段
44、:第一個階段是“助手階段”,AIGC用來輔助P.18請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日人類進行內容生產;第二個階段是“協作階段”,AIGC以虛實并存的虛擬人形態出現,形成人機共生的局面;第三個階段是“原創階段”,AIGC將獨立完成內容創作。未來十年,AIGC將額覆現有內容生產模式,可以實現以十分之一的成本,以百倍千倍的生產速度,去生成AI原創內容?!?.1面臨的挑戰技術上來看,雖然當前生成的圖片、文字已經可以用以商業用途,但還存在一些問題使得無法滿足較高的質量要求。我們可以發現在二次元或抽象的圖片生成中,AIGC的表現較好。但對于比較具體和細節的內容,生成的效
45、果不盡如人意。下圖是筆者通過AIGC生成的一副“美女與布偶貓”的圖片,從這一張圖片我們可以發現有兩個問題其中有兩幅圖片的貓咪眼睛很奇怪,在這些細節描繪上還無法和真人畫師婉美。輸入的關鍵詞是“美女”與“布偶貓”,但是生成的“美女”均長著一張貓臉,從這里反映出AIGC繪畫會出現一些空間位置以及數量上的偏差。產生的原因主要還是來源于語義理解和處理上的問題。國表27:AIGC生成的國片在細節上效果較差apretty girlwithacuteragdollcat-VariationsbyBIGCat(fast)固盛證濟究戶與此同時,參考上文中的圖表23,我們可以發現不同的應用平臺,輸入幾乎一致信息,點
46、的文本,生成的圖片的質量和內容差距是巨大的。那么造成以上的這些問題和差距的原因在哪里呢?我們依舊可以從AIGC的工作原理上來分析:自然語義的理解在處理一些空間關系上還存在一定的誤差,這也是為什么在空間位置、數量上存在不精確的問題。目前文本生成圖像時,需要用到文本編碼器將文字映射到圖像上。當前主流的、訓練完善的是來自與OpenAI的Clip模型,其函數是開源的,但訓練的數據集是封閉的。AIGC需要大量的良好畫質的文本-圖片對才能訓練到Clip這樣的程度。從Clip本身公開的信息來看,它使用了超4億個文本-圖片對來完成訓練,這些都是基于英文的。那么存在以下幾個問題:1、億級別的高質量的文本-圖片對
47、在于其他的語言P.19請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日上獲得的難度大幅提高,這也是為什么目前大多除英語外的其他語言的AIGC都是需要在整個流程前增加一步翻譯。這一步不但涉及語義理解,還包含了文化、語言習慣等潛在的因素,很難被精確翻譯,對于翻譯模型的挑戰很大。2、Clip的模式很難復刻,即使運用Clip開源的函數,基于不同的數據庫訓練出的結果不同。據我們了解,海外有團隊運用了20億的文本-圖片對才接近復刻了Cip;運用的AIGC生成算法不同也會導致產生的內容的差距;數據集的質量、合規性、風格偏向都會決定生成的內容質量。以上,我們可以看到若要使得AIGC生成的內
48、容真正高效地被運用在商業層面,那么自然語言處理、翻譯模型、生成算法和數據集這些細分賽道都還有很大的進步空間。3.2未來的發展方向在上文中,我們了解到從應用軟件方面,自然語言處理、翻譯模型、生成算法和數據集這些細分賽道都還有很大的進步空間。更深入地來看,以上這些的發展需要依托于算力、數據的支持。所以未來的發展重點將更著力于大模型、大數據和大算力的方向去發展。同時,為了讓功能更加精確,將會更多地去開發一些垂直類的應用,畢競垂直類的應用可以更有針對性地為特定功能進行訓練,成本相對較低。4.投資策略:AIGC的軟硬件與數據集從PGC到UGC再到AIGC,AIGC能讓人類突破內容生產力柳鎖,高效率生成高
49、質量內容,讓人類進入到真正的元宇宙之中。若要AIGC能夠滿足元宇宙的需求,獨立完成高質量、高精度的內容,AIGC技術層面還需要一定的發展,我們可以分為軟硬件兩個維度看,軟件層面主要包括自然語言處理技術、AIGC生成算法模型和數據集,硬件層面主要是算力、通信網絡。從業務層面看,結合國內外發展情況,目前在AIGC的知識產權歸屬方面尚有法律空缺,且創作倫理問題也未得到有效解決,因此無論是技術還是商業層面,高質、干凈的數據集對于模型訓練及內容生成均有至關重要的影響。同時,隨著AIGC逐步落地,其算力需求將大增,未來相關企業除用云計算之外,或組建自有算力集群,考慮到英偉達A100、H100出口受限,相關
50、國產算力芯片將有機會獲得增量市場從主題投資的角度看,區塊鏈、元宇宙、Web3均描述了數字經濟時代中宏大的應用場景,而去年被資本市場關注的虛擬人、NFT等只是其中的具體應用之一。我們認為,AIGC將是推動數字經濟從Web2向Web3升級的重要生產力工具:一方面,其對現有的殺手級應用短視頻、游戲等具有顛覆式影響,或進一步擴大內容量、提高成癌性,同時對社交和廣告提供新的工具;另一方面,Web3開放、共建的價值觀下,UGC、AIGC的內容會更具吸引力,二次創作、開放想象的浪潮將來臨。目前AIGC已成為硅谷最新熱門方向,國內一級市場、互聯網大廠等對AIGC應用關注度也在快速提升中。P.20請仔細閱讀本報
51、告末頁聲明#page#國盛證券2022年11月13日圖表28:AICC投資標的公司代碼AIGC賽道谷歌GOOG深度學習模型Transformer,AIGC生成應用Imager微軟MSFT自然語言處理用用ApacheSpark,投資了OpenAI自然語言處理002230MLP科大訊飛語音識別和人工智能拓爾思300229通過基于大數據和NLP的知識圖譜的構建,為虛擬人安裝知識大腦英偉達NVDAOmniverse,生成對抗網絡PoE-GAN,StyleGANMetaMetaAIGC生成應用MetaAI多語言模型XLS-RBIDU百度擁有文心大模型,不僅可以自然語言處理,還可以生成修復圖片AIGC生成
52、算法視黨中國000681和數據集通過AIGC生成藝術照片,擁有高質量圖片數據集300418昆合萬維旗下海外平臺Starx完成了首批5首完全AI作曲的歌曲藍色光標300058發布一鍵生成抽象畫平臺“康定斯基模型”,用于AI繪畫688008瀾起科技全球服務器芯片提供商天乎通信300394全球光模塊及數通廠商光學器件供應商000063中興通訊5G設備商龍頭300502新易盛400G時代領先的光收發器件解決方案提供商算力美格智能002881物聯網智能模組供應商300738奧飛數據有影響力的IDC服務提供商中際旭創300308全球光電子領軍企業,FB供應商資料來源:公開資料,國盛證券研究所風險提示技術創
53、新不及預期:AIGC的技術發展不及預期。以及底層硬件技術,如:超級計算機、算力的發展不及預期。政策監管風險:目前AIGC還處于相對早期,后續是否會出臺AIGC作品相關知識版權或其他法律監管條款尚不明確。P.21請仔細閱讀本報告末頁聲明#page#G國盛證券2022年11月13日免責聲明國盛證券有限責任公司(以下簡稱”本公司”)具有中國證監會許可的證券投資咨詢業務資格。本報告僅供本公司的客戶使用。本公司不會因接收人收到本報告而視其為客戶。在任何情況下,本公司不對任何人因使用本報告中的任何內容所引致的任何損失負任何責任本報告的信息均來源于本公司認為可信的公開資料,但本公司及其研究人員對該等信息的準
54、確性及完整性不作任何保證。本報告中的資料、意見及預測僅反映本公司于發布本報告當日的判斷,可能會隨時調整。在不同時期,本公司可發出與本報告所載資料、意見及推測不一致的報告。本公司不保證本報告所含信息及資料保持在最新狀態,對本報告所含信息可在不發出通知的情形下做出修改,投資者應當自行關注相應的更新或修改。本公司力求報告內容客觀、公正,但本報告所載的資料、工具、意見、信息及推測只提供給客戶作參考之用,不構成任何投資、法律、會計或稅務的最終操作建議,本公司不就報告中的內容對最終操作建議做出任何擔保。本報告中所指的投資中國教可“事業容,不應視本報告為做出投資決策的唯一因素投資者應注意,在法律許可的情況下
55、,本公司及其本公司的關聯機構可能會持有本報告中涉及的公司所發行的證券并進行交易,也可能為這些公司正在提供或爭取提供投資銀行、財務顧問和金融產品等各種金融服務。本報告版權歸”國盛證券有限責任公司“所有。未經事先本公司書面授權,任何機構或個人不得對本報告進行任何形式的發布、復制。任何機構或個人如引用、刊發本報告,需注明出處為”國盛證券研究所”,且不得對本報告進行有停原意的刪節或修改。分析師聲明本報告署名分析師在此聲明:我們具有中國證券業協會授予的證券投資咨詢執業資格或相當的專業勝任能力,本報告所表述的任何觀點均精準地反映了我們對標的證券和發行人的個人看法,結論不受任何第三方的授意或影響。我們所得報
56、副的任何部分無論是在過去、現在及將來均不會與本報告中的具體投資建議或觀點有直接或間接聯系。投資評級說明評級說明投資建議的評級標準買入評級標準為報告發布日后的6個月內公司股價(或行業相對同期基準指數漲幅在15%以上增持指數)相對同期基準指數的相對市場表現。其中A股市相對同期基準指數漲幅在5%m15%之間股票評級場以滬深300指數為基準;新三板市場以三板成指(針持有相對同期基準指數漲幅在-5%+5%之間對協議轉讓標的)或三板做市指數(針對做市轉讓標的)減持相對同期基準指數跌幅在5%以上為基準;香港市場以摩根士丹利中國指數為基準,美股增持相對同期基準指數漲幅在10%以上市場以標普500指數或納斯達克綜合指數為基準。中性相對同期基準指數漲福在-10%+10%之行業評級間減持相對同期基準指數跌幅在10%以上國盛證券研究所上海北京地址:上海市浦明路868號保利One561號樓10層地址:北京市西城區平安里西大街26號樓3層郵編:100032郵編:200120電話:021-38124100傳真:010-57671718郵箱:郵箱:南昌深圳地址:南昌市紅谷灘新區鳳凰中大道1115號北京銀行大廈地址:深圳市福田區福華三路100號鼎和大廈24樓郵編:330038郵編:518033傳真:0791-86281485郵箱:郵箱:P.22請仔細閱讀本報告末頁聲明#page#