《計算機行業AIGC系列報告(二):算力AIGC時代的“賣鏟人”-230402(28頁).pdf》由會員分享,可在線閱讀,更多相關《計算機行業AIGC系列報告(二):算力AIGC時代的“賣鏟人”-230402(28頁).pdf(28頁珍藏版)》請在三個皮匠報告上搜索。
1、證券研究報告一行業深度報告|計算機信息技術AIGC時代的“賣鏟人”算力:仙-AIGC系列報告(二)劉玉萍周翔宇m招商證券CMSS1090518120002S10905180500012023.4.2#page#要點概覽本篇報告系統地梳理了大模型訓練及推理需要多少算力。大模型參數量快速提升,Transformer架構成為發展超勢。根據最新論文對“涌現”效應的研究,當模型訓練量超過1022后,模型準確率有了很大的提升,近年來,NLP模型的發展十分迅速,模型的參數量每年以5至10倍的速度在提升,背后的推動力即大模型可以帶來更強大更精準的語言語義理解和推理能力。Transformer架構通過計算數據之
2、間的關系提取信息,相較于卷積神經網絡具有更強大的運算效率,更適合參數和數據集龐大的自然語言處理學習?;贕PT3大模型的訓練/推理所需的算力及金額測算。訓練端,以GPT3為例,完成一次大模型訓練所需的算力需求量為3646PFDays,若用10000張英偉達V100/A100訓練則分別需要14.59/3.34天,對應訓練費用分別為4.72/1.89百萬美元。推理端,以GPT3為例,1000個token的推理算力需求約為350TFLOPS,對應推理成本約為0.15美分。英偉達GPU是當前最適合做訓練的AI芯片。GPU提供多核并行計算的基礎,且核心數眾多,可以支撐大量數據的并行運算,英偉達Tenso
3、rcore技術能夠通過降低精度,在性能方面實現數量級的提高。此外,針對大規模AI訓練,英偉達推出DGX系統,包括A100、H100、BasePOD、SuperPOD四款產品,其中,DGXA100、DGXH100為英偉達當前服務于AI領域的服務器產品。投資建議:算力是AIGC時代的“賣鏟人”。我們認為發展算力基礎設施是AIGC產業發展中必不可少的環節,我國在算力領域仍有較大成長空間。其中,國產AI芯片領城重點推薦寒武紀(電子聯合覆蓋)、海光信息(電子聯合覆蓋);服務器領城重點推薦中科曙光、浪潮信息。風險提示:AI服務器供應鏈風險;AI芯片研發不及預期風險;AI相關上市公司短期漲幅過大風險。CMS
4、招商證券#page#目錄大模型需要大算力一、1.1模型不斷增大,Transformer架構成為發展超勢1.2涌現理論:大模型是自然語言處理的核心1.3大模型模型參數量快速提升1.4英偉達GPU是當前最適合做訓練的AI芯片二、大模型算力需求測算三、英偉達DGX系統介紹四、投資建議CMSm招商證券#page#page#1.2涌現理論:大模型是自然語言處理的核心圖:各種模型EmergentAbility出現時的訓練量對比自然語言處理任務的準確率與訓練量-LaMDA-GPT3GophuPaLNRandom緊密相關,因此大模型在自然語言處(A)Mod.arithmnetic(B)IPA translit
5、erate(D)Persian QA(C)Word unseramble理領域不可或缺A品根據最新的論文研究,當模型訓練煙量小于1022時,模型在幾個自然語部言處理任務上的準確率都在0附近10210101810211021010201018100F而當模型訓練量超過1022后,模NLU(E)TruthfulQA(F)Grounded(G)Multi-t(H)Word inmappings型的準確率有了很大的提升,該效應稱之為“涌現”。兄根據OpenAI的官網披露,GPT4大模型在參數量及數據集較GPT3有D10210281021021021010210210210201021022大幅提升,我
6、們認為從GPT4在自Model scale (training FLOPs)然語言任務處理上所表現出的優異e in the few-shot prompting setting.Each point is a separate model.The ability to performa task via few-shot prompting is emergent when a language model achieves radom性能進一步表明,通過提高模型參performance until acertain scaleafter which performance significa
7、ntlyincrenses towellabove randomn.Note數量、擴大數據集來提高模型性能analogous figure with mmber of model parameters instead of training FLOPs as the -axis in Figure 11AD:BIG-Bench(2022),2-shot.E:Lin etnl.(2021)and Raeetal.(2021).F:Patel&Pavlick(2022).GHendryeks etal.(2021a),Raeetal.(2021),andIofmann etal.(2022).H:
8、Brown et al.(2020),Ioffmamn的方法仍然沒有碰到天花板。etal.2022),andChowdhery etal.(2022)om theWiC benchmark(Piehwr&Camacho-Collndos.2019)“WeiJ,Tay Y,Bommasani R,et al.Emergent abilities of資料來源:largc languagc modclsJ.arxiy preprint arxiv:2206.07682,2022.”CMSm招商證券OpenAI官網、招商證券#page#1.3大模型參數量快速提升目前,大模型參數量快速增長,已經出現萬
9、億級別的大模型。近年來,NLP大模型的發展十分迅速,模型的參數量每年以5至10倍的速度在提升,背后的推動力即大模型可以帶來更強大更精準的語言語義理解和推理能力。2020年末,OpenAI發布的GPT-3模型達到了1750億參數的大小,相比2018年94M的ELMo模型,三年的時間整整增大了1800倍之多。按此趨勢,預計兩年后,會有100Tril1ion參數的模型推出。圖:大模型參數量快速增長量參數SwitchGL.aMTransformer(1-2T)1.6T)1THun Yuan-lT(1T)PaLMERNIE-3(540B)Pangu(260B)GPT-3(200B)(175B)100B-
10、T-NLGT5Megatron(17B)(11B)(8B)GPT=21B(1.5B)BERT-L1M(340M)2019202020212022時間線CMSm招商證券資料來源:騰訊AIGC白皮書、招商證券#page#1.4英偉達GPU是當前最適合做訓練的AI芯片革命性的AI訓練能,英偉達GPGPU是目前最適合做AI訓練的芯片。GPU提供多核并行計算的基礎,且核心數眾多,可以支撐大量數據的并行運算。AI場景訓練和推理通常不涉及大量的分支運算與復雜的控制指令,更適合在GPU上進行。英偉達TensorCore能夠通過降低精度,例如Transformer引學中的8位浮點(FP8)、TensoF1oat
11、32(TF32)和FP16,在性能方面實現數量級的提高。此外,通過CUDA-X庫直接支持原生框架,實施可自動完成,從而在保持準確性的同時,大幅縮短從訓練到收斂的時間目前,國內外主流云計算廠商均使用英偉達GPU芯片作為其超級計算能力的底座。圖:英偉達GPGPU架構表:云計算廠商均采用英偉達芯片M60PAP40 P100T4RTXV100A10A40A100NGC阿里云VV1VVVASVVV百度云VVRegisterFile(16.384x32-bit)GoogleVVVVVVCloudIBMVCloudMicrosoftVVVW電AZuTeOracleVCloud騰訊云VWVNPNVVSFUCS
12、PsCMS魚招商證券資料來源:英偉達官網、招商證券#page#1.4英偉達GPU是當前最適合做訓練的AI芯片表:英偉達V100/A100/H100算力對比英偉達TensorCore已經經歷了四代,當前H100被譽為最適合Transformer模型訓芯片CUDA CoreTensor CoreFP32FP16INT8TF32FP16INT8練的芯片。(TFLOPS)(TOPS)(TFLOPS)(TOPS)(TFLOPS)(TFLOPS)英偉達H100基于英偉達Hopper3162V10015.7125TensorCore架構,綜合技術創新可3978A10019.51563126246713426
13、8495990以將大型語言模型的速度提高30倍。H1001979表:英偉達四代TensorCore架構梳理效果Nvidia Tensor CoreNVIDIAVolta中的第一代TensorCore專為深度學習而設計,通過FP16和FP32下的混合精度矩陣乘法提供了突破性的性能。與NVIDIAPascal相比,用于訓練的峰值TFLOPS性能提Volta第一代升了高達12倍,用于推理的峰值TFLOPS性能提升了高達6倍。這項關鍵功能使Volta提供了比Pascal高3倍的訓練和推理性能。NVIDIATuringTensorCore技術能進行多精度計算,可實現高效的AI推理。TuringTurin
14、g第二代TensorCore提供了一系列用于深度學習訓練和推理的精度(從FP32到FP16再到INT8和INT4),性能大大超過NVIDIAPascalGPUNVIDIAAmpereTensorCore基于先前的創新成果而構建,通過使用新的精度(TF32和Ampere第三代FP64)來加速和簡化AI采用,并將TensorCore的強大功能擴展至HPC。第三代TensorCore支持BFloat16、INT8和INT4,可為AI訓練和推理創建高度通用的加速器。NVIDIAHopper架構利用Transformer引學改進第四代TensorCore,該引攀使用新的8位第四代Hopper浮點精度,可
15、為萬億參數模型訓練提供比FP16高6倍的性能。HopperTensorCore使用TF32、FP64、FP16和INT8精度,將性能提升3倍,能夠加速處理各種工作負載CMS招商證券資料來源:英偉達官網、招商證券t#page#目錄一、大模型需要大算力二、大模型算力需求測算2.1大模型訓練算力總需求測算2.2大模型訓練費用測算2.3推理所需要的算力需求及成本測算2.4模型API接口調用價格測算三、英偉達DGX系統介紹四、投資建議CMSm招商證券#page#2.1大模型訓練算力總需求測算根據“Kaplan,J.,McCandlish,S.,Henighan,T.,Brown,T.B.,Chess,B
16、.,Child,R.,Gray,S.,Radford,A.,Wu,J.and Amodei,D.,2020.Scaling laws for neural language”的論文,基于transformer的自然語言處理(NLP)大模型可分為三類:Encoder-Only(E),Decoder-Only(D)和Encoder-Decoder(ED)。模型的訓練算力需求可根據以下公式計算訓練算力需求=模型參數量數據集token數系數k其中,k的取值取決于模型種類,如果模型種類為Encoder-Only或Decoder-Only,則k=6;如果模型種類為Encoder-Decoder,則k=3。
17、以GPT3大模型為例,總參數量(parameters)約等于175B(175*10);數據集token數約等于300(300*10),GPT3大模型是Decoder-Only(D),因此我們測算GPT3大模型訓練算力需求量為:(175*10)(300*10)6=3.151023 =315 ZettaFLOPS轉換為單日算力需求:3.15102324365=3646PFDays資料來源:“Kaplan,J.,McCandlish,S.,Henighan,T.,Brown,T.B.,Chcss,B.,Child,R.,Gray,S.,Radford,A.,Wu,J.and Amodci,D.,CM
18、Sm招商證券2020.scaling laws for neural language-10-、OpenAI官網、招商證券#page#大模型訓練算力總需求測算2.1表:目前已知大模型訓練算力總常求Parameterstoken in datasetZflopspf*daymodeldomain(億)(億)(10個21)(10015)48103310BERTNLP110encoder-only65400PaLM7800NLPG252729250decoder-only110多模態(文本+圖像)GooglemagenG13701680NLP1381598lambdadecoder-only6Par
19、ti200多模態(文本+圖像)decoder-only6.4Florence多模態(文本+圖像)Microsoft702700NLP628319Turing-NLGencoder-only617501800NLP1892188OPT-175Bdecoder-onlyFacebookencoder-3150M2M-100NLPdecoder6Gopher28003000NLP5045833encoder-onlyDeep Mindencoder-39670AlphaCode414NLP1201390decoderGPT37503000NLP6315decoder-only36466OpenAlC
20、hatGPTNLP1751decoder-onlyGPT41750-2800多模態(文本+圖像)Megatron-TuringNLPNvidia5300270068599938decoder-onlyNLG百度NLPERNIE2600300064685417decoder-onlyCMS魚招商證券資料來源:騰訊AIGC白皮書、招商證券-11-#page#2.2大模型訓練費用測算根據單卡峰值算力,我們可以通過以下公式測算訓練模型所需時間訓練時間=訓練總計算量單卡峰值算力算力利用率芯片卡數其中,算力利用率與芯片數量成反比,與芯片架構選代成正比。以GPT3為例,若10000張英偉達V100芯片訓練,
21、算力利用率為20%,則訓練GPT3所需訓練時間為:3646 PFDays125TFlops20%10000=14.59 Days表:英偉達V100/A100訓練GPT3模型分別需要天數芯片單卡峰值算力算力利用率訓練GPT3所需時間(天)V10020%14.59125TF1opSA10035%3.34312TF1ops我們認為得出訓練GPT3模型一次的資金需求公式為(x(/s)=根據目前微軟AZure服務器租賃價格測算,我們測算用10000顆V100訓練GPT3模型一次的資金需求公式為asnuo!ll!WZL=0000LX(X(日/$)O8l)69L表:英偉達V100/A100訓練GPT3模型價
22、格微軟Azure服務器單卡價格訓練GPT模型價格芯片芯片數訓練時長(天)($/小時)($/小時)(百萬美元)V10010.7961.3501000014.594.723A1002.3543.341.88618.82910000CMS招商證券資料來源:微軟AZUTC、英偉達官網、OpenAI官風、招商證券魚-12-#page#page#2.3推理所需要的算力需求及成本測算大模型除訓練需求外,在日常問答應用中將產生大量推理需求。根據“Scalinglawsforneurallanguage”的論文,模型的推理算力需求可根據以下公式計算推理算力需求=模型參數量(“輸入+輸出”token數)系數k其中
23、,k的取值取決于模型種類,如果模型種類為Encoder-0nly或Decoder-Only,則k=2;如果模型種類為Encoder-Decoder,則k=l。以GPT3大模型為例,總參數量(parameters)約等于175B(175*10);1000個token的推理算力需求為:(175*10)(1000)2=3.51014=350TFLOPS假設使用一顆A100芯片推理,使用TF32峰值算力156TFLOPS,則消耗時間約為:350 TFLOPS156 TFLOPS=2.24second已知A100單卡價格為82.354/小時,則在GPT3模型中,1000token的推理成本為:$2.35
24、4/h36002.24=$0.0015/1ktoken資料來源:“Kaplan,J.,McCandlish,S.,Henighan,T.,Brown,T.B.,Chcss,B.,Child,R.,Gray,S.,Radford,A.,Wu,J.and Amodci,D.,CMSm招商證券2020.scaling laws for neural language、英偉達官網、招商證券14#page#2.4模型API接口調用價格測算目前,ChatGPT及GPT4都已上線API接口,其中ChatGPTAPI價格為0.2美分/1ktoken,而GPT4API價格較ChatGPT大幅提升。此外,百度AP
25、I接口調用價格初定為0.012元/1ktoken。表:目前已知模型API接口調用價格模型輸入瑞輸出瑞ChatGPT50.002/1ktokenS0.002/1k tokenGPT4-8KS0.03/1k tokenS0.06/1k tokenGPT4-32KS0.06/1k tokenS0.12/1k token百度文心一言¥0.012/1ktoken¥0.012/1ktoken2014年巴西世界杯冠軍是誰?以左圖為例,我們通過詢問ChatGPT一個問題并得到答案測算以上模型調用API的費用,其中問題“2014年巴西世界杯冠軍是誰?”共計15個token;回答“2014年巴西世界杯冠軍是德國”
26、共計16個token2014年巴西世界杯冠軍是德國(包含標點符號)。表:目前已知模型API接口調用費用測算模型輸入端token數輸出端價格輸出端金額總金額輸入端價格輸入端金額輸出端token數16ChatGPT$0.002/1ktokcn$0.00003$0.002/1ktokcnS0.000032$0.00006216GPT4-8KS0.03/1ktokenS0.00045S0.06/1ktoken50.00096S0.0014116GPT4-32KS0.06/1ktokenS0.0009S0.12/1ktokenS0.001920S0.0028216¥0.012/1ktoken¥0.012
27、/1ktoken百度文心一言¥0.00018¥0.000192¥0.000372CMS招商證券資料未源:ChatGPT、t百度文心一言、招商證券-15-#page#目錄一、大模型需要大算力二、大模型算力需求測算三、英偉達DGX系統介紹3.1針對大規模AI訓練,英偉達推出DGX系統3.2英偉達DGXA100:目前最主流的AI服務器3.3英偉達DGXH100:DGX系統的最新選代四、投資建議CMSm招商證券-16-#page#3.1針對大規模AI訓練,英偉達推出DGX系統英偉達DGX系統針對企業大規模AI基礎架構提供出色的解決方案,專門打造的先進AI系統產品系列。每個NVIDIADGX系統均配備可
28、提供企業支持的DGX硬件和NVIDIABaseCommand軟件,其中包含強化的系統軟件、優化的AI庫、出色的集群管理、穩健的工作調度和工作負載編排。NVIDIADGX系統包括A100、H100、BasePOD、SuperPOD四款產品。其中,A100、H100為DGX系統主要服務器產品。圖:英偉達DGX系統組成AI訓練、推理和分析完善的AI平臺參考架構解決方案一站式AI基礎架構NVIDIA DGX”NVIDIA DGXNVIDIA DGXNVIDIA DGXA100H100BasePOD”SuperPOD”第三代先進的AI系統,統新一代NVIDIADGX系統,經過認證的AI基礎架構參周期完整
29、、先進的基礎架考架構。能夠提供高度系統化且可擴構,通往大規模AI創新的一了所有AI工作負載。捷徑。展的平臺,以借助AI攻克重大挑戰。CMS魚招商證券資料來源:英偉達官網、招商證券#page#3.2英偉達DGXA100:目前最主流的AI服務器NVIDIADGXA100是適用于各種AI工作負載的通用系統,能夠為率先推出的5petaFLOPSAI系統提供之前難以實現的計算密度、性能和靈活性。DGXA100采用NVIDIAA100TensorCoreGPU,使企業能夠將訓練、推理和分析整合到一個易于部署的統一AI基礎架構中。NVIDIADGXA100不僅僅是一臺服務器,更是一個完整的軟硬件平臺。它基于
30、全球最大的DGX集群NVIDIADGXSATURNV積累的知識經驗而建立,背后有NVIDIA數千名AI專家支持。表:英偉達DGXA100服務器參數圖:英偉達DGXA100服務器架構系統規格NVIDIADGXA100640GB10xNIDIAConnectx-7200Gb/sNetworkInterfacGPU8個NVIDIAA10080GBTensor Core GPUGPU顯存共640GB性能5petaFLOPSAI2TB RAM10petaoPsINT8NVIDIA68xNVIDIAA1ODTensorCoreGPusNVSwitch2NDWk eGFU系統功耗最大6.5千瓦6xNVIDI
31、ANVSwitchesCPU雙路AMDRome7742、共128個核心、2.25GHz(基準頻率)、3.4GHz(最大加速頻率)30TB Gen4NVMESSD系統內存2TBCMS魚招商證券資料來源:英偉達官網、招商證券-18-#page#3.3英偉達DGXH100:DGX系統的最新選代DGXH100是NVIDIADGX系統的最新選代,也是NVIDIADGXSuperPOD的基礎。DGXH100包含8個NVIDIAH100GPU,總顯存高達640GB,峰值性能高達32petaFLOPS。作為全球首款搭載NVIDIAH100TensorCoreGPU的系統,NVIDIADGXH100可帶來突破性
32、的AI規模和性能。它搭載NVIDIAConnectX-7智能網卡和NVIDIABlueField-3數據處理器(DPU),為NVIDIADGXSuperPOD帶來6倍性能提升,2倍更快的網絡,和高速可擴展性。新一代架構可用于自然語言處理和深度學習推薦模型等復雜的大型AI任務。表:英偉達DGXH100服務器參數圖:英偉達DGXH100服務器架構規格8個NVIDIAH100GPU,總GPU顯存高達640GB每個GPU配備18個NVIDIANVLink,GPU之間的雙GPU8個NVIDIA H100Tensor CoreGPU向帶寬高達900GB/sGPU顯存共640GB4個NVIDIANVSWIT
33、CHES”GPU之間雙向帶寬為72TB/s,比上一代提高1.5倍性能32petaFLOPSFP88個NVIDIACONNECTX-7和2個NVIDIANVIDIAS4XBLUEFIELDDPU400Gb/s網絡接口NVSwitch1TB/s的雙向網絡帶寬峰值雙路x86CPU和2TB系統內存系統功耗最高10.2kW強大的CPU適用于密集型AI作業CPU雙路x8630TBNVME SSD高速存儲以獲得出色的性能系統內存2TBCMSm招商證券資料來源:英偉達官網、招商證券19#page#目錄一、大模型需要大算力二、大模型算力需求測算三、英偉達DGX系統介紹四、投資建議4.1AI芯片稀缺標的寒武紀、海
34、光信息4.2服務器重點推薦中科曙光、浪潮信息CMSm招商證券-20-#page#4.1AI芯片稀缺標的寒武紀、海光信息國產AI芯片標的稀缺,重點推薦寒武紀、海光信息。寒武紀:公司專注于人工智能芯片產品的研發與技術創新。目前,公司在AI訓練/推理領域擁有智能加速卡思源系列產品。在2022年WAIC上,董事長陳天石透露了公司在研全新一代云端智能訓練芯片思元590,據介紹,思元590采用MLUarch05全新架構,實測訓練性能較在售旗艦產品有大幅提升,將提供更大的內存容量和更高的內存帶寬,其10片間互聯接口也較上代實現大幅升級。海光信息:公司深度計算處理器基于主流通用并行計算架構,可搭配海光CPU使
35、用,廣泛應用于科學計算、人工智能模型訓練和推理。表:寒武紀MLU370&海光信息Z100&英偉達A100產品參數對比產品參數寒式紀思元MLU370-X8英偉達A100海光深算Z100INT8256T0PS49.1TOPS624TOPSINT16128TOPS峰值算力FP1696TFLOPS312TFLOPS24.5TFLOPSBF1696TFLOPS312TFLOPS一FP3224TFLOPS156TFLOPS12.2TFLOPS顯存容量32CM32GB80GB內存帶寬1228GB/s1024GB/s1935GB/s最大熱功耗300W250W280WCMs招商證券資料來源:英偉達官網、寒武紀官
36、網、海光信息招股說明書、招商證券-21-#page#4.2服務器重點推薦中科曙光、浪潮信息服務器領域重點推薦中科曙光、浪潮信息。據TrendForce數據,預估2022年搭載GPGPU的AI服務器年出貨量占整體服務器比重近1%,即約14萬臺。預計2023年出貨量年成長8%,2022至2026年年復合增長率達10.8%。圖:全球搭載GPGPU的AI服務器出貨量預測(萬臺)圖:浪潮信息AI服務器CAGR=10.8%2010010圖:中科曙光AI服務器20222023202420252026表:中科曙光&浪潮信息AI服務器相關業務梳理I服務器相關業務標的公司多年布局人工智能生態,以豐富的產品覆蓋、創
37、新的架構設計,打造高效易維護的人中科曙光工智能加速平臺。公司聯營企業海光信息是國內AI芯片龍頭,擁有深算一號AI芯片,與曙光AI服務器有較大協同效應。浪湖AI服務器的中國市場份額連續四年保持在50%以上,并與人工智能領先科技公司保持在浪潮信息系統與應用方面的深入緊密合作2021年,人工智能服務器全球市場份額20.9%,保持全球第一,中國市場份額超過50%。CMS浪湖信息官網、招商證券m招商證券資料來源:TrendFo-22-#page#風險提示AI服務器供應鏈風險:北美時間3月2日,美國商務部發布公告,將28個中國實體列入實體清單,其中包括浪潮集團。如果未來我國AI服務器相關企業無法向美國購買
38、核心零部件產品則對公司未來業務發展有較大不利影響。AI芯片研發不及預期風險:目前我國AI芯片與英偉達仍存在較大差距,若我國AI芯片研發進度不及預期,則對我國AIGC產業發展有較大不利影響。AI相關上市公司短期漲幅過大風險:目前AI相關上市公司短期漲幅較快,股價波動較大。CMSm招商證券資料來源:招商證券-23-#page#參考報告1、微軟引領AI+辦公應用史詩級革命AI+系列報告三2023-03-182、ChatGPT快速流行,重構AI商業模式AIGC投資機會梳理2023-02-08CMSm招商證券資料來源:招商證券-24-#page#分析師承諾負責本研究報告的每一位證券分析師,在此中明,本報
39、告清晰、準確地反映了分析師本人的研究觀點。本人薪酬的任何部分過去不曾與、現在不與,未來也將不會與本報告中的具體推薦或觀點直接或間接相關。團隊介紹:劉玉萍:計算機行業首席分析師,北京大學匯豐商學院金融學碩士。2022年水晶球最佳分析師第一名。周翔宇:計算機行業分析師,三年中小盤研究經歷,獲得2016/17年新財富中小市值團隊第五、第二名。孟林:計算機行業分析師,中科院信息工程研究所碩士,兩年四大行技術部工作經驗,兩年一級市場投資經驗,2020年加入招商證券。CMSm招商證券25#page#投資評級定義報告中所涉及的投資評級采用相對評級體系,基于報告發布日后6-12個月內公司股價(或行業指數)相對
40、同期當地市場基準指數的市場表現預期。其中,A股市場以滬深300指數為基準;香港市場以恒生指數為基準;美國市場以標普500指數為基準。具體標準如下:股票評級強烈推薦:預期公司股價漲幅超越基準指數20%以上增持:預期公司股價漲幅超越基準指數5-20%之間中性:預期公司股價變動幅度相對基準指數介于5%之間減持:預期公司股價表現弱于基準指數5%以上行業評級推薦:行業基本面向好,預期行業指數超越基準指數中性:行業基本面穩定,預期行業指數跟隨基準指數回避:行業基本面轉弱,預期行業指數弱于基準指數CMSm招商證券-26-#page#重要聲明本報告由招商證券股份有限公司(以下簡稱“本公司”)編制。本公司具有中
41、國證監會許可的證券投資咨詢業務資格。本報告基于合法取得的信息,但本公司對這些信息的準確性和完整性不作任何保證。本報告所包含的分析基于各種假設,不同假設可能導致分析結果出現重大不同。報告中的內容和意見僅供參考,并不構成對所述證券買賣的出價,在任何情況下,本報告中的信息或所表述的意見并不構成對任何人的投資建議。除法律或規則規定必須承擔的責任外,本公司及其雇員不對使用本報告及其內容所引發的任何直接或間接損失負任何責任。本公司或關聯機構可能會持有報告中所提到的公司所發行的證券頭寸并進行交易,還可能為這些公司提供或爭取提供投資銀行業務服務??蛻魬斂紤]到本公司可能存在可能影響本報告客觀性的利益沖突。本報告版權歸本公司所有。本公司保留所有權利。未經本公司事先書面許可,任何機構和個人均不得以任何形式翻版、復制、引用或轉載,否則,本公司將保留隨時追究其法律責任的權利CMSm招商證券#page#感謝您寶貴的時間Thhankk You#page#