《中興通訊:2023數字基礎設施技術趨勢白皮書(50頁).pdf》由會員分享,可在線閱讀,更多相關《中興通訊:2023數字基礎設施技術趨勢白皮書(50頁).pdf(50頁珍藏版)》請在三個皮匠報告上搜索。
1、數字基礎設施技術趨勢白皮書中興通訊版權所有未經許可不得擴散第 1頁數字基礎設施技術趨勢白皮書數字基礎設施技術趨勢白皮書數字基礎設施技術趨勢白皮書版本日期作者備注V1.02023.05中興通訊 2023 ZTE Corporation.All rights reserved.2023 版權所有中興通訊股份有限公司保留所有權利版權聲明:本文檔著作權由中興通訊股份有限公司享有。文中涉及中興通訊股份有限公司的專有信息,未經中興通訊股份有限公司書面許可,任何單位和個人不得使用和泄漏該文檔以及該文檔包含的任何圖片、表格、數據及其他信息。本文檔中的信息隨著中興通訊股份有限公司產品和技術的進步將不斷更新,中興
2、通訊股份有限公司不再通知此類信息的更新。數字基礎設施技術趨勢白皮書目錄目錄1.前言前言.52.數字基礎設施數字基礎設施技術發展的需求和挑戰技術發展的需求和挑戰.72.1.未來業務發展對于數字基礎設施技術的需求和約束.72.2.傳統的技術發展路徑面臨的挑戰.102.3.未來技術發展路徑概述.133.更寬的連接更寬的連接.143.1.綜述.143.2.物理層(無線):5G-A&6G 需要更大力度的空分復用及擴展頻段.163.3.物理層(光傳輸):單波提速、波段擴展和空分復用.203.4.分組層:兼顧容量和靈活性的分組轉發芯片架構.223.5.應用層:基于深度學習視頻編碼進一步提升視頻壓縮效率.23
3、3.6.設備互聯:光互聯將逐步滲透到設備間及設備內互聯.254.更強的算力更強的算力.284.1.綜述.284.2.芯片架構:DSA&3D 堆疊&Chiplet.294.3.計算架構:存算一體使得計算和存儲從分離走向聯合優化.314.4.計算架構:基于對等系統的分布式計算架構.334.5.網絡架構:支撐算網融合的 IP 網絡技術實現算力資源高效調度.345.更高的智能更高的智能.375.1.綜述.375.2.智能芯片:提高算力/能耗比的技術方向.385.3.智能算法:多樣化分離小模型向通用大模型演進.40數字基礎設施技術趨勢白皮書5.4.智能網絡:網絡自智向 L4/L5 等級邁進.426.結語
4、結語.457.參考文獻參考文獻.47數字基礎設施技術趨勢白皮書1.前言前言技術創新是生產力進步、產業發展的核心驅動力。世界經濟論壇創始人克勞斯施瓦布(Klaus Schwab)在其所著的“第四次工業革命”中指出,近代以來,人類經歷了四次由技術創新引領的工業革命。第一次起始于 1760 年左右,以蒸氣機、鐵路的發明和廣泛應用為主要標志,使人類從手工工藝時期躍進到機械化生產階段;第二次始于 19 世紀末,以電的發明和廣泛應用為標志,電力工業、化學工業以及電報、電話等的迅速發展,使人類進入大規模工業化生產時代;第三次工業革命始于 20 世紀中期,以通信技術、計算機技術、互聯網技術(簡稱信息通信技術,
5、或 ICT 技術)為主要標志,人類進入自動化生產階段;第四次工業革命目前正在發生,是第三次工業革命的延續,但技術創新的速度、廣度和影響力以指數級別上升。第四次工業革命以數字化和智能化為主要特征,標志性技術有物聯網、大數據、人工智能等,尤其是以深度學習為代表的人工智能技術的突破,使人類逐漸從數字社會邁向智能社會。高效的數字基礎設施是數字社會、智能社會的關鍵支撐。面向 2030,產業互聯、全息通信、元宇宙、自動駕駛等新型應用對信息通信技術提出了更高的需求。但應該看到,信息通信技術的發展是以 19 世紀末到 20 世紀中葉人類在電磁學、量子力學、信息論等數學、物理學的突破為基礎的,而近幾十年來,基礎
6、科學的突破有放緩的跡象,這使得信息通信領域的未來技術發展面臨越來越嚴峻的挑戰。傳統的技術演進路線面臨摩爾定律、香農定理的限制以及節能減排的約束,亟需在基礎理論、核心算法和系統架構方面有根本性的創新。國際形勢的風云變幻,也對技術自主創新提出了很高的要求。本白皮書是對數字基礎設施的未來技術發展趨勢的解讀,由中興通訊技術專家委員會集體編寫完成。與業界常見的以商業模式、應用愿景、技術需求為主的白皮書不同,本技術白皮書更多地把重點放在技術發展面臨的挑戰,以及解決這些挑戰的技術實現路徑上。白皮書第二章介紹了未來的業務場景對于數字基礎技術的需求,提出了數字基礎設施最關鍵的三個技術要素是連接、算力和智能。但是
7、這三個技術要素的發展,面臨著香農定理極限、摩爾定律放緩和智能本質認知不足的問題,使得未來的技術進步面臨很大的挑戰。第三五章分別針對更寬的連接、更強的算力、更高的智能三個方向進行了具體技術趨數字基礎設施技術趨勢白皮書勢的描述。每個技術方向均描述了未來的技術需求和面臨的技術挑戰,以及解決問題和挑戰的技術發展路徑。既有對業界發展現狀和主流觀點的描述,也有中興通訊的技術創新和對未來發展的預判。第六章是整個白皮書的總結,同時也針對數字基礎設施能力如何更好服務于各行各業提出了我們的一些思考。中興通訊的技術創新瞄準技術發展趨勢、行業發展方向和國家重大需求,依托于政、產、學、研、用各方的協同與支持,目前已經取
8、得了豐碩的成果。我們將繼續與產業伙伴一起,共同推動信息通信領域的技術創新工作,為人類邁向數字社會和智能社會作出貢獻。數字基礎設施技術趨勢白皮書2.數字基礎設施數字基礎設施技術發展的需求和挑戰技術發展的需求和挑戰2.1.未來業務發展對于數字基礎設施技術的需求和約束未來業務發展對于數字基礎設施技術的需求和約束自從 1837 年美國人摩爾斯發明摩爾斯電碼和電報以來,信息通信技術迅速發展,極大地改變了人類生活、生產的方式。通信業務從最初單一的電報、電話到現在涉及人類經濟、社會、生活的方方面面。全球數字經濟規模持續上漲。2021 年,全球主要的 47 個國家數字經濟增加值規模為 38.1 萬億美元,同比
9、名義增長 15.6%,占 GDP 比重為 45.0%01。2022年,我國數字經濟規模達到 50.2 萬億元,同比名義增長 10.3%,已連續 11 年顯著高于同期GDP 名義增速02。九層之臺,起于累土。高效的數字基礎設施是數字經濟的核心基礎能力。在 ToC 和 ToH領域,新冠疫情帶來的工作和生活方式的變化、短視頻及直播等應用的爆發、在線教育和遠程辦公的普及,對于網絡帶寬和覆蓋提出了更高的要求;在 ToB 領域,從 ICT 向 OT(生產域)的縱深拓展和貫通融合,也對網絡性能、經濟便捷和安全可靠等提出更高的期望。2023 年 2 月,中共中央、國務院印發了數字中國建設整體布局規劃03(以下
10、簡稱規劃)。規劃明確指出,數字中國建設按照“2522”的整體框架進行布局,即夯實數字基礎設施和數據資源體系“兩大基礎”,推進數字技術與經濟、政治、文化、社會、生態文明建設“五位一體”深度融合,強化數字技術創新體系和數字安全屏障“兩大能力”,優化數字化發展國內國際“兩個環境”。規劃指出,打通數字基礎設施大動脈,有如下具體要求:加快 5G 網絡與千兆光網協同建設,深入推進 IPv6 規模部署和應用,推進移動物聯網全面發展,大力推進北斗規模應用;系統優化算力基礎設施布局,促進東西部算力高效互補和協同聯動,引導通用數據中心、超算中心、智能計算中心、邊緣數據中心等合理梯次布局;整體提升應用基礎設施水平,
11、加強傳統基礎設施數字化、智能化改造。根據 規劃 的要求和中興通訊對于行業的理解,數字基礎設施有三個基本要素:連接、算力、智能。數字基礎設施的目標就是,網絡無所不達、算力無所不在、智能無所不及。數字基礎設施技術趨勢白皮書“連接”是互聯網最核心的特征,連接速率從最初電報的每秒約 1 個字符,到現在的“雙千兆”接入(即無線接入和光纖接入均達到千兆)和骨干網單光纖幾十 Tbps 的速率。無線通信網絡基本每十年進行一次更新迭代,速率提升約 10 倍。面向 2030(6G),隨著全息通信、元宇宙等新業務的發展,預計業務對于連接的需求相比目前(5G)仍將增長 12 個數量級04。其中,帶寬峰值速率將達到 1
12、 Tbit/s(50 倍),用戶體驗速率達 20 Gbit/s(200倍),時延可低至 0.5ms(8 倍),連接密度達到 100 個/m2(100 倍)?!八懔Α痹跀底稚鐣殉蔀橄袼娒阂粯拥幕驹O施。據 IDC&浪潮信息&清華全球產業院的評估,計算力指數平均每提高 1 個點,數字經濟和 GDP 將分別增長 3.5和 1.805;據中國信通院統計,2021 年全球計算設備算力總規模達到 615 EFlops,預計 2030 年達到56 ZFlops,平均年增速達到 65%06。算力是實現其他技術需求的關鍵要素。比如通信容量的提升需要有各種編解碼計算;視頻領域的 AR/VR、全息等業務,需要視
13、頻編解碼、圖像渲染、動畫生成等高計算量的技術;近十多年來廣泛應用的人工智能技術對于算力的需求是前所未有的。隨著近十多年深度神經網絡算法的突破,人工智能技術不斷拓展應用的深度和廣度,已經成為人類社會從數字化向智能化邁進的強大引擎。數字化的前提是用數學模型表示物理世界,數學建模是算法和軟件的基礎。而 AI 技術突破之前,現實世界有大量的復雜系統無法用數學模型表示。深度神經網絡技術的本質,是用簡單神經元節點的大規?;ヂ搧肀平黝悘碗s系統的數學模型(比如人類認知系統或者高度非線性的物理系統),極大拓展了數字化的應用廣度和深度。從物理層鏈路的非線性補償,到網絡層資源的智能化調度,再到應用層的視頻處理、人
14、機交互、安全態勢感知、自動駕駛等等。智能成為最為關鍵的數字化基礎技術之一。由此可見,連接、算力、智能是未來數字化應用的基本技術需求。未來數字社會的根基是融合的算網基礎設施及智能化服務體系。在數據洪流對端、邊、云的沖擊之下,連接、算力、智能這三者相輔相成,體現出更加緊密的關系和更加模糊的邊界,以實現海量數據的存儲、交換和處理的全局效益最優。數字基礎設施技術趨勢白皮書連接、算力、智能也是實現其他技術需求的關鍵要素。比如,安全技術需求,最基本的技術就是各種加密解密算法和計算部件;可靠性需求的技術基礎是器件、組件、系統的失效期計算,以及各種系統冗余、網絡冗余的算法。目前 5G 的 URLLC 場景已經
15、可以提供 4 個 9(99.99%)的可用性,未來要滿足工業場景 5 個 9(99.999%)的可用性需求,可能的辦法是引入 AI 算法實現信道預測、故障預測、干擾跟蹤等技術手段。圖 2.1 給出了未來各種應用場景與三大技術要素的對應關系。這些場景取自于國際電信聯盟(ITU)網絡 2030 焦點組于 2020 年 6 月提出的未來網絡 12 個應用場景0708。圖 2.1:未來業務場景與三大技術要素的對應關系與此同時,人類可持續發展的目標對于節能環保提出了越來越高的要求。各個國家都提出了雙碳目標(碳達峰、碳中和)。盡管信息高效交互和處理可以提升物流和能量流的效率,從而降低整個人類活動的碳排放水
16、平。例如 GeSI(Global Enabling Sustainability Initiative)發布的報告 SMARTer 2030 指出,ICT 技術有可能在 2030 年前幫助全球減少碳排放 2009。但信息通信行業自身的碳排放仍然是不可忽視的一個方面。據上述 GeSI 報告的估算,預計到 2030 年信息通信產業的碳排放占全球總碳排的 1.97%。未來的技術發展,數字基礎設施的建設,除了業務驅動外,還必須把節能減排作為一個主要的約束條件。另一個重要的約束條件是國際政治形勢對于全球技術融通和共享的影響。未來的技術供應鏈、全球的技術協作都很可能面臨越來越多的困難。數字基礎設施技術趨勢
17、白皮書2.2.傳統的技術發展路徑面臨的挑戰傳統的技術發展路徑面臨的挑戰從 19 世紀后期到 20 世紀中葉,人類在電磁學、量子力學、信息論等數理理論的突破,是現代信息通信技術的基礎。信息通信技術三大要素,連接、算力、智能,既有各自的發展路徑,又呈現相互支撐、協同并進的態勢。香農信息論從理論上證明了,帶寬恒定的信道在有噪聲情況下存在傳輸容量上界,即香農極限。通信帶寬的提升,一方面是研發更優的傳輸信道(無線、電纜、光纖等),另一方面是用不斷演進的算法(調制解調、整形補償、前向糾錯等)逼近香農極限。先進的算法帶來了計算復雜度的增加,必須依賴微電子技術的進步,以更強的數字信號處理能力滿足通信算法的需求
18、。計算機出現之后,對算力的需求成為微電子技術進步的最大驅動力。著名的摩爾定律最初就是對微處理器發展的預測,即,每隔 18 或 24 個月,單位面積的芯片上所集成的晶體管數量翻一番,微處理器性能提升一倍,價格減半。按摩爾定律發展的微處理器在過去 50 年來性能提升了 10 億倍以上,其帶來的半導體工藝技術的進步也同時帶動了其他芯片的發展,包括用于通信的數字信號處理器(DSP)、網絡處理器、交換芯片等。芯片技術的進步使得更加復雜的通信算法得以實現。人工智能算法對于算力的需求前所未有,除了研發性能越來越強大的 AI 算力芯片之外,分布式計算也是解決大算力需求的必由之路。分布式 AI 計算對于連接帶寬
19、、時延提出了很高的要求,連接技術的進步使得跨地域的云-邊高效協同的分布式 AI 計算成為可能。反過來,連接帶寬的提升也需要人工智能技術的支撐。目前 AI 算法已經在網絡物理層優化、無損網絡參數優化、神經網絡視頻編碼等各層面發揮作用。由此看出,連接、算力、智能這三大技術要素,每個要素的發展都依賴其他要素的支撐,反之,任一個技術方向的受阻,都會影響其他技術方向的演進。目前看,這三個技術要素的未來發展路徑均面臨各自的困難。(一)通信算法已經逼近香農極限香農定理,即 C/W=log2(1+S/N),揭示了譜效(單位頻譜寬度能傳送的最大信息速率)與信噪比的關系。在通信實踐中,經常根據信息速率(不含冗余信
20、息)、通道寬度,來數字基礎設施技術趨勢白皮書確定最小信噪比容限。這個信噪比容限代表可實現無誤碼傳輸時所需信號質量的極限值。早在 2001 年就有研究論文指出10,目前無線通信中使用的 LDPC 編碼算法,在白噪聲信道中達到 10-6誤碼率的信噪比容限,是 0.31dB,而此場景下的香農理論極限是 0.18dB,兩者只差 0.13dB,也就是實際信噪比容限比香農限只多了 3%(100.0131.03)。另外,據中興通訊實測數據,目前光傳輸算法在 416QAM 調制達到的信噪比容限,距離香農限約為 1dB 左右,只能等效提高 25%的傳輸距離,或提高 0.33bps/Hz 的譜效。越接近極限,提升
21、算法復雜度所帶來的性能收益越低,往往用數倍的計算量,才能帶來幾個百分點的性能提升。因此未來的算法即使能夠繼續逼近香農極限,其對于算力效能的需求(單位功耗的算力)也大大超過了摩爾定律能達到的水平。(二)微電子技術逐漸逼近物理學設定的邊界代表微電子技術進步的摩爾定律也逐漸遇到越來越大的困難。在 28nm 工藝之前,業界通過縮小晶體管尺寸(如柵長)來增加單位面積的晶體管數量。但晶體管尺寸小到一定程度就會因為量子隧穿效應、寄生電容等問題而難以為繼(一個硅原子的直徑為 0.2 nm,20 nm 的柵極長度大約只有 100 個硅原子)。因此從 22nm 開始,主要靠晶體管結構創新來增加單位面積的晶體管數量
22、,從鰭式結構 FinFET(預計可以支撐到 3nm)到全環結構 GAA(預計可再支撐 23 代)。但是復雜的結構創新所需要的成本和功耗很高,因此繼續提升工藝節點的經濟性越來越成為限制因素。目前看來,人類在微觀世界的基礎理論進展(量子力學)所帶來的技術紅利已經接近用盡。從二十世紀五十年代開始,以量子力學為基礎的現代光學、電子學和凝聚態物理迅速發展,誕生了激光器、半導體和原子能等重大科技突破。但這次技術革命還只是從宏觀統計的角度認識和利用量子現象,例如能級躍遷、受激輻射和鏈式反應,對于物理介質的觀測和操控依然是宏觀的手段和方法,例如電流、電壓、光強等。微電子技術的物理學基礎是基于電荷數量的電平檢測
23、,隨著電荷團持續縮微,帶來了靜態泄漏電流增大等難以解決的問題。業內在研究將“電荷團遷移”改為“材料的阻變”、或“量子自旋”等新物理機制來降低功耗,但操控的仍然是宏觀物理量,仍將面臨尺寸縮微的極限。數字基礎設施技術趨勢白皮書要全面展示量子態的特性,充分釋放量子的潛力,就必須通過對光子、電子和冷原子等微觀粒子系統及其量子態進行精確的人工調控和觀測??茖W界在這方面的研究尚處于起步階段,未來的發展路線、方式、目標都存在很大的不確定性。(三)智能的發展,缺少認知科學理論的指導人工智能是對人類思維過程和智能行為的模擬。對人工智能的研究從計算機誕生不久的20 世紀 50 年代就已經開始,真正在應用上取得突破
24、是在 2006 年深度神經網絡取得成功之后。但基于神經網絡的人工智能算法是對人腦生理結構的淺層模擬,對于其深層工作機理的研究屬于認知科學的范疇,目前尚未取得突破。目前人工智能算法已經在多個難以用數學模型描述的復雜問題域取得應用,包括人類智能相關領域,和非人類智能相關領域。在人類智能相關領域,比如機器視覺、自然語言處理、自動駕駛等,雖然在某些場景下已經非常逼近甚至超過人類的水平,但在通用性方面離人類智能仍然有差距。業界逐漸認識到,人工智能算法要真正達到人類智能的水平,需要在認知科學基礎理論有突破性的進展。在非人類智能相關領域,比如通信物理層的神經網絡建模和補償算法,雖然取得了一些學術研究成果,但
25、由于缺少對其內在物理機理的了解,使得業界對于這種模型的適應性和可靠性存疑,阻礙了其真正在工程上的大規模應用。目前的深度學習技術路線是靠算力和數據的大規模堆積來實現的,但在摩爾定律放緩,節能減排約束的背景下,這種技術路線從長期看是難以持續的。目前人工智能算法對算力需求增速遠大于摩爾定律增速,特別是進入 Transformer 大模型時代后,訓練模型所需的算力增速提升到平均每兩年增長 275 倍,大幅超越摩爾定律每兩年增長 2 倍的增速11。這種增速背離帶來的直接結果,就是 AI 計算成本和對環境的壓力快速上升。目前,全世界 1%的發電量被用于 AI 計算。全球 AI 計算能耗年增長率為 37%。
26、據此估算,下一個 10 年,AI計算將消耗全世界發電量的 15%左右,將為環境帶來沉重的負擔??偟膩碚f,信息通信技術的發展已經逼近數學(香農定理)、物理(量子力學)、認知科學三大基礎理論所設定的邊界。往前每走一步都要付出比以往更大的代價。而節能降耗的要求、技術效用的邊際遞減又給技術演進的經濟可行性設置了更高的障礙。淺層的礦藏已經挖完,深層的礦藏是否具有技術經濟性尚屬疑問。這是目前的技術演進路線面臨的主要問題。數字基礎設施技術趨勢白皮書2.3.未來技術發展路徑概述未來技術發展路徑概述上一節提到,連接、算力、智能這三大技術要素的演進都碰到了瓶頸,技術提升所需要的成本、功耗與帶來的收益越來越不成比例
27、。而未來業務需求對于帶寬、時延、算力的需求仍然是數量級的上升。如何突破技術瓶頸,打造“連接+計算+數智能力”的數字底座,是當前面臨的重大課題。本白皮書第 3 章第 5 章分別從“更寬的連接”、“更強的算力”、“更高的智能”三個方面描述未來技術發展的可能路徑。美國思想家布萊恩阿瑟在技術的本質一書中提出,技術的本質是被捕獲并加以利用的現象的集合;技術的進化類似于生物進化,是一種組合進化的過程,新技術是已有技術的新組合。我們認為,未來的技術發展,除了繼續單點突破,挖掘現有技術路徑的潛力外,另一方面也將更多聚焦到多種技術的協同、系統架構的優化。信息通信系統的架構,不管是計算架構還是網絡架構,都是以模塊
28、化、分層、解耦為特征,比如馮諾依曼計算架構的特征是計算和存儲分離;網絡架構采用協議分層和層間解耦的設計。分離和解耦的好處是各個模塊獨立發展,便于創新和維護。但模塊間簡單化、通用化的協作與接口,對于某些特定業務來說并不能達到性能最優。在單個模塊的性能提升遇到瓶頸的時候,往往需要模塊間的協同和融合去帶來性能和功耗的收益。在后面章節描述的技術路徑中,既有現有技術路徑的挖潛,比如無線、有線通信中開發新的頻譜和信道;也有多種技術的協同和耦合,比如光電集成、存算一體、算網融合等等。表格 2-1 是對于連接、算力、智能三個方向的技術發展路徑的概述。表 2-1未來技術發展路徑的概述單點縱深突破立體協同耦合更寬
29、的連接提高頻譜效率繼續逼近香農極限;擴展頻譜帶寬;空分復用光電集成;分組轉發芯片架構創新更強的算力More Moore:半導體工藝繼續縮微路線算、存、網從分離到融合:存算一體、對等系統、算網融合更高的智能AI 芯片架構創新,實現更高算力/能耗比;AI 算法從多樣化的分離小模型向通用大模型演進;智能化能力向數字基礎設施自身、行業、企業賦能;數字基礎設施技術趨勢白皮書3.更寬的連接更寬的連接3.1.綜述綜述萬物互聯是數字化時代的主要特征。提升連接帶寬是信息通信技術的主要追求目標。目前,無線接入(5G)和有線接入(10GPON)已經具備向用戶提供“雙千兆”接入帶寬的能力。骨干光纖網開始部署長途 40
30、0G 單波傳輸技術。如第二章所述,未來 510 年,業務對于帶寬的需求仍將有 12 個數量級的增長。網絡帶寬提升不僅是物理層傳輸帶寬的提升,還涉及分組層、應用層等數據處理能力的提高。同時,機架及設備內部互聯的帶寬也需要相應提升。(一)物理層通信物理層以電磁波理論為基礎,電磁場表達式如以下公式所示:根據電磁場表達式,通信可復用的維度有偏振、空間分布、幅度、相位、波長和符號周期(波特率),一般把幅度和相位合稱為 QAM 調制(Quadrature Amplitude Modulation,正交幅度調制),因此一共是 5 個維度。其中偏振、QAM、波特率與單波速率有關。因此總傳輸速率可以寫成:注:此
31、公式是一個簡化表示,無線領域涉及多個空分通道的計算公式較復雜由公式可知,提升傳輸容量可通過提升單波速率、波段擴展和空分復用,合計 3 個技術途徑。其中單波速率受限于香農定理,提升單波速率一方面通過高階調制、偏振復用等技術提升譜效,逼近香農限,另一方面通過提高波特率,從而提升單波帶寬;波段擴展是指增加通信可用的頻段;空分復用通過多天線或者光纖的多個纖芯、模式,增加通道數量,實現容量數倍提升。表 3-1 是無線通信、光通信對于上述 5 個維度、3 個技術途徑的發展現狀和未來技術路數字基礎設施技術趨勢白皮書徑的簡要總結。詳細的描述分別見第 3.2 節和 3.3 節。表 3-1:無線通信、光通信的技術
32、發展現狀和未來技術路徑5 5 個維度個維度三個技三個技術術途徑途徑無線無線光傳輸(長距)光傳輸(長距)幅度和相位(QAM)單波提速(單自由度提速)現狀:1024QAM 已經標準化,但還沒有商用;調制階數越高,距離香農限距離越遠 趨勢:更高調制階數,提高星座成形增益,編碼調制聯合優化 現狀:相干 416QAM 調制編碼已逼近香農極限;波特率64128GBd 趨勢:繼續提升單波帶寬(波特率)、新型光纖/放大器與DSP 均衡算法提升 SNR(支持更高階 QAM)偏振/極化波特率波長波段擴展/頻譜使用效率提升 現狀:已有 200MHz 載波聚合;子帶全雙工正在標準化 趨勢:載波聚合,全雙工技術、毫米波
33、/太赫茲、多址/復用 現狀:C+L 波段 12THz 譜寬支持 80 波*400G/800G 趨勢:向 S+C+L 波段擴展空間空分復用 現狀:業界公認提升容量的最主要方法之一;64TR/16 流已商用;NCR 正在標準化 趨勢:eMIMO/Beam、分布式MIMO,超大孔徑 ELAA,Cell-free、RIS、NCR 等 現狀:尚未商用 趨勢:多芯少模;多芯弱耦合或率先商用(二)分組層互聯網誕生以來,以 IP、以太網為代表的分組技術就是網絡技術的核心。網絡設備的分組處理能力往往成為提升網絡容量和性能的瓶頸。分組處理需要兼顧容量和靈活性,其整體性能的提升,不僅依賴芯片工藝的進步,也跟分組處理
34、芯片架構的改進密切相關。隨著帶寬增長,分組芯片容量每 23 年增長一倍,僅靠工藝進步難以滿足芯片容量、成本、功耗的要求,需要芯片架構優化和算法優化,以兼顧容量、靈活性和低時延需求。本白皮書第3.4 節描述了未來分組轉發芯片架構的演進方向。(三)應用層數字基礎設施技術趨勢白皮書在應用層提高信源壓縮率的努力也與通信容量緊密相關。香農定理除了證明了信道編碼的上限,也證明了無損信源編碼的壓縮率上限(與信息熵有關),但對于有損的信源編碼,并沒有壓縮率的極限。隨著 XR、全息等應用的發展,到 2030 年,視頻流量預計將占到互聯網總流量的 90%以上。因此如何通過視頻編碼技術進一步提高壓縮率,是降低整個網
35、絡帶寬壓力的重要研究方向。本白皮書第 3.5 節描述了基于深度學習的視頻編碼提升視頻壓縮率。(四)設備互連隨著外部鏈路帶寬和端口密度的提升,通信和計算設備內外部互連總線也將成為瓶頸。光互聯相對電互聯在性能和功耗的優勢凸顯,隨著光電共封裝(CPO,Co-Packaged Optics)技術的日漸成熟,設備內部也將出現“光進銅退”,同時,光互連在空間距離上的損耗非常小,將推進信息通信設備的形態向分布式和大容量的方向演進。具體見 3.6 節。3.2.物理層物理層(無線)(無線):5G-A&6G 需要更大力度的空分復用及擴展頻段需要更大力度的空分復用及擴展頻段自上世紀 80 年代以來,移動通信基本上以
36、十年為周期出現新一代變革性技術,從 1G逐步發展至現在的 5G,目前 5G 已經在全球范圍內開始大規模部署,各國更是已將 6G 列入未來幾年的國家計劃。如 3.1 節所述,無線提升通信容量的方法有:提升單個自由度的頻譜效率、增加帶寬或帶寬利用提效、增加空域復用階數等。4G 采用高階調制提升編碼效率,引入 MIMO 多天線技術提高信道容量,引入載波聚合獲得更大的頻譜帶寬。5G 為了實現更高網絡容量,主要采用兩種方法,其一是繼續增加天線數量,采用大規模天線陣列(Massive-MIMO)和超密集組網(UDN)。其二是拓展 5G 使用頻譜的范圍,從 4G 的 Sub-3GHz 頻譜,擴展到 5G 的
37、 Sub-6GHz 頻譜。如第二章所述,面對未來的業務需求,6G 在幾個核心的指標,比如帶寬、時延、可靠數字基礎設施技術趨勢白皮書性等,相比 5G 都有 12 個數量級的提升。3GPP 第一個 6G 版本預計會在 2030 年左右出現,在這之前還有 3 到 4 個版本的演進聚焦于 5G 增強技術“5G-Advanced”。從頻譜效率看,雖然 5G 技術低譜效到中等譜效下已逼近單鏈路的香農限,但在高譜效區距離香農限還有一定距離。另外,6G 需要在增加帶寬或提升帶寬利用率、增加空域復用階數上更大力度地下功夫。包括載波聚合、全雙工、更高頻譜(Beyond 6G 和太赫茲)、非正交/OFDM 及其變形
38、/高頻波形/感知波形、超大規模天線和極致 MIMO、RIS(智能超表面)技術、網絡控制 Relay(NCR)等。在上述技術中包含基礎性的技術趨勢,即:用越來越強的計算能力,尤其是底層的計算能力,去換取資源利用效率的提升。下面針對幾項典型技術分別進行闡述。(一)高階調制高階調制/星座整形星座整形/編碼調制聯合方案編碼調制聯合方案當前調制方式可以到 1024QAM,每個符號可以攜帶 10 比特。6G 為了進一步提升譜效,可能會將調制階數提升到 4096QAM 甚至更高。在高階調制方式下,傳統的方形 QAM 星座圖的效率不是最優的,可能會導致譜效越高,距離香農限越遠的情況?;趲缀握?概率整形的高
39、階調制、編碼調制聯合方案有望更加逼近香農限,尤其在高 SNR 區域。(二)(二)提升頻譜提升頻譜使用效使用效率:全雙工及子帶全雙工率:全雙工及子帶全雙工全雙工是提高網絡數據速率以及頻譜使用效率的新技術。對于未來大帶寬低時延的業務,全雙工使用非成對頻譜,通過釋放 DL/UL 資源使用上互斥的限制,能夠增強頻譜使用效率和減少傳輸延時。但實現全雙工需要基站或終端能夠處理自干擾(SI)以支持同時進行的收發信功能,實現復雜度以及硬件代價還是相當大的,尤其是對于多天線 Massive MIMO機型。因此實際上多天線技術與全雙工有一定互斥性。目前的研究大多是從天線數較少的機型和子帶全雙工開始,即在帶內不同頻
40、率上分別配置上行和下行資源。這種方法能夠靈活地配置更多上行資源,有助于降低上下行時延、提升上行覆蓋和容量。雖然子帶全雙工降低了基站內部干擾消除能力要求,但是 UE 間的互干擾還是很嚴重,需要業界共同努力。數字基礎設施技術趨勢白皮書(三)(三)擴展更多頻譜:太赫茲技術擴展更多頻譜:太赫茲技術作為 6G 潛在的基礎技術,太赫茲是指 100GHz10THz 的頻段資源,具有連續可用的大帶寬,將有助于構建 6G 短距離、高速率的傳輸系統,支持超高速率的數據傳輸,滿足超密集設備的連接需求,增強網絡連接的可靠性,并支撐高能效的終端網絡。但太赫茲的缺點也比較明顯。相比于毫米波,太赫茲頻率的提高使傳播路徑損耗
41、明顯增大,室外通信在受到雨霧天氣影響時也會帶來額外損耗。此外,發射機功放功率低、低噪聲放大器噪聲系數高、高增益天線設計加工難度大等都極大地限制了太赫茲波的傳輸范圍。通過與多天線技術結合,太赫茲可借助極窄波束來克服路徑衰落問題和擴展傳播距離。此外,將 RIS(智能超表面,見第五條)應用于太赫茲頻段是未來的技術發展趨勢。將 RIS密集地分布在室內和室外空間中會對太赫茲覆蓋空洞產生積極作用。(四)(四)更大力度的空分復用:超大規模天線和分布式更大力度的空分復用:超大規模天線和分布式 MIMO超大規模天線能有效增強上行容量和提高新頻段的覆蓋性能。一些新興的工業互聯網應用,例如現代工廠中的機器視覺類應用
42、,對上行帶寬的要求遠高于下行帶寬,極端情況下需要滿足 Gbps 或 10Gbps 數量級的吞吐量。解決方案之一是NR(5G 空口)的上行支持更多的天線或 MIMO 層數、支持更多用戶的 MU-MIMO,以及更靈活的載波分配和聚合等。5G-Advanced 能支持最多 24 正交的解調參考信號 DMRS(DeModulation Reference Signal)端口,如果每個用戶支持單流上行傳輸,在共同的時頻資源可以支持最多 24 個用戶的上行傳輸;此外,5G-Advanced 支持上行能力更強大的終端,單用戶可以支持到 8 流,能大大提高峰值速率,在密集網絡部署的情況下,有效提高上行吞吐量。
43、新增頻段也對天線數目有要求。2023 年世界無線電通信大會(WRC-23)將對6Ghz-10Ghz 做分配,這些頻段具有波長短,傳播損耗大特點。為了提升這些頻段的覆蓋性能,系統設計時需要考慮增加天面,以增強天線增益,降低功耗和網絡成本。我們認為由于芯片集成度提升,設備成本將快速下降,未來趨勢是通過利用更多數字通道,改善賦形或者讓接收波束更窄,以大幅提升無線性能。數字基礎設施技術趨勢白皮書另一方面,更大力度的空分復用未來發展趨勢是分布式程度越來越高,等效孔徑越來越大。從包含少量接入點(AP)的 MTP/eCoMP,發展成為更大規模的異質分布式 MIMO,進而發展為超大 AP 規模的 Cell-f
44、ree 網絡。大規模的分布式 MIMO 需要解決時頻同步、前傳帶寬和 AP 供電等問題。(五)(五)提升信道覆蓋質量:智能超表面技術提升信道覆蓋質量:智能超表面技術 RIS智能超表面(Reconfigurable Intelligent Surfaces,RIS)是一種無線環境優化技術,具有低成本、低能耗、高可靠、大容量的特點。RIS 主要通過以下幾種方式提升小區邊緣用戶的覆蓋、吞吐量和能量效率:(1)在直射傳播路徑受阻時提供有效的反射傳播路徑,避免覆蓋空洞;(2)為目標用戶進行波束賦型,充分利用空間分集和復用增益;(3)對干擾用戶進行零點波束賦型,實現小區間干擾抑制。RIS 本質上是一種分布
45、式空分復用技術,通過多天線技術更好地、更精細地利用空間電磁場特征,從而提升無線性能。相比之下,Massive MIMO 是一種集中式空分復用技術;RIS 由于成本低,容易做到更大規模,容易進行多點部署。目前業界對 RIS 的優點已認識比較充分,對其所帶來的問題,尤其是規模組網時的部署和性能問題認識得并不充分。最近隨著研究的深入,越來越多的問題被認識,例如目前 RIS器件調控精度低,導致 RIS 口徑效率低,存在柵瓣,會引起用戶間和網絡間的干擾;另外,目前還缺乏基站與 RIS 間的標準控制接口,仍以靜態/半靜態調控居多,只能改善固定用戶的覆蓋性能,后續需要實現基站與 RIS 動態協同技術,以提升
46、更廣域場景用戶的覆蓋性能和移動性能,等等。這些問題有的造成應用上的限制,有的導致成本上升或性能下降,上述問題需要產業界和學界共同攻克,需要客觀估計 RIS 的適用場景和產業化進程。數字基礎設施技術趨勢白皮書3.3.物理層物理層(光傳輸)(光傳輸):單波提速單波提速、波段擴展波段擴展和和空分復用空分復用高速、大容量和超長距是光傳輸的最重要需求。隨著業務流量的增長,導致光傳輸系統單纖容量增長的壓力越來越大。同時,在干線應用時,傳輸能力要求超過 1000km 以上。目前采用 super C(超寬 C 波段)的 200G PM-QPSK(偏振復用四相相移鍵控)系統已經廣泛商用,400G PM-QPSK
47、 預計 2023 年開始商用。如 3.1 節所述,提升通信容量可通過提升單波速率、波段擴展和空分復用 3 個技術途徑。單波提速同時降低單比特成本,是容量擴展最直接/經濟方式,而新波段擴展(比如 L 波段與S 波段)使得頻譜成倍提升,可適配單波帶寬與波道數的同步增長。隨單纖波段繼續擴展的性能/成本優勢降低,空分復用或成為單纖容量持續提升的可選路徑。接下來就單波提速、波段擴展、空分復用就未來的演進趨勢分別展開介紹:(一)單波提速單波提速根據香農定理,單波提速的途徑一方面是譜效提升,另一方面是單波帶寬/波特率提升。譜效的提升意味著對接收信號處的 SNR(信噪比)需求提升,而光路依托新型光纖(如 G.
48、654光纖、空芯光纖)降損耗/非線性,結合放大器降低噪聲系數可顯著提升信道 SNR,支持單信道容量成倍提升;先進相干 DSP 芯片采用高性能調制解調結合高編碼增益 FEC(前向糾錯編碼),使得 SNR 容限繼續趨近理論值,傳輸速率逼近信道容量上限;單波帶寬提升方面,芯片與光器件帶寬提升是單波提速與降比特成本主要方式,波特率從 64GBd 到96GBd/128GBd,并將持續往 180GBd+演進。(二)(二)波段擴展波段擴展隨單波帶寬提升與系統波道數要求,波段擴展是提升單模光纖容量主流方向。本著單波提速不減波數,容量翻倍的原則,長距模式 100G、200G、400G 分別應用了 C4T、C6T
49、、C6T+L6T 的工作波段(如表 3-2 所述)。目前長距 400G 依托 C+L 波段逐步商用,長距 800G結合 S+C+L 波段擴展將成為下一步容量提升方向。同時還需要推動規范 G.654E 光纖的截數字基礎設施技術趨勢白皮書止波長到 1460nm 以下,以及規范 U 波段的宏彎損耗和 E 波段低水峰光纖規格。波段擴展依賴新波段光器件的材料工藝發展,以支持更寬波長范圍。如放大器的 Tm/Bi離子或基質摻雜工藝、光模塊的 128GBd 以上 TFLN(薄膜鈮酸鋰)相干調制器、ITLA(可調諧激光器)多波段外腔技術、WSS(光波長交換)器件多波段增透鍍膜設計等。表 3-2光纖通信的波段擴展
50、年度2010201720232026干線單波速率 bps100G200G400G800G800G工作波段CSuper CSuper C+LU/U/S+S+C+LC+L工作波段帶寬4THz6THz12THz24THz/18THz24THz/18THz光纖G.652DG.652DG.654EG.654EG.654E干線單纖容量8Tbps16Tbps32Tbps64Tbps64Tbps波特率32GBd64GBd128GBd256GBd/192GBd256GBd/192GBd通道間隔50GHz75GHz150GHz300GHz/225GHz300GHz/225GHz(三)空分復用通過空分復用技術,即光
51、纖芯數和傳輸模式的增加,可以實現單纖容量的大幅提升。從技術路線上可分為多芯弱耦、多芯強耦、少模弱耦、少模強耦。其中多芯弱耦合光纖/器件相對成熟,具備長距傳輸能力。受限光纖維護問題與多芯光放性能,多芯弱耦相比多纖芯光纜的陸纜商用價值或不顯著,但因多芯放大器的能耗與多芯光纜的尺寸/密度優勢,更受海纜應用關注。少模弱耦合光纖/器件能力具備,受限光纖與連接器的模式間串擾,傳輸距離不足,在 DCI 短距互聯或具有應用潛力;多芯強耦合光纖/器件能力具備,主要受限于多路復用 OTU(MiMo DSP 與相干光器件集成),短期無法實用;少模強耦合器件能力具備,主要受限光纖耦合度低與多路復用 OTU,尚不具備實
52、用性。數字基礎設施技術趨勢白皮書3.4.分組分組層:兼顧容量和靈活性的分組轉發層:兼顧容量和靈活性的分組轉發芯片芯片架構架構在分組層(IP 層和以太網層),對于帶寬影響最大的技術,是分組轉發設備的處理能力,也就是通常說的吞吐量。分組芯片轉發能力是提升網絡帶寬的關鍵。目前,業界已經發布 51.2Tbps 處理能力的芯片,按照 23 年芯片能力增長一倍的趨勢,預計 20252026 年,單芯片處理能力將達到 102.4Tbps。2030 年,單芯片最大處理能力將有可能達到 204.8Tbps。同時,未來十年,傳統網絡向算網融合的新型數字基礎設施演進,分組芯片還需要提升業務靈活處理能力。一方面加強芯
53、片可編程能力滿足新業務創新;另一方面降低芯片轉發時延,滿足數字孿生、元宇宙等新場景對于低時延的需求。要同時滿足芯片容量、靈活性和低時延要求,未來芯片不僅依賴工藝技術的進步,更需要在架構設計和算法上進行創新。當前主流可編程轉發架構有兩種:(1)并行 RTC(Run To Complete)架構;(2)串行流水線架構。并行 RTC 架構采用多個包處理引擎并行進行報文處理,每個微引擎完成完整的報文處理;串行流水線架構將報文處理分成多個階段,由多個串行的包處理引擎接力完成完整的報文處理。并行 RTC 架構具有大容量表項,超大指令空間,能夠處理復雜業務,但該架構轉發延時大,且在重載時,引擎間調度沖突加劇
54、,網絡抖動較大,無法滿足低時延業務需求。串行流水線架構具有較小的延時和確定的抖動,但轉發表容量較小,編程能力有限,無法處理復雜業務。當業務復雜度超過流水線容量時,只能通過環回處理,導致性能折半下降。圖 3.1 分組轉發芯片的并行 RTC 架構和串行流水線架構我們提出一種新型轉發芯片架構:并行+串行的混合架構。該架構最主要的特點是:通數字基礎設施技術趨勢白皮書過編排將不同特點的業務分配到適合的轉發架構上,同時滿足未來網絡性能、延時和業務擴展性的要求。低延時場景中,低延時業務全部由串行流水線處理,少量復雜業務(比如大容量轉發表查找等),交由 RTC 并行架構處理。該場景下,由于 RTC 處理的業務
55、較為簡單,占用指令少,該架構依然能夠保證較低的處理時延。對于其他場景(比如通用路由器),芯片要處理的業務非常復雜,涉及多級大容量表項的查找,并且不同表項之間有明確的前后級依賴關系。該場景下,需要將路由器業務進行適度分解,通過串行流水線和并行 RTC 混合路徑處理,將復雜業務處理集中編排到并行 RTC 架構執行,由 RTC 集中完成大容量轉發表的查找和復雜邏輯處理,從而有效解決單純串行流水線編程能力不足的問題。圖 3.2 分組轉發芯片的并行+串行混合架構基于我們的技術評估,在選擇合適業務排布模型的前提下,混合架構的轉發時延與串行流水線架構基本相當,比 RTC 并行架構減少約 40%?;旌霞軜嫷男?/p>
56、片面積比 RTC 并行架構和串行流水線架構少 15%-20%左右,功耗少 12%-20%左右。我們認為:未來的分組芯片引入串并混合架構,使芯片成為不同產品的通用平臺,實現“一款芯片、多種產品”,滿足多種業務場景需求必然逐漸被業界接受并推廣。這不僅有利于降低芯片研制成本,而且在后繼產品開發中,能顯著縮短新功能開發和部署周期,快速適配用戶持續變化的業務需求。3.5.應用層:基于深度學習視頻編碼進一步提升視頻壓縮效率應用層:基于深度學習視頻編碼進一步提升視頻壓縮效率視頻是信息重要載體,據統計,2020 年視頻流量已經占到整個互聯網流量的 70%以上。對于視頻內容編碼質量以及相同視覺質量下壓縮效率的追
57、求,是視頻技術發展的最主要驅動因素。視頻編碼目標是在可以接受的信息損失范圍內盡量提高視頻壓縮效率,從而降低視頻數字基礎設施技術趨勢白皮書傳輸帶寬的需求,這是應對香農極限的另一個努力方向。ISO/IEC JTC1 SC29 與 ITU-T SG16 VCEG 聯合成立的視頻專家組(Joint Video ExpertsTeam,JVET)于 2020 年 8 月 發 布 新 一 代 視 頻 編 碼 標 準 H.266/VVC(Versatile VideoCoding)14。H.266/VVC 沿用傳統混合編碼框架中的預測編碼、變換編碼和熵編碼技術來降低視頻空域、時域、頻域、分量間以及視覺冗余,
58、并引入了大量新的編碼參數,更加準確地描述視頻內容。相比上一代視頻編碼標準 H.265/HEVC,在相同視覺質量下可實現約 50%的編碼碼率節省。然而隨著更多樣塊劃分方法與編碼模式不斷出現,更復雜預測與變換技術的不斷引入,傳統視頻編碼算法復雜度日益增長,完全基于傳統編碼框架技術來提升視頻編碼壓縮效率也愈發困難。深度學習技術在圖像分類、目標檢測等計算機視覺任務上已取得了巨大的成功,近幾年,深度學習技術為圖像/視頻編碼框架定義了新的結構范式,實現了圖像和視頻編碼器性能的顯著提升,這賦予了圖像/視頻編碼領域新的研究契機?;谏疃葘W習的視頻編碼技術主要包括:傳統視頻編碼與基于神經網絡編碼相結合的混合視頻
59、編碼技術,以及完全端到端的神經網絡視頻編碼兩大技術方向。(一)傳統編碼與神經網絡編碼相結合的混合視頻編碼混合視頻編碼旨在傳統編碼框架中引入深度神經網絡來進一步提升壓縮性能。其中一類技術與傳統編碼標準相兼容,利用深度學習策略實現對 H.266/VVC 和 AV1 等傳統編碼標準中的塊劃分、預測模式等大量待搜索對象快速判決,從而緩解編碼端搜索壓力、降低計算復雜度。另一類技術則屬于僅實現壓縮效率提升的非標準方案,其典型工具包括:超分辨率和后處理濾波。前者是在解碼端對解碼圖像執行超分辨率操作,實現編碼端低分辨率圖像/視頻輸入,仍可獲得高分辨率、高質量重建值,從而有效提升編碼效率。后者則試圖直接建立重建
60、像素到原始像素之間的映射關系,通過濾波器策略實現對重建編碼圖像質量的提升。(二)完全端到端的神經網絡視頻編碼端到端神經網絡視頻編碼技術打破傳統編碼框架,完全使用深度學習方法實現編解碼流程?;谏窠浘W絡視頻編碼利用海量數據集進行神經網絡訓練,學習去除視頻壓縮失真任務中的先驗知識。強大的非線性變換和映射能力是端到端神經網絡編碼可獲得更好壓縮性能的一個主要原因。此外,端到端神經網絡編碼器針對整個編碼環路進行端到端優化,可以避免數字基礎設施技術趨勢白皮書傳統編碼器中手工設計或獨立優化所存在的局部最優問題,實現編碼系統整體編碼性能的提升?;谏疃葘W習的視頻編碼雖然相比傳統視頻編碼可獲得較大壓縮效率提升,
61、但其所帶來的解碼端復雜度大幅提升使得此類技術在短期內落地面臨一定挑戰。目前,業界廠商正在積極研究傳統視頻編碼技術與基于深度學習視頻編碼技術聯合優化。例如,JVET 開展的神經網絡視頻編碼(NNVC)探索實驗15和增強壓縮視頻編碼(ECM)探索實驗16,兼顧傳統預測變換編碼工具的壓縮優勢,以及深度神經網絡智能編碼工具的質量提升優勢,測試結果表明,在RA和AI配置下,Y、Cb、Cr三個通道BD-rate分別節?。?21.17%,-32.29%,-33.05%和-11.06%,-22.62%,-24.13%,具備演進成為下一代視頻編碼標準的技術潛力。3.6.設備互聯:光互聯將逐步滲透到設備間及設備內
62、互聯設備互聯:光互聯將逐步滲透到設備間及設備內互聯更寬的連接,對于通信設備來說,意味著更大的單板容量、更高的通道速率和更高的帶寬密度。同時,需要有更低的 bit 功耗和 bit 成本。目前,信息通信設備內部以電互連為主。比如,框式設備內部通過 PCB 電背板進行互連;盒式設備的主芯片和光模塊之間也是電互連。隨著速率的上升,電互連的高頻信號插損(IL)變得很大。同時,由于回損(RL)、連接器的阻抗不連續和串擾(Crosstalk)等因素的影響,需要使用更加復雜的均衡算法和 FEC(前向糾錯編碼)來補償信號損失,這就使得電互連的 Serdes(串行/解串行)部分功耗增加。光互連在容量和距離方面具有
63、電互連無可比擬的優勢,因此,隨著數據速率的增加和連接密度的上升,設備內部的互連也出現光進銅退的趨勢。相比于電互連,光互連還有一個優點就是極大的拓展了設備的空間互連距離,在設備結構層面的表現就是解耦目前電互連機架中板卡之間的空間緊耦合關系,降低了散熱和 SI(Signal integrity,信號完整性)的設計難度;在設備內部網絡連接拓撲的層面上,表現為三級 CLOS 網絡的基數(radix)可以增加很多,即,可以在一個三級 CLOS 架構下,讓更多的交換板和更多的線卡進行互連,從而實現了超大容量(提高一個數量級)信息通信設備的數字基礎設施技術趨勢白皮書低成本、低時延和低功耗的連接方案17。CP
64、O(Co-packaged Optics)技術是減小光引擎(實現光收發功能的單元)的體積,將光引擎和主芯片共封裝的技術,也是將光互連下沉到單板間互連及芯片間互連的關鍵技術。CPO 將帶來功耗的減少、信號完整性的優化、成本的降低以及其它方面的收益。與面板可插拔光模塊(FPP)相比,CPO 大幅縮短了主芯片和光器件(optics)之間的距離,顯著地降低了成本和功耗。以112G Serdes為例,當Serdes的PCB長度從1000mm(CEI-112G-LR),縮短到 50mm(CEI-112G-XSR)的時候,奈奎斯特頻率處的插損從 28dB 變成了 10dB。相對應的 Serdes 功耗從 6
65、50mW 下降到 150mW,功耗大約節約了 75%18。對于 linear 鏈路的 CPO 來說,由于取消了內部的 DSP,可以更大幅度地降低整體成本和功耗19。圖 3.3 可插拔光模塊向 CPO 演進示意圖共裝低功耗、高密度和大容量的 CPO 是交換芯片的未來發展趨勢。從 20102022 年,數據中心交換機帶寬提升了 80 倍,功耗提升了 22 倍,其中光模塊的功耗增長了 26 倍,交換芯片 Serdes 的功耗增長了 25 倍,兩者的總功耗占到了交換機功耗的 70%20。面對功耗、SI 和成本方面的壓力,行業各方都在大力推進 CPO 的標準化和產業化,預計 102.4T 容量階段的交換
66、機將是 CPO 規模部署的切入點。當然,面板可插拔光模塊(FPP)也在不斷隨著各種新技術的發展而改進優化,尤其是近期 LPO(Linear-drive Pluggable Optics)受到比較多的關注,其在功耗和成本上,相比于非線性直驅的的可插拔光模塊有比較大的優勢,但是,要完全覆蓋目前的非相干光模塊場景還是比較困難的。由于技術之間的融合,LPO 也可以視為 CPO 技術的鋪墊21??傊?,在相當長的一段時間內,CPO 和可插拔光模塊將會共存。數字基礎設施技術趨勢白皮書在 HPC(High Performance Computing 高性能計算)/AI 的網絡和設備中,同樣面臨著功耗、成本和時
67、延方面的巨大壓力。Optical I/O 作為 CPO 的特定形態,在計算芯片 CPU、GPU 以及 XPU 等之間的互連(chip to chip interconnect)方面,具有低功耗、高帶寬、低延遲的優勢。從 Nvidia 評估的數據來看,GPU 在板內的電互連(PCIe 總線),功耗約為6pJ/bit0.3m,升級為全光互連后,功耗降低為 4pJ/bit,連接距離可以增加到 100m22。預計未來在 200G 的通道帶寬下可以實現 0.1pJ/bit 的更低功耗23。由于近期 ChatGPT 的熱度持續,預計 Optical I/O 形態的 CPO,將會首先進入規模商用,在 HPC
68、/AI 的網絡和設備中進行部署。從目前產業鏈發展情況來看,-材料和硅基的異質集成和以 Chiplet 為重點的異構集成,將是 CPO 發展的有效途徑。同時,CPO 和主芯片的 2.5D 集成甚至 3D 集成也將是重要的研究方向。CPO 發展的最終目標將是光電的單片集成,即在 wafer 級上,實現光功能模塊和電功能模塊的集成,這是光電集成的圣杯,也意味著巨大的挑戰。數字基礎設施技術趨勢白皮書4.更強的算力更強的算力4.1.綜述綜述隨著人工智能、隱私計算、AR/VR 以及基因測試/生物制藥等新型高性能計算應用的不斷普及,對算力的需求也不斷持續增加。比如,以 ChatGPT 為代表的大模型需要巨大
69、算力支撐。大模型對算力的需求增速遠大于摩爾定律增速。圖 4.1 AI 大模型對于算力需求的增速遠大于摩爾定律增速11自微處理器誕生以來,算力的增長按摩爾定律發展,即通過增加單位芯片面積的門電路數量來增加處理器算力,降低處理器成本和功耗。但近年來這條路已經遇到越來越大的困難,通過持續縮微來提升性能已經無法滿足應用的需求。在后摩爾定律時代,一方面可以通過持續在工藝和材料上的創新來提升芯片算力:More Moore:繼續追求更高的晶體管單位密度。比如晶體管工藝結構從鰭式結構FinFET 到環形結構 GAA,以及納米片、納米線等技術手段有望將晶體管密度繼續提升 5 倍以上。但這條路在成本、功耗方面的挑
70、戰非常大。Beyond CMOS:放棄 CMOS 工藝,尋求新材料和新工藝。比如使用碳納米管、二硫化鉬等二維材料的新型制備工藝,和利用量子隧穿效應的新型機制晶體管。但這條路徑的不確定性較大,離成熟還需要很長時間。數字基礎設施技術趨勢白皮書另一方面利用架構的創新來提升算力密度,優化算力資源,從而延續摩爾定律。這也是本章要重點闡述的內容:在芯片層面堅持領域定制的技術路線,進行軟硬件協同協同設計,同時利用 3D 堆疊和 Chiplet 技術來降低芯片的設計和制造成本。(見 4.2 節)引入新的計算架構和計算范式,如存算一體設計,在系統、體系和微架構層面進行計算、存儲協同設計,從而實現高能效計算。(見
71、 4.3 節)采用“對等系統”等體系結構創新,優化計算、控制和數據路徑,用全局最優替代局部最強,減少計算性能提升對先進工藝的依賴。(見 4.4 節)在網絡架構層面進行創新,通過算網融合提升算力資源調度效率。(見 4.5 節)4.2.芯片架構:芯片架構:DSA&3D 堆疊堆疊&Chiplet圖靈獎獲得者 John Hennessy 和 David Patterson 在 2019 年共同發表的計算機架構的新黃金時代中提出:當摩爾定律不再適用,一種軟硬件協同設計的 DSA(領域定制架構 Domain Specific Architecture)架構會成為主導,這種設計的核心在于針對特定問題或特定領
72、域來定義計算架構。近幾年火熱的人工智能 AI 芯片和方興未艾的 DPU 都是 DSA領域的典型代表。DSA 針對特定領域的應用采用高效的架構,比如使用專用內存最小化數據搬移、根據應用特點把芯片資源更多側重于計算或存儲、簡化數據類型、使用特定編程語言和指令等等。與 ASIC 芯片(Application Specific Integrated Circuit,專用集成電路)相比,DSA 芯片在同等晶體管資源下具有相近的性能和能效,并且最大程度的保留了靈活性和領域的通用性。例如中興通訊提出的計算和控制分離的人工智能領域定制芯片架構“夸克”,針對深度神經網絡的計算特點,將算力抽象成張量、向量和標量引
73、擎,通過獨立的控制引擎(CE)對各種 PE 引擎進行靈活編排和調度,從而可以高效實現各種深度學習神經網絡計算,完成自然數字基礎設施技術趨勢白皮書語言處理、AI 檢測、識別和分類等各種人工智能應用。由于采用軟硬件協同設計的定制化方案,DSA 芯片在相同功耗下可以取得比傳統 CPU 高數十倍甚至幾百倍的性能。圖 4.2 中興“夸克”領域定制架構摩爾定律本身是在 2D 空間進行評估的,隨著芯片微縮愈加困難,3D 堆疊技術被認為是提升集成度的一個重要技術手段。3D 堆疊就是不改變原本封裝面積情況下,在垂直方向進行的芯片疊放。這種芯片設計架構有助于解決密集計算的內存墻問題,具有更好的擴展性和能效比。Ch
74、iplet 技術被認為是延續摩爾定律的關鍵技術。首先 Chiplet 技術將芯片設計模塊化,將大型芯片小型化,可以有效提升芯片良率,降低芯片設計的復雜程度。其次,Chiplet 技術可以把不同芯粒根據需要來選擇合適的工藝制程分開制造(比如核心算力邏輯使用新工藝提升性能,外圍接口仍采用成熟工藝降低成本),再通過先進封裝技術進行組裝,可以有效降低制造成本。與傳統芯片方案相比,Chiplet 模式具有設計靈活性、成本低、上市周期短三方面優勢。Chiplet 技術面臨的最大挑戰是互聯技術,2022 年 3 月 2 日,“UCIe 產業聯盟”成立,致力于滿足客戶對可定制封裝互聯互通要求。Chiplet
75、產業會逐漸成熟,并將形成包括互聯接口、架構設計、制造和先進封裝的完整產業鏈。數字基礎設施技術趨勢白皮書4.3.計算架構:存算一體使得計算和存儲從分離走向聯合優化計算架構:存算一體使得計算和存儲從分離走向聯合優化經典馮諾依曼計算架構采用計算和存儲分離架構,如果訪存的速度跟不上 CPU 的性能,就會導致計算能力受到限制,即“內存墻”出現。谷歌針對自家產品的耗能情況做了一項研究,發現整個系統耗能的 60%以上花費在 CPU 和內存的讀寫傳輸上24。而讀寫一次內存耗費的能量比計算一次數據耗費的能量多幾百倍。由于“功耗墻”的存在,大量的數據訪問也會嚴重限制計算性能。隨著大數據和人工智能應用的發展,傳統計
76、算架構在內存墻和功耗墻的雙重限定下,對新興數據密集型應用的影響變得越來越突出,亟需新的計算架構解決這一問題。存算一體技術就是從應用需求出發,進行計算和存儲的最優化聯合設計,減少數據的無效搬移、增加數據的讀寫帶寬、提升計算的能效比,從而突破現有內存墻和功耗墻的限制。圖 4.3 存算一體的三種架構存算一體包含系統架構、體系結構和微架構多個層面。系統架構層面,在傳統計算和存儲單元中間增加數據邏輯層,實現近存計算,減少數據中心內、外數據低效率搬移,從系統層面提升計算能效比;體系架構層面,利用 3D 堆疊、異構集成等先進技術,將計算邏輯和存儲單元合封,實現在存計算,從而增加數據帶寬、優化數據搬移路徑、降
77、低系統延時;微架構層面,進行存儲和計算的一體化設計,實現存內計算,基于傳統存儲材料和新型非易失存儲材料,在存儲功能的電路內同時實現計算功能,取得最佳的能效比。(一)系統架構層面的近存計算(Processing Near Memory)數字基礎設施技術趨勢白皮書近存計算在數據緩存位置引入算力,在本地產生處理結果并直接返回,可以減少數據移動,加快處理速度,并提升安全性。如圖 4.3 所示,通過對 Data-Centric 類應用增加一層數據邏輯層,整合原系統架構中的數據邏輯布局功能和應用服務數據智能功能,并引入緩存計算,從而減少數據搬移。在“東數西算”工程中,可以通過設置近存計算層,解決數據無序流
78、動的低能效問題。(二)體系架構層面的在存計算(Processing In Memory)在存計算主要在存儲器內部集成計算引擎,這個存儲器通常是 DRAM。其目標是直接在數據讀寫的同時完成簡單處理,而無需將數據拷貝到處理器中進行計算。例如攝氏和華氏溫度的轉換。在存計算本質上還是計算、存儲分離架構,只是將存儲和計算靠近設計,從而減少數據搬移帶來的開銷。目前主要是存儲器廠商在推動其產業化。(三)微架構層面的存內計算(Processing Within Memory)存內計算是把計算單位嵌入到存儲器中,特別適合執行高度并行的矩陣向量乘積,在機器學習、密碼學、微分方程求解等方面有較好的應用前景。圖 4.
79、4 存內計算架構示意存內計算采用計算、存儲統一設計的架構。以深度神經網絡的矩陣向量乘加操作為例,一般采用圖 4.4 所示架構,由輸入端的 DAC、單元陣列、輸出端的 ADC 以及其他輔助電路組成。存儲單元中存放權重數據,輸入經過 DAC 轉換后變成對存儲數據的讀寫操作,利用歐姆定律和基爾霍夫定律,不同的存儲單元輸出電流自動累加后輸出到 ADC 單元進行采樣,數字基礎設施技術趨勢白皮書轉換成輸出的數字信號,這樣就完成了矩陣向量乘加操作。存內計算按照存儲介質不同可以分為易失材料(DRAM/SRAM)和非易失材料(RRAM/PRAM/MRAM/FLASH 等)2 類。在計算電路的具體實現上包括模擬計
80、算、數?;旌嫌嬎愫腿珨底钟嬎??;?SRAM 的全數字存內計算芯片,由于工藝成熟,同時能夠實現比較高的計算精度(8bit),目前已經逐步進入商用階段。而基于非易失材料的模擬存內計算,還需要解決器件穩定性和功耗問題。4.4.計算架構:基于對等系統的分布式計算架構計算架構:基于對等系統的分布式計算架構傳統的計算系統以 CPU 為中心進行搭建,業務的激增對于系統處理能力要求越來越高,摩爾定律放緩,CPU 的處理能力增長越來越困難,出現了算力墻。通過領域定制(DSA)和異構計算架構可以提升系統的性能,但是改變不了以 CPU 為中心的架構體系,加速器之間的數據交互通常還是需要通過 CPU 來進行中轉,C
81、PU 容易成為瓶頸,效率不高?;?xPU(以數據為中心的處理單元)為中心的對等系統可以構建一個新型的分布式計算架構。如圖 4.5 所示,對等系統由多個結構相似的節點互聯而成,每個節點以 xPU 為核心,包含多種異構的算力資源,如 CPU、GPU 及其它算力芯片。xPU 主要功能是完成節點內異構算力的接入、互聯以及節點間的互聯,xPU 內部的通用處理器核可以對節點內的算力資源進行管理和二級調度。節點內不再以 CPU 為中心,CPU、GPU 及其它算力芯片作為節點內的算力資源處于完全對等的地位,xPU 根據各算力芯片的特點及能力進行任務分配。對等系統的節點內部和節點之間采用基于內存語義的新型傳輸
82、協議,即,采用read/write 等對內存操作的語義,實現對等、無連接、授權空間訪問的通信模式,通過多路徑傳輸、選擇性重傳、集合通信等技術提高通信效率。與 TCP、RoCE 等現有傳輸協議相比,基于內存語義的傳輸協議基于低延時、高擴展性的優勢。節點內 xPU、CPU、GPU 及其他數字基礎設施技術趨勢白皮書算力芯片之間通過基于內存語義的低延時總線直接進行數據交互。節點間通過 xPU 內部的高性能轉發面實現基于內存語義的低延時 Fabric,從而構建以節點為單位的分布式算力系統。同時 xPU 內置安全、網絡、存儲加速模塊,降低了算力資源的消耗,提高了節點的性能。圖 4.5 對等系統示意圖基于對
83、等系統架構的服務器可以看成一個“分布式計算系統”,有利于產業鏈上各節點獨立規劃開發,發揮各自優勢。比如 xPU 卸載+庫/外 OS 演進+APP direct 模式解決公共能力(存儲、網絡),整體性能的提升不再依賴于先進工藝;基于對等內存語義互聯實現系統平滑擴展,將龐大分布式算力視為一臺單一的“計算機”。4.5.網絡架構網絡架構:支撐算網融合的支撐算網融合的 IP 網絡技術實現算力資源高效調度網絡技術實現算力資源高效調度隨著邊緣計算的發展、東數西算的推進,算力資源呈現分布式部署的模式。如前所述,網絡帶寬的提速受到香農定理的限制,算力能力的提升受到摩爾定律的約束,兩者又都受到節能降耗的影響,預計
84、網絡和算力資源的高效調度、精細化運營成為必須選擇的方向。算網絡融合的目標借助高速、靈活、智能的網絡,將跨地域的算力節點組織起來,協同提供開放的算力服務,并提高算網資源的有效利用率。算網深度融合有兩大驅動力,一是需求側,實現算力和網絡的協同調度,滿足業務對算力資源和網絡連接的一體化需求。比如,高分辨率的 VR 云游戲,既需要專用圖形處理器(GPU)計算資源完成渲染,又需要確定性的網絡連接來滿足 10 ms 以內的端到端時延要數字基礎設施技術趨勢白皮書求。二是供給側,借助于網絡設施天生的無處不在的分布式特點,算網深度融合可以助力算力資源也實現分布化部署,滿足各類應用對于時延、能耗、安全的多樣化需求
85、。算網融合給 IP 網絡技術提出了挑戰。在互聯網整個技術架構中,通常來說算對應著上層的應用,網對應著底層的連接,IP 技術作為中間層,起到承上啟下的樞紐作用。傳統的IP 網絡遵循的端到端和分層解耦的架構設計,使得業務可以脫離網絡而獨立發展,極大降低了互聯網業務的創新門檻,增加了業務部署的便利。但是在這樣的設計架構之下,業務和網絡處于“去耦合“的狀態,最終絕大多數業務只能按照“盡力而為”的模式運行。如何建立業務和網絡之間的橋梁,實現算力資源、網絡資源的協同和精細化管理,是未來 IP 網絡面臨的一大挑戰。中興通訊提出的“服務感知網絡(SAN,Service AwarenessNetwork)”是在
86、這個方面的創新嘗試25。圖 4.6 服務感知網絡(SAN)架構示意服務感知網絡的架構如圖 4.6 所示。其核心思想是把服務提供商對外提供的算力資源和網絡資源封裝為“服務”,以服務標識來表示;服務按需在網絡各處部署;在 IP 網絡層引入“服務子層”,實現對服務的感知、路由和調度。因此服務感知網絡具有三個核心設計要素:(一)橫向貫穿端網云、縱向打通應用和網絡的服務標識服務標識是端、網、云統一的服務治理對象,包括連接類服務和算力服務。應用層直接數字基礎設施技術趨勢白皮書用服務標識發起位置無關傳輸層連接,無需 DNS 域名解析過程,大大縮短了服務響應時間,并且內含了對移動性的支持。(二)在 IP 網絡
87、層引入服務子層(3.5 層),以網絡為中心實現服務互聯在保留傳統 IP 主機路由的基礎上引入以服務標識為中心的服務子層,使能網絡對服務使用方的算力需求的感知,和服務提供方的算力資源狀態的感知,從而通過服務路由,實現服務需求到服務資源的高效連接,實現了網絡從傳統模式下的主機互聯到服務互聯的演進,(三)能力增強的連接子層連接子層對網絡的基礎能力進行增強,比如確定性服務能力和內生安全能力。服務的網絡連接級服務質量需求由連接子層滿足。服務感知網絡實現了算力服務和網絡服務的一體化供給,實現算網資源的高效調度,既保障了服務質量,又能將節能減排的要求落到實處。數字基礎設施技術趨勢白皮書5.更高的智能更高的智
88、能5.1.綜述綜述智能技術是推動人類進入智能時代的決定性力量。全球發達經濟體充分認識到人工智能技術引領新一輪產業變革的重大意義,紛紛推進智能基礎設施建設和各領域應用研究。人工智能技術的基本要素是“三算”:算力、算法和數據(算料)。其中數據跟具體業務領域相關,開放、共享、可流通的數據資源體系建設是數字中國建設整體布局規劃03關注的兩大基礎之一;而算力和算法是數字基礎設施應具備的基本能力。從 2016 年以來的新一輪人工智能技術在“三算”方面已取得重要突破,正從之前“不能用”到現在“可以用”,但距離“很好用”仍有諸多瓶頸。如強大的智能能力依賴于復雜的算法疊加龐大的算力而獲得,成本功耗均很高,對于環
89、境的壓力很大;面向特定領域的專用人工智能因建模相對簡單、算料標注充沛,已經取得不少優于人類能力的成果,但是通用智能仍處于起步階段,處于“有智能無智慧、有智商無情商、有專才無通才”狀態。正如第二章所述,人類尚未在人工智能的基礎理論(認知科學)取得突破,缺乏理論指導。在 AI 算力需求的增長遠大于摩爾定律增長的情況下,如何實現更有效率的 AI 芯片是業界面臨的重要課題。本章第 5.2 節論述了 AI 芯片架構的創新方向,以實現更高算力/能耗比。以 ChatGPT 為代表的生成式 AI(AIGC)的成功,使多模態大模型成為通用 AI 算法最有潛力的拓展方向。本章第 5.3 節論述了大模型技術的發展趨
90、勢及其不斷拓展的應用領域,進而有可能演進為新的平臺層,模型即服務(MaaS)成為可能商業模式,為多種行業提供通用化的 AI 能力。本章第 5.4 節把“網絡智能化”作為智能基礎設施的一個應用案例。人工智能如何賦能網絡的運營運維,實現網絡自身的數字化轉型,是電信行業始終關注的話題。在更高效的AI 算力,以及大模型等新型算法的支撐下,網絡智能化有望從目前的 L2L3 級別向 L4L5更高級別邁進。數字基礎設施技術趨勢白皮書5.2.智能芯片:提高算力智能芯片:提高算力/能耗比的技術方向能耗比的技術方向如第二章所述,目前 AI 計算的能耗快速增長,將為環境帶來沉重的負擔。為了實現綠色可持續發展,必須不
91、斷研究更有效率的 AI 芯片。實現 AI 芯片高 Tops/W(算力/能耗比)的兩個可行的方向是空間計算和近似計算。(一)空間計算AI 芯片功耗與數據在芯片內搬運的距離正相關。借助創新的芯片架構設計,減少完成每次操作數據在芯片內需要移動的距離,可以大幅降低芯片的能耗。將一個包含大計算、大存儲單元的計算核心拆分為多個包含小計算、小存儲單元的計算核心,可以有效降低每次計算數據移動的平均距離,從而降低芯片能耗。這也成為新一代AI 芯片的設計趨勢。然而,這種多核并行計算會引入額外的開銷,導致計算效率降低?!翱臻g計算”是通過軟硬件架構協同設計,將一個計算任務拆分為多個子任務,然后將子任務指派到不同的計算
92、核心上,并規劃任務之間數據傳輸路徑,最優匹配芯片的算力、存儲、數據傳輸帶寬、互聯拓撲結構,減少數據移動距離,從而實現性能最優、功耗最低。實現多核空間計算需要軟硬件協同設計。在硬件方面,為提升并行計算效率,計算核心可以增加對 AI 并行計算常用通信模式的硬件支持,如 Scatter、Gather、Broadcast 等,對數據包進行封裝、壓縮等,在核間互聯上優化片上網絡拓撲結構和動態路由能力;在軟件方面,由于空間計算的優化非常復雜,非開發人員所能負擔,需要編譯器自動實現任務的拆分、指派、路由規劃,在運行時需要完成計算過程控制,特別是對空間計算過程中產生的各種異常(如丟包、亂序、擁塞)進行處理。未
93、來空間計算的一條演進路線是在存計算。在存計算可以把一個大的計算核心拆分為上萬個微型計算核心,而不僅僅是上百個小核心。在這種架構下,每個計算數據平均移動距離將進一步降低至微米級,功效比可以超過 10 TOPS/WINT8。例如 Untether AI 公司的Boqueria 芯片擁有超過三十萬個處理引擎(Processing Elements),功效比高達 30TFLOPS/WFP826??臻g計算技術的另一條演進路線是確定性設計。編譯器優化能力對空間計算的性能至關數字基礎設施技術趨勢白皮書重要,但只能利用靜態信息對計算進行調度。因此,重新設計系統的軟件-硬件界面、靜態-動態界面,使編譯器能夠利用
94、更多的靜態信息,成為一個新的技術演進方向。例如,Groq 公司的張量流處理器(TSP)采用確定性硬件設計27,編譯器可以精確地調度每個核上的計算、內存訪問和數據傳輸,避免共享資源的訪問沖突。(二)近似計算深度學習模型的一個特征是對精度要求不高。計算過程中出現的誤差并不會顯著影響模型的最終判定結果。近似算法可以減少內存使用和計算復雜度,使計算更加高效。低精度計算是深度學習近似計算一個重要的技術方向。使用低精度的數據類型,可以有效減少芯片面積和功耗。例如,INT8 的乘法和加法運算所消耗的能量僅為 32 位浮點數(FP32)的 1/30 和 1/1528。目前混合精度訓練技術可以使用 FP16 位
95、半精度浮點數和 FP32單精度浮點數配合完成模型訓練。由于推理對精度的要求更低,因此在完成模型訓練之后,可以將模型轉化為更低精度的數據類型表示,這個技術稱之為模型量化。目前,INT8 量化技術已經相當成熟,INT4 量化技術仍然面臨一些困難。近似計算的另一個演進路線是稀疏計算。研究發現,深度學習模型的權重存在一定的稀疏性,即部分權重值為零或者非常接近于零,特別是 Transformer 模型的稀疏度更大。利用模型的稀疏性可以省略不必要的計算,從而提升模型計算的效率。例如,Nvidia A100 GPGPU中的 4 選 2 稀疏加速可以將芯片等效算力提升一倍29,同時功耗保持不變。Tenstor
96、rentWormhole 芯片更是可以在模型稀疏度 90%的情況下,將芯片等效算力提升 100 倍。未來軟硬件協同下稀疏計算仍然會是一個非常有前景的技術方向。未來 10 年,依靠制程提升能效比的難度越來越大,而空間計算、近似計算在提升芯片能效比方面存在巨大潛力。相對于目前的主流 AI 芯片,未來的芯片效能將有數十倍的提升,是 AI 產業實現雙碳目標的有力保障。數字基礎設施技術趨勢白皮書5.3.智能算法:多樣化分離小模型向通用大模型演進智能算法:多樣化分離小模型向通用大模型演進AI 算法的本質是提供一種現實世界與數字世界的映射,算法的好壞取決于用數學模型去表征現實問題的準確程度。AI 算法領域從
97、初期的統計機器學習到 CNN、BERT、Transformer,直到最近出現的 GPT 大模型,構建的數字化模型規模越來越大,與現實世界的匹配度也越來越好。尤其是 ChatGPT 和 GPT-4 等 GPT 類大模型的出現,在 AI 領域掀起了一場革命。大模型已經成為人工智能算法的發展方向,拉開了通用人工智能的發展序幕。(一)AIGC(生成式 AI)背后的基礎模型:Transformer2016 年 Google 發明了一種基于注意力機制的全新架構深度學習模型 Transformer,最初只是用來做機器翻譯,但 2017 年 BERT30將面向單一任務訓練分為兩個階段:任務無關的預訓練和任務相
98、關的微調,使 Transformer 成為能夠處理多種語言任務的通用模型。同期,OpenAI 同樣基于 Transformer 的 GPT 模型使用了和 BERT 不同的預訓練思路,即僅使用Transorformer 的 decoder 部分預訓練語言模型,同樣證明了其通用性,并且在擴大數據和模型規模后取得了更好的效果。2020 年,業界首個千億級參數大模型 GPT-3 誕生,引發了一場訓練大模型的算力軍備競賽。(二)多模態大模型:CLIPTransformer 在語言領域一統天下,成為一種通用的自然語言處理模型,那么,它的通用性是否能夠延伸至語言之外的任務?2020年,ViT31證明 Tra
99、nsformer能夠處理圖像任務,而且比這個領域傳統霸主卷積神經網絡(CNN)處理的更好。接下來的進展則越來越快,CLIP 模型證明同一個 Transformer 模型就可以同時處理自然語言和圖像兩種模態的數據,隨后,中國的研究人員也提出了三模態模型。根據文本創作圖像這樣的應用開始涌現出來,2022 年基于擴散模型的開源 StableDiffusion32更是能夠生成高分辨率的清晰圖像,使 AIGC的應用場景進一步擴大。(三)人工反饋的強化學習:ChatGPT數字基礎設施技術趨勢白皮書研發出 GPT-3 模型之后,OpenAI 就對其潛力展開深入研究。2021 年 CodeX 使用源代碼代替自
100、然語言做為訓練語料,使 CodeX 模型(同樣基于 GPT-3)具備代碼生成能力。2022年 GPT-3.5 則使用自然語言與源代碼混合語料訓練,使模型具有思維鏈能力。InstructGPT33則通過使用人工反饋讓模型生成的內容更加符合人類價值觀。這一切最終導致了 ChatGPT的誕生,其增強了對歷史對話進行建模的能力,可以有效捕捉用戶的意圖,完成上下文理解實現連續性對話,能夠從海量數據中歸納提煉有用知識,并有邏輯的應用。(四)大模型激發大量行業應用需求隨著 GPT-4 大模型的發布以及性能飛躍,大模型在各領域有望迎來進一步的落地應用。大模型技術以其真實性、多樣性、可控性、組合型的特征,有望幫
101、助企業提高內容生產的效率,以及為其提供更加豐富多元、動態且可交互的內容。圖 5.1 多模態通用大模型的創造能力趨勢34大模型在企業數字化的應用場景:a.自動對話與寫作:自動完成文案寫作、客服對話、郵件、會議紀要等。b.自動視頻生成:通過文字描述,完成動畫、視頻自動生成。c.AI作圖:輸入關鍵詞即可生成圖片。d.智能輔助編程:可以完成代碼生成、補全、代碼解釋等多種任務,大幅提升軟件開發效率。大模型技術是深度學習跨時代的技術,其與傳統深度學習算法最重要的區別是在相當程度上實現了通用性。傳統深度學習模型只有處理單一任務的能力,因此過去幾年人工智能應數字基礎設施技術趨勢白皮書用普遍存在碎片化、跨場景遷
102、移成本高等問題,以至于落地進展較慢。但大模型技術所具備的通用性,使得訓練一個模型就可以完成幾十種甚至更多的任務,上下文學習能力使模型學習新任務也不需要重新對模型進行訓練,這種通用性使得大模型可以成為一個新的平臺層,為上層多種應用賦能,為垂直行業客戶提供通用化的AI能力。5.4.智能網絡:網絡自智向智能網絡:網絡自智向 L4/L5 等級邁進等級邁進自智網絡包括網絡自動化和運維智能化。網絡自動化是網絡自身實現自動配置、故障自愈、自動優化,具備靈活的業務發放和高可靠性、高性能。運維智能化是在自動化基礎上借助 AI 能力實現跨域、跨廠商、跨專業的自動化閉環管理。結合通信網絡要求和業界需求,TM For
103、um 在 2019 年提出自智網絡(AutonomousNetworks)概念,并在 2022 年發布 自智網絡賦能數字化轉型-從戰略到實現(AutonomousNetworks:Empowering digital transformation from strategy to implementation)。TM Forum 提出了三零三自的愿景目標,即在網絡運維層面三自(Self-serving,Self-fulfilling,Self-assuring),支撐上層客戶三零(Zero Wait,Zero Touch,Zero Trouble),如圖 5.2 所示。圖 5.2 TMF 自智
104、網絡“三零三自”愿景目標從自智網絡能力演進升級的角度上,TM Forum 提出了能力分級標準,按程度分為 L0至 L5 共 6 個級別,和執行、感知、分析、決策、意圖/體驗和應用六個維度,如圖 5.3 所數字基礎設施技術趨勢白皮書示:圖 5.3TMF 自智網絡分級標準其中 L0 為最低,全部需要人工操作維護,自動化程度最低;L1 是輔助操作維護,即在執行方面有系統可以實現人工完成的操作記錄;L2 是部分自智網絡,在執行方面由系統自動完成,而感知方面實現人工和系統的配合操作;L3 是有網絡基本自治,在執行和感知方面由系統自動完成,在分析/決策方面由人工和系統配合完成;L4 是高度自智網絡,即在意
105、圖驅動下,執行、感知和決策由系統自動完成,在體驗方面由人工和系統配合完成;最高階段 L5 完全自智。國內三大運營商已經達成共識,在 2025 年實現 L4 自智網絡目標。目前運營商自智網絡大致處于 L2-L3 等級。技術創新是自智網絡演進升級的核心能力,要實現自智網絡的 L4 等級目標,關鍵是要把 AI 算法融入到“網絡自配置、故障自修復、質量自優化”等場景中:(一)基于意圖閉環,支撐網絡自配置開通配置等業務在現階段主要以策略配置輔以算法優化調整參數,實施以人工結合自動化為主。隨著意圖在自智網絡中不斷成熟,通過客戶意圖感知和意圖翻譯,并基于 AI 算法結合人工反饋實現意圖閉環驗證,將能夠自動配
106、置業務參數和系統參數,實現業務自開通自配置。另外,根據業務使用情況,通過實時的意圖洞察和趨勢分析,自動實現參數調優以達到更好的意圖體驗?;谝鈭D閉環的網絡自配置,無論在 ToC 場景還是 ToB 場景,都將會有更好的零等待零接觸體驗。數字基礎設施技術趨勢白皮書(二)數據多維度分析,支撐網絡故障自恢復現階段故障恢復的主要技術,是對告警、性能 KPI、日志和業務指標等多維度數據進行聚合分析,形成事件,完成基于智能事件管理的故障閉環處置。在具體實施中,通過知識圖譜結合 AI 算法能夠有效提升自智網絡故障運維能力,如基于網絡熵和圖注意力網絡的時空聚合完成感知和分析,基于因果推斷輔助定位決策,基于工單向
107、量化相似度學習推薦處理措施,以及基于 NLP 支撐智能質檢完成故障閉環等。在可預見的未來,借助多模態大模型,如 NLP 大模型、網絡大模型和視覺大模型等,結合更多維度的數據,通過端到端訓練和知識蒸餾等技術,涌現更多的運維知識、運維能力,大幅提高運維精度和擴展運維場景。(三)算法模型趨向可解釋白盒化,支撐網絡質量自優化算法決策結果具備可解釋性是自智網絡應用場景的需要。算法模型的可解釋性是指人能夠理解算法模型在其決策過程中所做出的選擇,包括做出決策的原因,方法,以及決策的內容。簡單的說,可解釋性就是把算法模型從黑盒變成了白盒。電信領域自智網絡解決的場景直接關系到用戶通信和上網的質量,算法推薦決策的
108、結果一旦出現問題有可能會引起投訴事件,算法模型的白盒化有助于用戶放心的將算法推薦結果實施到生產環境,另外運維人員可以通過可解釋性理解模型做出的決策,找出偏差出現的原因,從而優化提升模型的性能。中長期看來,自智網絡在未來通信技術、大數據和算力網絡的支撐下,通過深度學習、多模態大模型和數字孿生等前沿人工智能技術,有序逐步演進到全棧自動化、智能化的 L5等級,最終實現自智網絡中 Self-X 完全自治,實現零等待、零接觸和零故障的 Zero-X 目標。數字基礎設施技術趨勢白皮書6.結語結語技術的發展理應為更高質量的經濟發展、更美好的社會治理所用。自 18 世紀以來,技術創新就是核心生產要素之一。在
109、21 世紀已過往的 20 年中,隨著更多新興 ICT 技術,如云計算、大數據、人工智能、移動通信、光通信和基礎芯片技術等快速發展,人類利用 ICT技術從海量數據中挖掘信息、獲取知識、產生輔助決策的能力越來越強。數據的核心價值被全世界廣泛重視,并在我國被列入到五大生產要素之一。數據要素將與其他要素一起驅動數字經濟的高質量增長,賦能數字社會、數字政府等方方面面的建設。面向 2030,“連接+算力+智能”的數字基礎設施是數字化時代的核心基礎能力?!案鼘挼倪B接”將使能更豐富的新型高帶寬應用,如元宇宙、3D 全息通話等,也便于海量數據快捷傳遞,為人工智能訓練提供強勁的“燃料”;“更強的算力”將支撐巨量數
110、據的存儲與實時處理,使得人工智能產生類人智慧和更強的決策能力成為可能?!案叩闹悄堋睂閿底只A設施注入強大的智能要素,進一步驅動通信網絡走向智能網絡、數字經濟升級為智能經濟、數字社會邁向智能社會。圖 6.1 數字星云和數字基座賦能千行百業數字化轉型“更寬的連接”、“更強的算力”和“更高的智能”要更緊密的運作并互為支撐,離不開體系化系統能力的構建。能力構建的關鍵是形成可組裝的復雜軟件系統,按需組合、調度并開放各類 ICT 新興技術能力向外賦能。千里之行、始于足下!從 2022 年起,中興通訊在業界率先推出數字星云 Digital Nebula(簡稱DN),并在2023年再次升級為數字星云2.0
111、35,數字基礎設施技術趨勢白皮書旨在打造的基于云原生、可服務化、數據驅動的數字化方案和數字化平臺,充分組合并發揮“連接+算力+智能”一體的數字基座能力。行業客戶可利用“數字星云”進一步構建自己的數字平臺,破解多樣應用、統一治理和降本增效之間的矛盾,實現業務有韌性、系統可生長、成本能降低。中興通訊始終堅持“數字經濟筑路者”的定位,堅持“開放共贏”的理念。中興通訊一方面定位為數字基礎設施產品與技術提供商,以用戶場景和體驗為驅動,提供全球領先的云、網、邊、端、軟、業產品,并積極開放自身核心原子能力,助力數字運營體及大型企業。另一方面以自身能力帶動“隱形冠軍”類中小企業,堅持與生態伙伴共生、共贏、共智
112、。愿此白皮書的發布能帶來業界同仁對信息通信領域技術發展的進一步深度交流與誠摯反饋!數字基礎設施技術趨勢白皮書7.參考文獻參考文獻1中國信息通信研究院:全球數字經濟白皮書(2022 年),2022 年 12 月2中國信息通信研究院:中國數字經濟發展研究報告(2023 年),2023 年 4 月3中 國 政 府 網:中 共 中 央國 務 院 印 發 數 字 中 國 建 設 整 體 布 局 規 劃 http:/ 技術挑戰、創新與展望,中興通訊技術 2020 年 6 月 第 3 期5IDC&浪潮信息&清華全球產業院:2021-2022 全球計算力指數評估報告6中國信息通信研究院:中國算力發展指數白皮書
113、(2022 年)7ITU-TFG-NET2030:Representative Use Cases and Key Network Requirements forNetwork 2030,2020 年 1 月8ITU-TFG-NET2030:AdditionalRepresentativeUseCasesandKeyNetworkRequirements for Network 2030,2020 年 6 月9GeSI:SMARTer2030-ICT solutions for the 21st Century,201510 Design of Capacity-Approaching Ir
114、regular Low-Density Parity-Check Codes,IEEETRANSACTIONS ON INFORMATION THEORY,VOL.47,NO.2,FEBRUARY 200111 Amir Gholami 等,https:/ Tay,Y.,Dehghani,M.,Bahri,D.,&Metzler,D.(2022).Efficient transformers:A survey.ACM Computing Surveys,55(6),1-2813 STRUBELL E,GANESH A,MCCALLUM A.Energy and policy considera
115、tions for deep數字基礎設施技術趨勢白皮書learning in NLP EB/OL.https:/arxiv.org/abs/1906.0224314 ISO/IEC 23090-3 Information technology Coded representation of immersive mediaPart 3:Versatile video codingFirst edition 2021-0215 JVET-AB2023 EE1:Summary of Exploration Experiments on Neural Network-based VideoCoding
116、16 JVET-AB2024 Exploration Experiment on Enhanced Compression beyond VVC capability(EE2)17 Alexey Andreyev,Xu Wang,Alex Eckert,“Reinventing Facebook s data center network”,MARCH 14,201918 M.LaCroix et al.,“A 116Gb/s DSP-Based Wireline Transceiver in 7nm CMOS Achieving6pJ/b at 45dB Loss in PAM-4/Duo-
117、PAM-4 and 52dB in PAM-2,”ISSCC,pp.132-133,Feb.2021.19 ODCC-2022-0300A,“112G 線性光互聯解決方案白皮書”,P7,2022-0920 Rakesh Chopra,”Looking Beyond 400G”P5,TEF2021,January 25,202021 Janet Chen,Meta,Rob Stone,Meta,“Perspective on Linear Drive Pluggable optics”,OIF2023.123.01,22 William Dally,”Accelerating Intellige
118、nce”,P60,GTC China,December 14,202023 LightCounting comments on CPO panel discussion at Photonics West,“Our industryis at a crossroads”,February 202324 A.Boroumand,et al.,“Google workloads for consumer devices:Mitigating datamovement bottlenecks”,Proc.23rd Int.Conf.Support Program.Lang.Operating Sys
119、t.,2018數字基礎設施技術趨勢白皮書25 中興通訊股份有限公司:IP 網絡未來演進技術白皮書 2.0,2022 年 8 月26 BEACHLER R,SNELGROVE M.Untether ai:boqueria C/Proceedings of 2022 IEEE HotChips 34 Symposium(HCS).IEEE,2022:1-19.DOI:10.1109/HCS55958.2022.989561827 ABTS D,KIM J,KIMMELL G,et al.The Groq Software-defined Scale-out Tensor StreamingMult
120、iprocessor:from chips-to-systems architectural overview C/Proceedings of 2022IEEEHotChips34Symposium(HCS).IEEE,2022:1-69.DOI:10.1109/HCS55958.2022.989563028 HOROWITZ M.1.1 Computing s energy problem(and what we can do about it)C/Proceedings of 2014 IEEE International Solid-State Circuits Conference
121、Digest ofTechnical Papers(ISSCC).IEEE,2014:10-14.DOI:10.1109/ISSCC.2014.675732329 POOL J.Accelerating inference with sparsity using the Nvidia ampere architecture andNVIDIATENSORRTEB/OL.2022-10-12.https:/ Lee,J.D.M.C.K.,&Toutanova,K.(2018).Pre-training of deep bidirectional transformers for language
122、 understanding.arXiv preprint arXiv:1810.04805.31 DOSOVITSKIY A,BEYER L,KOLESNIKOV A,et al.An image is worth 16x16 words:transformersforimagerecognitionatscaleEB/OL.2022-10-12.https:/arxiv.org/abs/2010.1192932 Borji,A.(2022).Generated faces in the wild:Quantitative comparison of stable diffusion,mid
123、journey and dall-e 2.arXiv preprint arXiv:2210.00586.33 Ouyang,L.,Wu,J.,Jiang,X.,Almeida,D.,Wainwright,C.,Mishkin,P.,.&Lowe,R.(2022).Training language models to follow instructions with human feedback.Advances in數字基礎設施技術趨勢白皮書Neural Information Processing Systems,35,27730-27744.34 紅杉資本:Generative AI:A Creative New World,https:/ 數字星云 2.0 https:/