1、無線AI技術研究報告1 2022 年年 9 月月 版版權權聲聲明明 Copyright Notification 未經書面許可 禁止打印、復制及通過任何媒體傳播 2022 IMT-2030(6G)推進組版權所有2 前前 言言無線人工智能是指內生于無線通信系統,通過機器學習等手段深度挖掘利用無線數據和無線模型,由此形成的涵蓋新型智能無線架構、無線空口、無線算法和無線應用在內的人工智能技術體系。它主要包括:一是內生智能的新型空口,即深度融合人工智能/機器學習技術,將打破現有無線空口模塊化的設計框架,實現無線環境、資源、干擾、業務、語義和用戶等多維特性的深度挖掘和利用,顯著提升無線網絡的高效性、可靠
2、性、實時性和安全性,并實現網絡的自主運行和自我演進。二是內生智能的新型網絡架構,即充分利用網絡節點的通信、計算和感知能力,通過分布式學習、群智式協同以及云邊端一體化算法部署,實現更為強大的網絡智能,支撐未來各種智慧應用。無線 AI 自 2016 年前后開始蓬勃發展,當前已掀起全球學術界和工業界的研究熱潮。IEEE 通信學會啟動“Machine Learning For Communications Emerging Technologies Initiative”,歐盟 Horizon 2020 啟動“智能網絡與服務”6G 研究項目,重點發展 AI 增強的通信與網絡技術。歐美一批著名高校和企業
3、研究機構均開展了大量的研究工作,部分機構還推出了無線 AI 原型系統。國內主要高校和部分行業領先企業圍繞無線智能網絡架構、無線智能空口、無線 AI 算法、無線 AI 數據集、無線語義通信等基礎理論和關鍵技術展開了深入研究和探索,并取得了豐富的成果,部分成果還完成了測試,有效驗證了無線人工智能的技術可行性和應用潛力,并初步形成了如下基本結論和重要共識:1)AI/ML 能很好地表征和重構未知無線信道環境、有效跟蹤預測反饋信道狀態、挖掘利用大狀態空間內在統計特征,大幅度提升物理層信號處理算法的性能。2)AI/ML 能夠智能挖掘利用無線網絡時空頻通信、感知和計算資源,有效協調干擾,實現多用戶、多目標、
4、高維度、分布式、準全局優化調度決策。3)若干 AI/ML 架構能夠很好地與無線網絡拓撲、無線傳輸接入協議、無線資源約束、無線分布式數據特征相適配,從而有潛力建構新型無線智能網絡架構;在此基礎上進一步利用網絡分布式算力和動態運力,自主適應無線網絡分布式計算業務需求,實現網絡高效資源利用、自主運行和智能服務。4)無線語義通信作為一種全新的智能通信架構,通過將用戶對信息的需求和語義特征融入通信過程,有望顯著提升通信效率、改進用戶體驗,解決基于比特的傳統通信協議中存在的跨系統、跨協議、跨網絡、跨人機不兼容和難互通等問題。3 5)無線數據隱藏結構特征復雜,跨時空分布式小樣本問題突出,無線數據集的構建、訪
5、問、訓練、遷移及其隱私安全保障將顯著影響無線 AI 系統的架構設計和算法部署。無線 AI 將是未來 6G 中滲透性最強的核心技術之一,涉及空口、網絡、協議和算法的各個層面,也將深度影響感知、通信、計算、控制等網絡功能,其性能潛力已得到證實。相關研究成果在感知、預測、定位、跟蹤、反饋、調度、優化、調控等方面的應用潛力巨大,初步形成了未來標準化和產業化的基礎,部分技術已在 R17、R18中得到初步研究和應用。下一步宜深入探索無線智能通信系統在數據和算力需求、AI 通信計算綜合效能方面的極限理論,重點推進無線智能網絡架構、無線智能空口、無線 AI 算法、無線 AI數據集、無線語義通信等方面的標準化,
6、著重解決如下核心難點:適用于無線的通用AI 架構、數據和算力約束的高效無線 AI 算法,支撐 AI 算法高效部署的無線協議,以及無線 AI 性能(界限)的精準分析預測等等。4 目 錄 圖目錄 6 表目錄 8 第一章 引言.11 第二章 基于 AI/ML 的物理層技術.12 2.1 基于 AI/ML 的無線環境建模與感知.13 2.2 基于 AI 的信道估計、預測及反饋.15 2.2.1 信道狀態信息估計.17 2.2.2 信道狀態信息預測.19 2.2.3 信道狀態信息反饋.21 2.2.4 導頻、信道估計、信道反饋、預編碼聯合設計.23 2.3 AI 使能的端到端設計.24 2.4 基于 A
7、I/ML 的信道編譯碼技術.26 2.4.1 基于 AI/ML 的信道編碼方案設計.26 2.4.2 基于 DNN 的編譯碼算法.27 2.4.3 基于 CNN 的譯碼算法.27 2.4.4 基于 LSTM 網絡的譯碼算法.28 2.4.5 基于對抗生成網絡譯碼算法.30 2.5 基于 AI/ML 的調制與波形技術.31 2.6 基于 AI/ML 的信源信道聯合編碼技術.32 2.7 基于 AI 的 OFDM 接收機設計.34 2.8 基于 AI 的多天線收發技術.35 2.8.1 基于 AI 的 MIMO 檢測.36 2.8.2 單用戶毫米波 MIMO 混合預編碼.37 2.8.3 多用戶毫
8、米波 MIMO 混合預編碼.39 2.8.4 移動自適應協同波束成形.40 2.8.5 基于 AI/ML 的波束漂移抑制技術.41 2.8.6 基于 AI/ML 的波束跟蹤技術.42 2.9 基于 AI 的多用戶接入技術.43 2.10 基于 AI 的活躍用戶檢測.44 2.11 基于 AI 的定位技術.46 2.12 小結.47 第三章 基于 AI/ML 的鏈路層技術.48 3.1 基于 AI 的功率分配.48 3.2 基于 AI 的信道分配.49 3.3 基于 AI 的接入控制.50 3.4 基于 AI 的鏈路調度.51 3.5 基于智能體(smart agent)的無線資源調度.52 3
9、.6 基于 AI 的網絡切片無線資源分配.54 3.7 小結.56 5 第四章 基于 AI 的網絡上層技術.57 4.1 基于 AI 的無線網絡架構.57 4.2 基于 AI 的傳輸層擁塞控制技術.58 4.3 基于 AI 的業務速率控制.60 4.4 基于 AI 的需求預測與緩存技術.61 4.5 基于 AI 的無線分布式計算.63 4.6 小結.65 第五章 基于 AI 的語義通信.66 5.1 基于 AI 的語義通信系統架構.66 5.2 基于 AI 的高效語音語義通信系統.66 5.3 基于 AI 的圖像語義通信系統.68 5.4 基于 AI 的語義通信系統資源調度.69 5.5 小結
10、.70 第六章 無線 AI 研究數據集.71 6.1 無線 AI 研究數據收集和利用.71 6.2 無線 AI 研究數據集的共建共享.72 6.2.1 定位.73 6.2.2 智能波束預測.74 6.2.3 模型泛化與遷移.75 6.3 無線 AI 倫理規范及隱私保護.77 6.4 小結.78 第七章 研究總結及產業化前景分析與展望.79 7.1 AI 賦能無線技術的潛能及優勢.79 7.2 AI 賦能無線技術的產品成熟度.80 7.3 AI 賦能無線技術的標準化和產業化影響.81 7.4 AI 賦能無線技術未來研究工作展望.82 參考文獻 83 貢獻單位 97 附錄:縮略詞表.98 6 圖目
11、錄 圖 2-1 無線通信鏈路.12 圖 2-2 基于 seq-to-seq 模型的信道預測器.13 圖 2-3 多維信道嵌入.14 圖 2-4 系統框架圖.17 圖 2-5 DL 和傳統算法的比較.17 圖 2-6 復合神經網絡仿真結果.18 圖 2-7 小樣本 AI 信道估計仿真結果.19 圖 2-8 基于深度學習的信道選擇聯合信道外推網絡.20 圖 2-9 左:均勻選擇圖案 中:網絡學習到的圖案 右:信道外推誤差比較.20 圖 2-10 用于靜態信道預測的 C-GRBF 網絡結構.21 圖 2-11 基于 AI 的全信道信息反饋架構.21 圖 2-12 基于 AI 的隱式反饋架構.22 圖
12、 2-13 32 天線下 UMA 加噪信道數據仿真圖.22 圖 2-14 導頻設計、信道估計、信道信息反饋、預編碼的聯合設計.23 圖 2-15 基于 AI 的端到端收發機設計(針對 AWGN 信道).24 圖 2-16 基于 AI 的端到端收發機誤消息率性能比較(AWGN 信道).25 圖 2-17 卡爾曼濾波和 AI 結合的端到端收發機.25 圖 2-18 基于 AI 方法設計的 Polar 碼性能優于 DE/GA 方法.27 圖 2-19 BP-CNN 譯碼算法.28 圖 2-20 BP-CNN 譯碼性能對比.28 圖 2-21 LSTM-aided SCF 算法示意圖.29 圖 2-2
13、2 LSTM-aided SCF 性能對比.29 圖 2-23 LSTM-Aided CA-SCLF 算法性能比較.29 圖 2-24 基于對抗生成網絡的低密度奇偶校驗碼譯碼模型.30 圖 2-25 對抗生成網絡的 LDPC 碼譯碼結果.31 圖 2-26 基于 autoencoder 的調制解調聯合設計.31 圖 2-27 基于 AE 的低 PAPR 波形設計.32 圖 2-28 基于 AI 的智能波形識別網絡.32 圖 2-29 基于 AI 的信源信道聯合編解碼方案的神經網絡結構圖.33 圖 2-30 基于 AI 的信源信道聯合編碼方案的性能.34 圖 2-31 基于模型驅動的 OFDM
14、接收機.35 圖 2-32 基于數據驅動的 OFDM 接收機.35 圖 2-33 時變信道條件下各檢測算法的誤碼率性能比較.36 圖 2-34 MMNet 算法性能.37 圖 2-35 基于波束訓練與跟蹤的毫米波單用戶混合預編碼原理圖.38 圖 2-36 不同算法的有效可達速率性能比較.38 圖 2-37 基于智能交互式學習范式的毫米波多用戶預編碼算法.39 圖 2-38 毫米波協同波束成形系統框圖.40 圖 2-39(左)在線學習階段模型.41 7 圖 2-40(右)深度學習預測階段模型.41 圖 2-41 波束漂移效應抑制的方法原理圖.42 圖 2-42 有效可達速率-數據傳輸波束寬度固定
15、與自適應優化.42 圖 2-43 基于 AI 方法的多用戶接收機.44 圖 2-44 DNN-MP-BSBL 結構(N=3;K=6;Lt=2;dc=2).45 圖 2-45 D-AUD 與傳統檢測算法性能比較.45 圖 2-46 不同場景下 LOS 的概率.46 圖 3-1 Actor-critic 強化學習框架.49 圖 3-2 物聯網中的聯合信道接入和包轉發.51 圖 3-3 基于 DRL 的 full-buffer 場景用戶調度.52 圖 3-4 可擴展的神經網絡設計.53 圖 3-5 深度強化學習算法性能.53 圖 3-6 面向業務流的網絡切片資源分配仿真結果.55 圖 4-1 無線
16、AI 架構.58 圖 4-2 實驗結果.60 圖 4-3 基于 AI 的業務層速率控制.60 圖 4-4 網絡測試結果.60 圖 5-1 語義通信模型的一般框架.66 圖 5-2 高效語音語義通信系統結構.67 圖 5-3 語音語義通信系統測試集錯誤率.67 圖 5-4 語音語義通信系統語義相似度.67 圖 5-5 基于多級特征的圖像通信系統.69 圖 5-6 系統支持用戶數隨功率變化圖.70 圖 6-1 無線 AI 研究數據集的收集和利用舉例.72 圖 6-2 內生 AI 架構與無線 AI 研究數據集.72 圖 6-3 RT 仿真信道數據(左:BS/UE 部署 右:BS5 和 UE7 RT
17、仿真結果).72 圖 6-4 基于無線 AI 研究數據集的定位任務訓練結果.74 圖 6-5 波束預測性能對比.75 圖 6-6 波束預測模型遷移性能.76 圖 6-7 預訓練模型部署和遷移驗證.76 圖 6-8 三種模型遷移策略的波束預測準確率對比.76 8 表目錄 表 2-1 AI 定位精度性能評估結果.14 表 4-1 傳輸層擁塞控制主要 AI 算法.59 表 5-1 高效語音語義通信系統對于傳輸一段音頻信號所需要的序列長度.68 表 5-2 高效語音語義通信系統對于傳輸一個隱變量所需要的通信量.68 表 6-1 自定義參數配置.74 表 7-1 典型的復雜神經網絡的復雜度列表.81 表
18、 7-2 主要貢獻單位.97 11 第一章 引言伴隨著人工智能(artificial intelligence,AI)三大驅動力算力、算法和數據相關技術的不斷發展,AI 技術正在人類社會中掀起新一輪的技術革命。特別地,作為AI 技術的一個重要研究方向,機器學習(machine learning,ML)利用了深度神經網絡(deep neural network,DNN)的非線性處理能力,成功地解決了一系列從前難以處理的問題,在圖像識別、語音處理、自然語言處理、游戲等領域甚至表現出強于人類的性能,因此近來受到了越來越多的關注。AI/ML技術發展的同時,無線通信系統也在持續高速發展中。第5代移動通信
19、(5G)支持增強移動通信(enhanced mobile broadband,eMBB)、超高可靠低時延(ultra-reliable low latency communications,uRLLC)和海量機器類型通信(massive machine type communications,mMTC)等三大應用場景,而未來的無線通信系統必將向更大吞吐、更低時延、更高可靠性、更大連接數、更高頻譜利用率等方向演進。已有的研究工作表明,AI 在復雜未知環境建模、學習,信道預測,智能信號生成與處理,網絡狀態跟蹤與智能調度,網絡優化部署等許多方面具有重要的應用潛力1-228,有望促進未來通信范式的演變
20、和網絡架構的變革,對 6G 技術研究具有十分重要的意義和價值。由此催生了無線 AI 技術的蓬勃發展。無線 AI 將是未來 6G 中滲透性最強的核心技術之一,涉及空口、網絡、協議和算法的各個層面,也將深度影響感知、通信、計算、控制等網絡功能,其性能潛力巨大。學術界和產業界圍繞無線智能網絡架構、無線智能空口、無線 AI 算法、無線 AI 數據集、無線語義通信等基礎理論和關鍵技術展開了深入研究和探索,取得了一系列重要進展。在 IMT-2030(6G)推進組的統一安排下,無線技術工作組無線 AI 任務組就人工智能技術在 6G 無線空口和無線組網中的應用開展了深入調研分析,以為下一步開展相關研究提供指導
21、和思路。本報告在對當前國內外的主要研究狀況進行調研分析的基礎上,結合部分成員單位在無線 AI 上的一些研究工作,對無線 AI 的若干研究方向及其關鍵技術進行了較為全面地分析和討論,同時探討了無線 AI 的難點、挑戰和產業化前景。12 第二章 基于AI/ML的物理層技術 傳統通信鏈路設計時,人們采取分而治之的方法,將各功能模塊進行獨立的設計和優化 如圖 2-1 所示。在某些功能模塊的設計和優化過程中,可能存在著性能損失。例如,為了降低設計復雜度,將某些非線性處理簡化假設為線性操作。又如,一些模塊的設計理論仍然缺失或難以分析,只能借助于啟發式算法。此時,使用 AI/ML 方法替換這些模塊可以帶來性
22、能的提升以及處理時延的降低。這也是將 AI/ML 方法用于空口技術設計的最直接方式。圖圖2-1 無無線線通通信信鏈鏈路路 目前,AI/ML在無線物理層中的應用包括利用神經網絡來取代傳統發射機和接收機中的基本功能模塊,或者將物理層通信看作一個端到端的信號重構問題,并應用自編碼器概念來表示物理層通信過程,進行端到端通信的聯合優化。目前現有的深度學習網絡大多數是基于這種方式的,使用標準的神經網絡結構作為黑匣子并通過大量數據進行訓練49123360。訓練標準的神經網絡除了需要龐大的數據集之外,還需要大量的訓練時間。然而這些資源在某些情況下是極其稀缺的,尤其是在無線通信領域。與數據驅動的方法相比,模型驅
23、動深度學習方法基于已知的物理機制和領域知識構建網絡拓撲5。因此需要較少的訓練數據和較短的訓練時間,成為實現智能通信的有效手段?;诖?,研究模型驅動深度學習的無線物理層設計6,也是面向6G 的智能通信發展提供理論支撐并指明技術方向的一大重要方式。一般構造模型驅動深度學習的方法有以下三種:1)將迭代算法形成信號流圖;2)將算法作為初始化步驟,并將其與神經網絡相結合;3)模仿模型驅動方法中的傳統結構。針對模型驅動深度學習的無線物理層設計問題,研究者分別研究了基于模型驅動深度學習的大規模 MIMO 信道估計7576、信號檢測134、信道譯碼2526、CSI 反饋85和多用13 戶預編碼78。以下將會針
24、對物理層的不同模塊分別詳細介紹基于這兩種方式的各種 AI/ML 實現方案。2.1 基于 AI/ML 的無線環境建模與感知 大部分現有無線環境建模的工作側重于無線信道的建模。傳統的隨機信道建模1歸納總結大量實測信道的統計特性,得到的信道模型主要用于為不同空口技術算法對比提供一致的信道環境。隨機信道模型歸納總結了信道的統計特性,然而無法提供特定場景下的信道信息。另一種傳統的信道建模方式為確定性信道建模2,它基于特定傳輸場景的 3D 地圖,通過射線追蹤的方式得到場景中的無線信道。這種建模方法以給定場景的 3D 地圖為基礎,因此其模型具有場景關聯性,不同場景下的信道模型無法復用。對于未來的無線通信系統
25、,無線信道模型以及無線場景模型將不再簡單地作為各種算法對比的環境基礎。我們期望可以通過對無線傳輸環境的學習和總結,幫助通信系統更加智能地完成調度、功控、波束管理、參數選擇與配置等任務。通過采集大量的傳輸環境信息數據(包括信道數據、感知數據等),借助 AI/ML 技術的學習和提煉能力,建立“無線電地圖”,給系統的設計和決策提供輔助信息,并降低系統的測量反饋開銷?,F有工作中,人們嘗試了各種結構的模型對無線信道信息進行學習、總結和建模。例如,在文獻3中,作者使用了自回歸(auto-regressive,AR)模型學習信道的時間相關性,可以將信道作為時間序列,利用這些回歸模型進行建模和預測。多種神經網
26、絡結構都曾被嘗試用于無線信道的建模,以及基于模型的信道估計和信道預測4-20。圖圖2-2 基基于于seq-to-seq模模型型的的信信道道預預測測器器 14 如圖 2-2 所示,作者使用 seq-to-seq 模型21,將信道信息作為時間序列,進行預測22。實驗發現,當信道存在深衰時,傳統的基于參考信號的信道估計方法將出現明顯的性能下降,因為此時受到深衰的影響,接收到的參考信號能量極低,無法準確估計信道的幅度和相位信息。而基于 seq-to-seq 模型的信道預測器則可以提供較為準確的信道信息,使得系統解調性能優于傳統信道估計算法。進一步的,考慮信道信息在多個維度上的相關性,可以進行多維的信道
27、嵌入操作。如圖 2-3 所示,將信道的位置、頻率、時間、空間屬性同時進行嵌入操作。將嵌入升維后的信道信息輸入注意力(attention)網絡,得到信道模型。這一信道模型可以用于多種信道相關的任務,例如定位、信道壓縮、信道指紋等。為了更加快速有效地完成這些任務,可以使用歷史信道數據,對信道模型進行預訓練。預訓練的信道模型連接不同的下游任務網絡,再進行進一步訓練和調優。作者發現,這種預訓練的信道模型具有良好的遷移特性23,即在特定場景下預訓練的信道模型可用于相似場景(例如同一幢建筑的不同樓層)的信道相關任務。圖圖2-3 多多維維信信道道嵌嵌入入 中國電信提出了基于信道指紋特征的 AI 直接定位技術
28、,其主要原理是通過對大量信道信息學習,將信道特征與位置坐標進行映射,用于解決重 NLOS 場景室內難點難題。由于該場景與基站具有 LOS 徑的測量信號很少,傳統定位算法將不再適用,傳統定位技術定位精度嚴重下降。室內場景采用 3GPP InF 模型,開源數據集,傳統 AI 全連接神經網絡模型,評估結果顯示可顯著提升定位精度。表2-1 AI定位精度性能評估結果 定定位位精精度度 CDFX%AI+DL-TDOA AI+TOA 傳傳統統 TOA 定定位位 50%0.38m 0.37m 11m15 67%0.49m 0.46m 80%0.59m 0.57m 90%0.73m 0.69m 實驗表明,面向未
29、來網絡演進,與反向散射、通感技術的結合將會極大豐富訓練數據集,通過 AI 實現多維特征信息的感知與融合,從而實現基于 AI 的精準感知定位。2.2 基于 AI 的信道估計、預測及反饋 在信道狀態信息已知的情況下,MIMO 通信系統的容量會隨著發送或接收天線的數目線性增長。但是要得到這樣的好處,一個很關鍵的要求就是要在接收端和發送端獲得準確的信道狀態信息(channel state information,CSI)。因此信道狀態信息的估計(estimation)以及預測(prediction)是 MIMO 系統中一個非常重要的任務。信道的估計問題主要是在接收端根據導頻序列來估計發送端和接收端之間
30、的信道狀態信息的問題,而信道狀態信息的預測問題主要是根據部分(時間、空間、頻率角度)的信道狀態信息來預測和映射其他信道狀態信息的問題。此外,在頻分雙工(frequency division duplexity,FDD)制式下,下行 CSI 需要先由用戶端(user equipment,UE)通過反饋鏈路傳送回基站。在下面分別介紹信道狀態信息的估計問題、預測問題以及反饋問題。首先,針對信道狀態信息的估計問題。由于傳統的基于壓縮感知,最小均方誤差的方法在 MIMO 中存在很高的計算復雜度,因此近些年來有很多的工作通過人工智能的方法來進行信道狀態信息的估計57-78。同樣地,這些工作也可以被分為兩類
31、:數據驅動(data-driven)的方法57-74和模型驅動(model-driven)的方式75-78。在數據驅動中,57最早提出了用神經網絡估計信道狀態信息的方式,也奠定了之后的大部分工作根據已有信道模型生成訓練數據、離線訓練的思路基礎。在這一類問題中,研究者重點關注的是如何通過改善神經網絡,將這種數據驅動的方式應用在不同要求的場景下58-74。特別地,由于數據驅動方式對訓練數據的較高要求,導致這種74數據驅動的方式在實際的應用中受限,74給出了一種基于強化學習的非監督式的信道估計方法,主要的方式是通過選擇性地探索檢測到的符號向量作為額外的導頻信號,從而來更新最小均方誤差的信道估計,強化
32、學習主要用于最優化對符號向量的選取,以一種高效計算的方式來解決這個問題。這種方式可以降低信道估計的誤差。另一部分是模型驅動的方式,這種方式的特點是會根據模型來應用神經網絡,或是算法來設計神經網絡的結構,他們最重要的是沒有完全地拋棄傳統方法的對應的模塊,而是有選擇地應用在新的算法中。75給出了一種通過學習得到的基于降噪的近似消16 息傳遞網絡。這個網絡可以從大量的訓練數據中學習到信道的結構并且實現信道估計,給出了波束域的信道信息。77實現了聯合的信道估計和信號檢測,其中信號檢測考慮到了信道估計的誤差和統計信息,同時信道估計通過檢測到的數據以及信號檢測的誤差來進行優化。78首先根據最簡單的最小二乘
33、法得到一個粗略的信道矩陣,然后再使用一個基于 CNN 的超分辨率網絡(super resolution network,SPN)來學習他和信道矩陣之間的聯系,從而增加準確性。信道狀態信息的預測問題,根據時間、頻率和空間的關聯性,可以分為四類。第一類是根據前段時間的信道狀態信息來預測下一時間的信道狀態信息,主要是應用在隨時間變化的信道或者高速移動的場景下,這類問題主要是通過神經網絡來刻畫和捕捉信道在時間前后的關聯性81-83,由于RNN對時間序列很好的處理屬性,很自然的,有工作8182基于RNN對信道的前后狀態信息進行了捕捉,基于前幾個時間的信道狀態信息預測出了后一時刻的信道狀態信息。第二類信道
34、預測問題關注于頻率角度的相關性84-87,應用在根據FDD的上行信道狀態信息來預測下行信道狀態信息的問題上。其中84將遷移學習的方法應用到了FDD下行信道的預測問題上,根據全部之前環境中的數據來推測新的環境(頻率)中的數據,86,87則使用了傳統的CNN來根據上行信道信息映射和預測下行信道的信息。第三類是根據空間角度的預測問題。87實現了根據基站部分天線與用戶的信道狀態信息來預測和映射全部天線與用戶的信道狀態信息,刻畫了信道的空間關聯性。第四類是根據相鄰用戶的信道信息相關性進行預測。對于在同一個場景中并且在同一個基站服務范圍內的用戶,他們的信道往往也具有很強的相關性,且在不同位置的用戶所享有的
35、信道強弱可能不同。因此可以通過部分用戶的信道來預測區域所有用戶的信道。這一技術在未來萬物互聯時代將有無限的潛力。最后,針對信道狀態信息的反饋問題。傳統反饋方案采用矢量量化或基于碼本的方法減少反饋開銷,主要分為隱式反饋(Implicit Feedback)和顯式反饋(Explicit Feedback)。其中,隱式反饋將預編碼矩陣索引(Precoding Matrix Index,PMI)、信道質量指數(Channel Quality Indicator,CQI)等部分信道信息進行量化后反饋,顯式反饋是對完整信道矩陣進行量化后反饋。上述兩種反饋方案的性能依賴于碼本的設計,且其碼本設計復雜度和相應
36、的反饋量會隨著天線數量增加而顯著增長,因此大規模MIMO 給基于碼本的反饋方案帶來了極大的挑戰。近年來,隨著人工智能技術的迅猛發展,誕生了基于 AI 的 CSI 反饋方案,并成為當下 CSI 反饋研究的熱點。其中有基于 AI 的全信道信息反饋91929394和基于 AI 的隱式反饋兩種反饋方案,將在以下分別介紹。17 2.2.1 信道狀態信息估計 首先介紹數據驅動模型的典型工作57。這個工作基于一個正交頻分復用(orthogonal frequency-division multiplexing,OFDM)系統,所提的框架圖如下圖 2-4所示。在該文獻中將 OFDM 的解調和無線信道都視為黑盒
37、,考慮如何直接從接收到的 圖圖2-4 系系統統框框架架圖圖 數據恢復原始的傳輸數據,其中包括了解調以及信道估計的過程。他將接收到的信號和原始的傳輸數據作為訓練數據,神經網絡的輸入是接收到的數據,訓練的目標是最小化神經網絡的輸出和原始傳輸數據的距離。仿真比較了基于傳統的最小平方差(least square,LS)和最小均方誤差(minimum mean square error,MMSE)的信道估計和檢測方法與這種基于神經網絡的方法,得到的結果如下圖 2-5 所示。從圖中的結果可以看出,LS 表現最差,因為沒有用到信道的統計信息,同時 MMSE 有最好的表現,因為此時二階的信道統計信息假設已知并
38、且被用于檢測,可以看出基于深度學習(deep learning,DL)的方法要比 LS 好很多,并且近似于 MMSE 的表現。圖圖2-5 DL和和傳傳統統算算法法的的比比較較 18 近期,諾基亞上海貝爾研究如何在高多普勒的場景下,把輔助信息耦合入信道估計中,從而在對信道進行完美估計的同時,減少對參考信號開銷的需求。進而提出一種基于超分辨率神經網絡的復合結構,僅使用一個參考信號,在時、頻維度上對信道進行準確估計,并對多普勒效應進行自適應補償。方案 1 的特點是與特定環境高度相關,并且支網絡結構簡單,我們僅使用若干 FC/CNN。方案 2 以欠完美的星座圖像作為神經網絡的輔助信息,通過機器學習圖像
39、識別的方式,對多普勒進行自適應補償。方案 1 是在 ray tracing 的信道模型中進行驗證的,如圖 2-6 的左圖所示,無論是傳統方法或者單一的超分辨率神經網絡,在僅用一個 DMRS 的情況下,都無法很好地處理多普勒效應。然而在語義信息輸入的復合結構中,即使是未經訓練的條件下,多普勒影響可以被很好的補償,對星座圖旋轉進行有效修正。方案 2 是在 38.901 定義的信道模型上進行的仿真驗證的如圖 2-6 的右圖所示仿真結果證實,通過對星座圖識別,可以有效對多普勒影響進行補償,對星座圖旋轉進行有效修正,達到接近基于完美信道估計的表現,并優于傳統的信道估計方法。圖圖2-6 復復合合神神經經網
40、網絡絡仿仿真真結結果果 此外,就現有的信道估計方法而言,有粗略型和精準型兩種形態。粗略型計算相對簡單粗暴但精準度相對較差,實際應用廣泛。精準型估計的計算量非常大,特別是信道矩陣 H 求逆過程十分復雜,實際的總時延會使信道估計的意義降低,實戰意義較低。隨著通信的發展,導頻開銷日益嚴重,如果單純的依賴增加導頻密度來應對更多場景的信道估計方面的挑戰,代價是很大的。設計一種 AI 算法,降低對信道測量數據的依賴,比較高效精準的實現信道預測是我們研究的焦點。小樣本 AI 應用于信道估計的思路如下。單純的 HI 算法(傳統經驗公式法)隨著導頻稀疏程度增大誤差也隨之增大。通過小樣本 AI 算法可以快速捕獲信
41、道變化特點,配合 HI(以曲率圓估計方法為例)來實現信道的快速準確估計。曲率圓估計方法應用在由信道 H 的實部、虛部以及時間構成的三維空間坐標系上,通過19 曲率圓弧的插值方式實現信道估計。小樣本 AI 算法重點學習曲率圓的主要特征為:(1)曲率半徑;(2)波動周期“T”;(3)曲率圓心位置;(4)包絡。小樣本 AI 需要通過鄰近的歷史數據學習這四方面的特征及變化趨勢,但是區別于傳統 AI,這種抽象學習不需要大量歷史數據,因為大量的歷史數據(時間或空間差異大)對當前信道估計有效性差。最后,仿真結果如圖 2-7 所示,其中,混合速度(50、60、70KM/h)+多徑+噪聲(10dB)+節省導頻開
42、銷(25%,50%、75%、95%。結果顯示,HI+AI 模型顯然對抗導頻超稀疏場景的能力更強。多項實驗證明該模型在傳統導頻減少超過90%時,性能還能保持優良。同時,該工作也給出了未來深度探索的方向。包括(1)相同開銷的導頻,不同發送策略會產生不同性能效果;(2)不同場景動態調整不同的導頻;(3)導頻開銷節省的極致邊界。圖圖2-7 小小樣樣本本AI信信道道估估計計仿仿真真結結果果 2.2.2 信道狀態信息預測 考慮隨時間變化的信道,由于反饋的延遲會導致得到的信道狀態信息不再準確,尤其是在快衰落的信道中。為了解決這個問題,81應用 RNN 網絡來建立一個長范圍的信道預測器。對于一個快衰落信道,通
43、過應用一個多步 RNN 就可以準確地預測信道的增益以及系數。同樣是從已知信道預測未知信道,文獻87則考慮了信道在空間和頻率上的相關性,應用這種相關性實現了信道的映射和預測。這個工作解決的問題是如何根據一部分天線和一部分頻帶的信道狀態信息,預測或映射得到全部天線、全部頻帶的信道狀態信息,并且證明了這種映射的可實現性。文獻88同樣也考慮了信道時域相關性,即通過一部分天線的信道,去預測所有的天線信道。不同的是,作者同時提出了一個基于深度學習的信道選擇子網絡,在訓練信道預測網絡的同時訓練最優的天線選擇方案。所提的網絡結構如圖 2-8,其中信道選擇子網絡實現天線子集的選擇,而信道外推子網絡則實現從這一天
44、線子集的信道信息到全部天線信道信息的預測。仿真結果如圖 2-9 所示。20 圖圖2-8 基基于于深深度度學學習習的的信信道道選選擇擇聯聯合合信信道道外外推推網網絡絡 圖圖2-9 左左:均均勻勻選選擇擇圖圖案案 中中:網網絡絡學學習習到到的的圖圖案案 右右:信信道道外外推推誤誤差差比比較較 這個工作所提出的信道選擇聯合信道外推技術減少了大規模天線系統的導頻開銷,節約了頻譜資源和能效。其所使用的信道選擇方法也可以用于其他需要進行選擇操作的通信問題中。但該信道選擇方法仍有待進一步改進,如信道選擇網絡輸出一個信道選擇向量,與按元素相乘后得到的信道向量包含大量0元素,這給信道外推子網絡帶來了一定程度的冗
45、余,可以進一步研究可以消除這些0元素的方法來降低信道外推子網絡的規模。文獻90提出一種針對于準靜態環境的信道預測網絡。在實際的通信場景下,基站總是服務于某個固定的區域。在該區域中,散射體的數量、位置、電磁特性也可以認為是準靜態的。因此,發生在固定區域中的所有通信過程都受到同樣的散射環境影響,不同位置處的靜態信道可以認為是高度相關的。利用在固定區域內隨機獲取的一組CSI-位置坐標樣本,可以通過學習的方式預測該場景中任意一個位置處的靜態CSI。其中,CSI-位置坐標數據可以通過歷史的通信過程中的記錄獲得,因此不會帶來額外的信令開銷。因此通過特殊設計的學習網絡,能夠僅通過用戶所處位置坐標信息預測用戶
46、所處位置的靜態信道沖激響應(CIR)。所提出的C-GRBF網絡的學習架構如圖2-10所示。整個結構由三部分組成:深度前饋神經網絡、C-GRBF層和加權輸出線性層。首先位置坐標輸入到深度神經網絡中,深度網絡輸出由一系列神經元組。每一組包含三個神經元,用于表征某一條傳播路徑所對應的關于用戶坐標的反射像點。在徑向基函數層,將輸出的坐標輸入到余弦高斯核函數中,是C高斯核函數的可學習中心,通過得到相關核函數輸出的加權和,可以得到某一路徑的最終幅值部分。經過充分的訓練后,參數W將收斂到一個固定值,即電磁波的頻率除以光速。參數a被設計周期函數核的中心,以擬合由傳播距離引起的相移。最后,線性層用于組合核函數的
47、輸出結構,并重構信道響應向量。21 Hidden layersCosine-Gaussian RBF layerOutput LayerComplex CIRLinear Layer1Re h2Re h3Re hRe ihIm ih3Im h2Im h1Im hIm1,1wIm1,2wIm,n iwRe,n iwRe1,1w1()2()3()()n|22|exp()sin()cos()nxnancnbnbxpypzp圖圖2-10 用用于于靜靜態態信信道道預預測測的的C-GRBF網網絡絡結結構構 這個工作具有很好的意義,揭示了無線通信場景可以通過物理啟發的學習結構和算法來學習,并且說明了如何設計
48、特定的學習結構來適應無線通信中的特殊問題。此外,說明了針對具體無線通信場景設計的網絡結構有更大的潛能在具體任務上超過通用學習網絡與架構。2.2.3 信道狀態信息反饋 基于AI的信道狀態信息反饋方案有全信道信息反饋和隱式反饋兩種方式。首先介紹基于AI的全信道信息反饋方案。這種方案將通信系統建模為端到端的CSI圖像重構任務。其結構如圖2-11所示,是一個基于自編碼器(autoencoder,AE)的網絡架構。位于UE端的編碼器將完整CSI視為圖像并壓縮為一個滿足反饋比特要求的壓縮編碼,再通過反饋鏈路反饋到基站(base station,BS)端;BS端則利用譯碼器進行解壓和重建任務,輸出為CSI的
49、重建圖像。使用AE實現端到端的無線通信系統,在訓練過程中能夠通過優化器共同優化編碼器與譯碼器網絡,從而獲得最優的CSI重建模型。圖圖2-11 基基于于AI的的全全信信道道信信息息反反饋饋架架構構 22 基于AI的全CSI反饋架構CsiNet91,其編碼器包括特征提取、特征壓縮兩個模塊,譯碼器包括特征解壓縮和信道重建兩個模塊,其中全連接層完成特征壓縮與解壓任務,信道重建部分則包含兩個由三層卷積組成的殘差模塊,用于細節上的重建。實驗表明,相較于基于壓縮感知的反饋方案,其重建精度大幅提升,同時運算速度提升近100倍。面對時變信道,CsiNet-LSTM92在CsiNet的譯碼器中利用LSTM的記憶特
50、性有效提取CSI序列的時間相關性,進一步提升了網絡的重建性能。CsiNet+93提出了一種多速率反饋架構,并對編碼器輸出的壓縮編碼進行非均勻量化,生成比特流便于實際傳輸。CsiFBnet 94則是提出了一種結合波束成型技術的反饋模型,最大化利用波束成形技術帶來的性能增益來提升系統表現。接下來介紹基于AI的隱式反饋方案?,F有5G系統的CSI反饋依賴特征向量等間接信息的反饋與利用,從經典模型的角度出發,利用Type I/II碼本實現特征向量的反饋與恢復。為了更直觀平等地比較基于AI的反饋方案和5G NR中基于碼本的反饋方案,考慮將AI與隱式反饋相結合,通過提取完整信道矩陣的特征向量,并送入神經網絡
51、進行壓縮反饋,從而減少反饋開銷。圖圖2-12 基基于于AI的的隱隱式式反反饋饋架架構構 圖圖2-13 32天天線線下下UMA加加噪噪信信道道數數據據仿仿真真圖圖 圖2-12所示為基于AI的隱式反饋架構,在信道信息壓縮反饋前,需要先利用奇異值分解(singular value decomposition,SVD)等算法提取原始全信道信息的特征向量,再將特征向量作為神經網絡的輸入。UE端的編碼器網絡用于對特征向量進行特征提取和23 壓縮,再通過一個量化模塊生成傳輸的比特流并反饋回BS;BS端的譯碼器網絡用于解壓縮和重建特征向量。實驗結果表明,基于AI的隱式反饋方案在相同余弦相似度下,所需反饋比特數
52、明顯少于Type I/II碼本。為了驗證基于AI的隱式反饋性能,中興移動通信設計了接近于實際情況的加噪信道隱式反饋實驗:仿真場景為3GPP中系統級UMA(urban macro honeycomb)信道,天線采用32T1R配置,對不同信噪比的高斯白噪聲污染的信道數據情況下進行仿真,如1.1.1所示。結果表明,AI網絡對不同噪聲功率污染下的CSI反饋性能均有魯棒性,AI方法在反饋準確性與開銷性能上均超過eTypeII碼本反饋方式??傮w來說,基于AI的CSI反饋方案為進一步降低CSI反饋開銷與提升反饋精度提供了新的可能性,具有極大的研究價值和發展前景。2.2.4 導頻、信道估計、信道反饋、預編碼聯
53、合設計 在無線通信系統中很多模塊實際上都是關聯的,如MIMO系統的系統容量與預編碼有關,預編碼是基于信道估計(TDD系統基于互易性、FDD系統基于信道信息反饋)生成,信道估計又與導頻序列的設計相關。單模塊的AI優化雖然可以提升每個模塊的性能,但從整體系統性能來講并不能實現全局最優。因此,可以考慮將多個相關的模塊用一個AI網絡進行聯合模擬并優化,實現多個參數的聯合設計。文獻71考慮一個FDD massive MIMO系統,實現導頻序列設計和信道估計的AI網絡聯合優化。文獻72將導頻設計、信道估計、信道信息反饋、預編碼等模塊進行了聯合設計;通過理論分析證明,在FDD多用戶massive MIMO系
54、統中,上述“導頻設計、信道估計、信道信息反饋、預編碼”是一個分布式源編碼(distributed source coding)問題,在多個用戶端分別進行信道估計且不做信息交互,也可獲得逼近多用戶聯合編碼反饋時的最優性能。但目前分模塊優化的方案相比上述最優性能還有一定的差距,多模塊聯合設計有較大的性能提升空間。圖圖2-14 導導頻頻設設計計、信信道道估估計計、信信道道信信息息反反饋饋、預預編編碼碼的的聯聯合合設設計計 值得注意的是,信道信息反饋子網絡的最后一層是一個量化函數,該函數只有在輸入為0時有梯度(且梯度為無窮大),在其他輸入處梯度為0。因此,在反向梯度傳播時24 會造成無梯度可以傳的問題
55、。對此,需要對該函數進行梯度重寫,正向傳遞的時候仍進行正常的量化,但在反向梯度傳播時以重寫的函數的梯度替代原函數的梯度。常用的重寫方法有直通估計器(straight through estimator,STE),sigmoid調整的直通估計器和退火sigmoid調整的直通估計器等??筛鶕炕瘮档妮斎肴≈捣秶陀柧毜氖諗克俣鹊染唧w情況,選擇不同的梯度重寫方法。2.3 AI 使能的端到端設計 此類研究的目的是在特定的信道環境下聯合優化發射機和接收機969798。與傳統人工設計相比,基于 AI 的端到端收發機設計往往呈現出不太一樣的編碼和/或調制樣式9798。端到端優化設計更適合于具有各種非線性效
56、應的非典型信道,因為神經網絡可以學習這些非理想的信道效應,而傳統優化方法面對較多的非線性因素時往往出現性能下降的現象969798。最初的基于 AI 的端到端收發機設計示意圖如圖2-15 所示。該系統考慮一種在加性高斯噪聲信道上進行通信的場景,其中收發兩端的信號處理都通過神經網絡實現。在僅考慮高斯信道時,我們可以直觀地將神經網絡學習的信號處理過程理解為編碼加調制的結合,通過調整輸入消息的種類和輸出符號的比,可以實現不同碼率的傳輸??梢园l現,神經網絡學習的星座圖與傳統意義上的正交幅度調制(quadrature amplitude modulation,QAM)星座圖會有一定的差別,這種區別在調制階
57、數較高的時候會更加明顯。圖 2-16 給出簡單的誤消息率結果,可以發現神經網絡學習得到的信號處理過程可以達到甚至能夠超過一些人類專家設計。相關思路不僅可以實現在 AWGN 信道下的消息傳輸,還可以實現在典型衰落信道下的消息傳輸11。圖圖2-15 基基于于AI的的端端到到端端收收發發機機設設計計(針針對對AWGN信信道道)25-20246810SNR10-410-310-210-1100BERUncoded BPSK(2,2)Autoencoder(8,8)Autoencoder(4,4)Autoencoder(2,2)Uncoded BPSK(8,8)圖圖2-16 基基于于AI的的端端到到端端
58、收收發發機機誤誤消消息息率率性性能能比比較較(AWGN信信道道)在進行端到端學習時,可以將實際系統的物理器件非線性和特殊需求作為約束條件。例如,文獻97提出將控制 OFDM 峰值平均功率比(peak-to-average power ratio,PAPR)和相鄰頻道泄漏比(adjacent channel leakage ratio,ACLR)作為約束條件,通過端到端學習設計新波形,得到優化系統性能的目標。圖圖2-17 卡卡爾爾曼曼濾濾波波和和AI結結合合的的端端到到端端收收發發機機 盡管基于 AI 的端到端收發機可以在離線訓練時適應特定類型的已知和靜態多維信道,然而,實際部署時,時變的、受噪
59、聲干擾的無線信道會導致預先訓練的收發機出現性能次優的情況。此外,當不可預測的信道條件出現(等同于訓練數據集出現異常值的情況),預訓練的收發機的性能將急劇下降。產生此種情況的主要原因是因為組成收發機的神經網絡單元在推理階段都被凍結,且不具有適應環境變化可調整性。在線重新訓練基于 AI 的收發機開銷較大,因此文獻229提出一種新型的端到端收發機設計方法。如圖 2-17 所示,在自編碼器結構中的編碼器之后,級聯基于卡爾曼濾波算法的控制層,形成卡爾曼濾波-自編碼器級聯結構。將該控制層的每個參數建模為隨機游走的變量,并將其視為控制量,通過卡爾曼濾波的方法跟蹤其參數變化并進行參數估計和訓練,無需獲取信道模
60、型。區別于現有自編碼器方法對信道模型已知的依賴,26 該方案是一種高魯棒性、快速收斂的端到端智能空口結構與訓練方法。2.4 基于 AI/ML 的信道編譯碼技術 自香農提出信道編碼定理以來,學界致力于尋找能夠逼近香農限的編碼方案。隨著時間的推移,學者們提出了漢明碼、循環碼、卷積碼、Turbo 碼、低密度奇偶校驗(low density parity check,LDPC)碼以及極化碼(Polar code)2。其中 LDPC 碼能夠在碼長趨于無限時,性能無限逼近香農限;而 Polar 碼是目前唯一一種被證明能夠在特定信道下達到香農限的編碼方案。隨著深度學習在無線通信物理層研究中的逐步應用,深度學
61、習在信道編譯碼問題上已經有了一定的突破。與傳統的信道譯碼方法相比較,基于深度學習的譯碼器在性能上有顯著的改善,但同時由于維度爆炸,深度學習應用于編碼技術也存在一定的局限性。目前,學界涌現出一批性能優異的基于深度學習的編譯碼算法。Nachmani 等提出了一種基于深度學習的改進置信傳播算法(belief propagation,BP)101107.Cammerer 等提出了一種基于深度學習的 Polar 碼分段譯碼算法109。Liang 等提出了一種基于 CNN 的迭代 BP-CNN 結構110,用于相關噪聲下的信道譯碼。Wang 等提出了一種 LSTM 網絡輔助的 SCF 譯碼算法111。Ch
62、en 等提出了一種低復雜度的 LSTM網絡輔助的 CA-SCLF 譯碼器112。AI/ML 在信道編譯碼方面的應用主要體現在兩個方面。一方面,可以將 AI/ML 算法和神經網絡直接嵌入通信鏈路,替代譯碼器。例如,在文獻24中,DNN 被用于 Polar碼和隨機碼的譯碼,可以以更低的復雜度達到最大后驗概率算法(maximum a posteriori,MAP)性能。文獻25使用 DNN 進行 turbo 碼譯碼,解決傳統 max-log-MAP 算法將非線性簡化為線性導致的性能損失問題。另一方面,也可以利用 AI/ML 方法進行信道編碼方案的設計。2.4.1 基于 AI/ML 的信道編碼方案設計
63、 注意到利用 AI/ML 方法的學習能力,可以設計信道編碼方案,特別是在一些沒有理論指導的場景中(例如在列表譯碼算法下的 Polar 碼設計),AI/ML 可以找到比人工設計性能更好的碼。例如,文獻27使用遺傳算法(genetic algorithm,GA)進行 Polar碼設計,而文獻28利用 RNN 進行 LDPC 碼的度數分布設計。在文獻4445中,作者使用遺傳算法和強化學習(reinforcement learning,RL)框架進行 Polar 構造序列的設計。如圖 2-18 所示,基于 AI設計的 Polar 碼性能優于 DE/GA 方法得到的 Polar 碼。27 圖圖2-18
64、基基于于AI方方法法設設計計的的Polar碼碼性性能能優優于于DE/GA方方法法 2.4.2 基于 DNN 的編譯碼算法 Nachmani 等提出了一種基于深度學習的改進 BP 算法101107,該方法通過對Tanner 圖的邊賦予權值,推廣了標準的置信傳播算法。然后,作者使用深度學習的方法訓練這些邊緣的權值。置信傳播算法的一個眾所周知的特性是性能對傳輸碼字的獨立性?;谏疃葘W習的改進 BP 算法的一個關鍵特性就是譯碼器保留了這個特性。此外,此屬性允許網絡只學習單個碼字,而不需要學習隨碼長增加數量指數級增加的全部碼字,能夠很大程度上解決編譯碼過程中的維度爆炸問題。Cammerer 等提出了一種
65、基于深度學習的 Polar 碼分段譯碼算法109。在這項工作中,作者證明了當譯碼器的子塊被神經網絡取代時,能夠提升傳統的極化碼迭代譯碼算法的性能。因此,作者將編碼圖劃分為更小的子塊,并分別對它們進行訓練,接近每個子塊的 MAP 性能。所得到的解碼算法是非迭代的,并且固有地實現了高水平的并行化,同時其誤比特率(BER)性能十分優異。2.4.3 基于 CNN 的譯碼算法 Liang 等提出了一種基于 CNN 的迭代 BP-CNN 結構110,用于相關噪聲下的信道譯碼。本文設計了一種新的接收機結構來解決信道噪聲中存在相關性時的譯碼問題。這種結構將一個經過訓練的 CNN 與一個標準的 BP 譯碼器連接
66、起來,接收到的符號在BP 和 CNN 之間迭代處理,因此被稱為迭代 BP-CNN。在接收端,首先由 BP 解碼器對接收到的符號進行處理以獲得初始解碼結果。然后,從接收到的符號中減去估計的發射符號,而得到信道噪聲的估計。由于編碼誤差的存在,信道噪聲估計不準確。然后,將信道噪聲估計輸入到 CNN 中,進一步消除了 BP 譯碼器的估計誤差,并利用噪聲相關性得到更準確的噪聲估計。BP 和 CNN 之間的迭代將逐步提高譯碼信噪比,從而獲得更好的譯碼性能。其算法示意圖如圖 2-19 所示。28 圖圖2-19 BP-CNN譯譯碼碼算算法法 為了訓練一個性能良好的 CNN 模型,作者定義了一個新的損失函數,它
67、不僅涉及噪聲估計的精度,而且還涉及估計誤差的正態性檢驗,即測量估計誤差服從高斯分布的可能性。在 CNN 訓練中引入正態性檢驗,與使用標準二次損失函數相比,進一步降低了迭代譯碼的誤碼率。該算法性能如圖 2-20 所示??梢钥吹交€ BP-CNN 和增強后的 BP-CNN 在相關噪聲下都取得了顯著的性能提升。在強相關情況下,當=0.8時,BP-CNN 在誤碼率為-410時可將譯碼性能提高約 3.5dB。需要強調的是,在標準 BP 譯碼器中,這種性能增益不能通過更多的迭代來補償,因為 BP(50)已經達到飽和性能。在=0.5的中等相關性情況下,性能增益變小,因為相關性較弱,采用 CNN 的好處較小。
68、對于=0且噪聲變為獨立同分布(即標準 AWGN 信道)的特殊情況,所提出的方法與標準 BP 譯碼的性能類似。圖圖2-20 BP-CNN譯譯碼碼性性能能對對比比 2.4.4 基于 LSTM 網絡的譯碼算法 Wang 等提出了一種 LSTM 網絡輔助的 CA-SCF 譯碼算法111。極化碼串行抵消(successive cancellation,SC)翻轉譯碼的關鍵是準確識別第一個錯誤位。由于缺乏解析解,最優翻轉策略被認為是難以實現的。為解決這個問題,作者提出了一種深度學習輔助的 SC-flip 算法。其系統示意圖如圖 2-21 所示。29 圖圖2-21 LSTM-aided SCF算算法法示示意
69、意圖圖 具體地說,在每次 SC 譯碼嘗試之前,利用 LSTM 網絡來定位第一個錯誤位,或者撤消先前的“錯誤”翻轉。在每次 SC 譯碼嘗試中,利用在上一次 SC 譯碼嘗試中導出的對數似然比(log likelihood ratios,LLRs)序列來決定要采取的操作。據此,作者提出了一種 LSTM 網絡的兩階段訓練方法,即在第一階段學習定位第一個錯誤位,然后在第二階段學習撤銷“錯誤”翻轉。仿真結果如圖 2-22 所示。顯然,與傳統 SCF 算法相比,該方法能更準確地識別錯誤比特,并獲得更低的塊錯誤率(block error rate,BLER)。圖圖2-22 LSTM-aided SCF性性能能
70、對對比比 圖圖2-23 LSTM-Aided CA-SCLF算算法法性性能能比比較較 Chen 等提出了一種低復雜度的 LSTM 網絡輔助的 CA-SCLF 譯碼器112。其將LSTM 應用于 CA-SCLF 譯碼器,可以有效地從順序譯碼的過程中產生的 LLR 中提取特征,增強誤碼預測能力。實驗結果如 1.1.1 所示,該算法能有效地提高 BLER 性能30 0.11dB。同時,對輸入數據進行預處理和輸出降維,可以顯著降低 30%以上的內存需求和計算復雜度,使其設計更適合于硬件實現。2.4.5 基于對抗生成網絡譯碼算法 針對 DNN 信道解碼的局限性,小米公司提出一種基于生成對抗神經網絡進行低
71、密度奇偶校驗碼譯碼的方法。提出的基于對抗生成網絡的低密度奇偶校驗碼譯碼模型如圖 2-24 所示。生成器接收到經過 BPSK 調制后通過 AWGN 信道的含有噪聲的碼字,在生成網絡端學習低密度奇偶校驗碼的譯碼規則,并生成譯碼結果。初步生成譯碼結果。并將此結果輸入辨別器,對譯碼結果和真實信息序列進行比對,判別器給出是或非的結果,得到結果后進行反向傳播,進行反向傳播時首先判別器不更新,生成器更新,更新之后對判別器更新,生成器不更新。生成端和辨別端更新后,繼續輸入數據來訓練對抗生成網絡的低密度奇偶校驗碼譯碼算法。對譯碼生成器以及譯碼辨別器進行更新后,如果用于本輪訓練的一個或多個信息序列樣本中存在尚未經
72、過譯碼生成器和譯碼辨別器處理的信息序列樣本,則將從尚未處理的信息序列樣本中任意一個獲得的接收碼字樣本輸入譯碼生成器以獲得與該信息序列樣本對應的譯碼碼字樣本,并將該信息序列樣本和譯碼碼字樣本輸入譯碼辨別器以確定能夠區分該二者,如果能夠區分,則再次對譯碼生成器和譯碼辨別器進行更新,直至用于本輪訓練的一個或多個信息序列樣本中沒有未經過譯碼生成器和譯碼辨別器處理的信息序列樣本,即用于本輪訓練的所有信息序列樣本均已被使用,則可以開始下輪訓練。如果確定無法區分譯碼碼字樣本和信息序列樣本,結束迭代訓練并獲得預訓練的 GAN 模型。如果譯碼辨別器無法區分出譯碼碼字樣本和信息序列樣本,這表明譯碼生成器能夠根據接
73、收碼字樣本還原信息序列樣本。圖圖2-24 基基于于對對抗抗生生成成網網絡絡的的低低密密度度奇奇偶偶校校驗驗碼碼譯譯碼碼模模型型 仿真結果如圖 2-25 所示,結果表示了基于對抗生成網絡的 LDPC 碼的譯碼結果,并與 LDPC 碼傳統的譯碼算法 BP、LLR-BP、Min-Sum 譯碼進行了比較。通過仿真圖可以看出,網絡實現了對 LDPC 碼的譯碼,其譯碼誤碼率優于傳統譯碼算法。31 圖圖2-25 對對抗抗生生成成網網絡絡的的LDPC碼碼譯譯碼碼結結果果 2.5 基于 AI/ML 的調制與波形技術 早期的工作中,AI/ML 方法主要用于在多種調制方式混合的信號中識別調制方式29,這種應用在無線
74、通信領域實際場景并不多。和信道譯碼一樣,神經網絡也被用于替代通信鏈路的解調模塊30。對調制解調模塊的優化還體現在星座圖的設計上,此時,調制和解調常常聯合優化。文獻31使用如圖 2-26 所示的自編碼器進行調制星座的位置整形和概率整形聯合優化,并得到相應的解調神經網絡。這個方法得到的調制解調模塊性能非常接近香農極限。AI/ML 方法還可以針對特定場景進行星座圖設計,例如文獻32中,使用 AE 結構設計光纖通信中使用的調制星座圖,以對抗光纖信道的非線性。圖圖2-26 基基于于autoencoder的的調調制制解解調調聯聯合合設設計計 AI/ML 方法可以用于直接進行類似 OFDM 波形的設計,例如
75、文獻38中,不使用DFT 操作,可以直接用 DNN 得到信號的波形。AI/ML 方法也用于低峰均功率比(peak to average ratio,PAPR)波形的設計,例如,文獻39使用如圖 2-27 所示的 AE 結構,設計得到低 PAPR 波形。此外,AI/ML 方法也被用于作智能波形的識別網絡,如圖 2-28所示。32 圖圖2-27 基基于于AE的的低低PAPR波波形形設設計計 圖圖2-28 基基于于AI的的智智能能波波形形識識別別網網絡絡 2.6 基于 AI/ML 的信源信道聯合編碼技術 傳統的通信系統通過信源編碼、信道編碼分別實現圖像/視頻的壓縮和傳輸,并將信源和信道編碼劃分為兩個
76、模塊獨立設計。信源信道分別獨立編碼具有設計簡單、模塊化的特點?;谙戕r分離定律,信源信道獨立編碼在碼長無窮大的條件下是理論最優的。然而,包括物聯網,自動駕駛和觸覺互聯網在內的許多新興應用都要求極低延遲,帶寬和能量約束的條件下傳輸圖像或視頻數據,這限制了在計算上需要依賴較長編碼的信源信道獨立編碼技術的使用。對此,Gamal-Kim 從理論上闡述了多種信源信道聯合編碼模式,可以利用信源的相關性將通信系統的信源編碼和信道編碼作為一個整體來進行優化設計,取得比信源信道獨立編碼更好的性能40。傳統的信源信道聯合編碼允許用戶根據信道或網絡條件改變信源編碼參數,或是根據信源特性選擇信道編碼、調制及網絡參數。
77、其本質是研究人員使用專家知識精巧的設計信源信道編碼方案。其中的代表是由 Wu 團隊和 Katabi 團隊在 2010 年提出的Softcast 模式4142,通過變換對輸入圖像或視頻進行處理,并將系數直接調制為密集的星座圖進行傳輸,須進行常規的量化、熵編碼和信道編碼。Softcast 方案的局限性33 在于需要提前獲得確定的信道模型,而真實環境下的信道特性往往是不可預測的。近年來,深度學習技術在圖像、語音壓縮等領域的發展為 JSCC 的設計提供了新的思路。其中,自編碼器作為神經網絡的一種,經過訓練后能嘗試將輸入復制到輸出。自編碼器內部有一個隱藏層,可以產生編碼表示輸入。該網絡可看做由兩部分組成
78、:一個由函數 h=f(x)表示的編碼器和一個生成重構的解碼器 r=g(h)。在這種結構的啟發下,近期有研究提出用深度神經網絡代替傳統編解碼,設計端到端的信源信道聯合編碼結構43。鑒于自編碼器編解碼器無監督聯合優化的特點,可以考慮使用人工神經網絡對信源壓縮和信道編碼進行聯合設計,從而使通信系統達到端到端的最優性能。具體的,文獻43受無編碼傳輸的啟發,編碼器完成信源編碼+信道編碼+調制的功能,解碼器完成解調+信道解碼+信源解碼的功能,其系統模型如圖 2-29 所示。該網絡的編碼器由 5 個卷積層+PRELU 激活函數的模塊組成,解碼器由 5 個轉置卷積層+PRELU/Sigmoid 激活函數的模塊
79、組成。信道層作為不可訓練層位于編碼器和解碼器之間。圖圖2-29 基基于于AI的的信信源源信信道道聯聯合合編編解解碼碼方方案案的的神神經經網網絡絡結結構構圖圖 圖 2-30 對比了 CIFAR10 數據集下評估了在不同的壓縮比(k/n)條件下基于 AI的信源信道聯合編解碼和 JPEG/JPEG200+方案的峰值信噪比(Peak Signal to Noise Ratio,PSNR)性能。該性能仿真表明:在惡劣的信道條件下(SNR=0dB),信源信道獨立編碼方案無法進行無差錯傳輸導致譯碼失敗,基于 AI 的信源信道聯合編碼方案的 PSNR 高于 20dB,可以較好地進行傳輸。在中(SNR=10dB
80、)、高(SNR=20dB)性噪比和有限的信道資源條件下,k/n 刻畫需要進行局部掃描的波束子空間的大小。圖圖2-35 基基于于波波束束訓訓練練與與跟跟蹤蹤的的毫毫米米波波單單用用戶戶混混合合預預編編碼碼原原理理圖圖 最優的波束掃描方案(即整數對)與環境相關,可通過使用交互式在線機器學習方法(即 Bandit Learning 方法)實現,而 Bandit Learning 方法的核心是定義行動空間和獎勵函數。圖2-36比較了不同算法的有效可達速率性能,Algorithm 1和2基于波束指標差分技術并通過 Bandit-learning 實現,Bandit-learning 分別采用 貪婪搜索與
81、置信區間上界(upper confidence bound,UCB)算法實現。由圖 2-36 可以看出提出的算法可以獲得接近理想算法(即 Oracle-Aided 算法,波束訓練開銷為零且獲得最優性能)且遠優于其他算法的性能。圖圖2-36 不不同同算算法法的的有有效效可可達達速速率率性性能能比比較較 39 2.8.3 多用戶毫米波 MIMO 混合預編碼 多用戶情況則更為復雜。文獻118研究了基于 AI 的多用戶毫米波 MIMO 系統混合預編碼問題?;诓煌耆男诺罓顟B信息,通過最大化可達速率來設計混合預編碼器和合并器。具體的過程如下。首先解決混合預編碼問題,得到訓練數據樣本標簽,接著向網絡提供
82、不完全 CSI 來預測混合預碼器與合并器。也就是說深度學習的網絡提供了一種信道矩陣與預編碼器之間的非線性映射關系。為了獲得魯棒的性能,在離線訓練階段向網絡提供了一定比例的被噪聲破壞的信道實現。因此,在測試階段,當網絡預測預碼權重時,則不一定需要完美的 CSI。通過該方法能較好地處理信道矩陣損壞的情況,并實現較好的可達速率?;谕ㄐ疟举|是與時變環境持續交互這一基本事實,文獻105提出了一種基于智能交互式學習范式的毫米波多用戶預編碼算法如圖 2-37 所示。相應的通信模型模塊與自適應學習模塊主要組成部分及作用如下:a)通信模型模塊主要由波束掃描模塊和數字預編碼器優化模塊構成,主要任務是確定模擬與數
83、字預編碼器,其中模擬預編碼器通過波束掃描的方式確定,而數字預編碼器通過成熟的優化技術獲得。由于波束掃描的范圍與信道環境變化密切相關,因而由自適應學習模塊提供。b)自適應學習模塊基于積累的歷史經驗信息實時預測最優波束子空間,由于最優波束子空間受到不斷變化的物理環境的影響且不斷變化,自適應學習模塊必須能夠實時感知環境變化的規律并從中提取所需要的概率統計信息。智能交互式學習范式可通過強化學習算法具體實現,核心是定義行動空間、狀態空間及回報函數,行動空間可以通過波束指標差分技術實現105,狀態空間通過波束圖像技術實現,回報通過求解相應優化問題獲得。圖圖2-37 基基于于智智能能交交互互式式學學習習范范
84、式式的的毫毫米米波波多多用用戶戶預預編編碼碼算算法法 40 2.8.4 移動自適應協同波束成形 移動情況下的自適應波束成形也有學者開展了一些探索115。圖 2-38 給出了所考慮的移動系統框圖。圖圖2-38 毫毫米米波波協協同同波波束束成成形形系系統統框框圖圖 由于多個基站同時為用戶提供服務,協同波束成型系統提供了抗阻塞的能力、多樣性和魯棒性,這直接提高了系統的覆蓋率、可靠性和延遲性能。然而,該系統設計的主要挑戰是實現高數據速率的要求,因為訓練和設計 RF 波束成型的時間開銷可能非常大,特別是對于高移動用戶?;谶@一動機,該方案著重于開發有效的信道訓練和波束成型設計策略,以最大限度地提高系統的
85、可達速率,并使高速移動場景下的mmWave 應用成為可能。直觀上,波束訓練的結果是一個關于環境設置(譬如用戶/BS 位置,房間家具,街道建筑和樹木等整個場景)的函數。然而,這些函數難以刻畫,因為它們會涉及到很多的參數,且對于每種環境設置都是惟一的。因而文獻115所提方案將深度學習模型與通信系統設計相結合,就是要學習波束訓練結果與相關環境設置的隱式映射函數。該機器學習模型利用基站端接收到的全波束模式或準全波束模式的導頻信號,預測出最優的射頻波束成形矢量。這些在 BSs 接收到的導頻信號是來自用戶的傳輸信號與環境中不同元素相互作用的結果,通過傳播、反射和衍射。因此,這些在不同的基站端聯合接收的導頻
86、信號,刻畫的是環境和用戶/BS 位置的一個特征,也就是我們學習波束成形方向所需要的特征。該系統分為兩個階段運行,即在線學習和深度學習預測階段。(a)如圖 2-39 所示,在學習階段,用戶發送導頻信號,基站端使用波束成形碼本中的向量以及全向波束進行接收。因此,深度學習模型可以學習所有 BS 上聯合捕獲的 OFDM 全向接收信號與不同射頻波束形成矢量帶來的系統速率之間的隱式關系。(b)如圖 2-40 所示,在預測階段,系統依據訓練好的學習模型,基于基站端接收到的全向信號來預測使得系統可達速率最大的最優波束成形矢量。41 圖圖2-39(左左)在在線線學學習習階階段段模模型型 圖圖2-40(右右)深深
87、度度學學習習預預測測階階段段模模型型 2.8.5 基于 AI/ML 的波束漂移抑制技術 現行的毫米波波束形成方案通常假設在給定的時隙中,信道路徑的到達角/分離角是不變的,因此最優的波束方向也是不變的。但是由于用戶不斷移動等導致的信道環境快速變化,信道的到達角/分離角實際上是連續變化的,又由于實際波束的非理想性,已經對齊的波束的主瓣中心角很快偏離實際的信道方向,導致系統性能的下降,這一現象被稱之為波束漂移。需要指出的是,即使環境變化極慢,波束漂移效應相對較弱,但只要發生波束切換,波束漂移效應便不可避免,因而為了獲得更好的性能需要抑制波束漂移效應。在現行的技術方案中,當通過波束訓練或其他方法估計出
88、信道路徑的到達角或分離角后,便基于估計的信道方向設計波束形成向量/矩陣進行數據傳輸,典型的方案是使用主瓣中心角匹配估計的信道方向的窄波束進行數據傳輸。這一方案忽略波束漂移效應會引起系統性能的下降,因而需要進一步優化波束形成方案。由于波束漂移效應與環境變化密切相關,感知環境變化的快慢便成為抑制波束漂移效應的基礎和關鍵。為了抑制波束漂移現象,文獻103提出了如 0 所示的通信方案,主要包括兩個模塊,即波束對齊/訓練模塊與數據傳輸模塊。波束對齊/訓練模塊主要用于估計信道的方向,依據波束變化的局部性原理,即波束切換通常僅僅在以當前波42 束為中心的一個較小的范圍內,故可以使用窄波束進行波束訓練以提高角
89、度估計的精度。圖圖2-41 波波束束漂漂移移效效應應抑抑制制的的方方法法原原理理圖圖數據傳輸模塊設計的核心是感知信道環境變化的快慢,并結合估計的信道方向選擇/設計適當的波束或波束子集進行數據傳輸,主要方法有兩種:(1)依據感知的信道環境變化的快慢,自適應地調整數據傳輸波束的寬度,典型方法是使用多分辨率碼書;(2)數據傳輸波束的寬度不變,但采用更高的頻率進行切換,且切換的頻率由信道環境變化的快慢決定。具體的實現方法是使用基于上下文的 Bayes Bandit 算法,核心是定義行動空間、狀態空間和獎勵等。圖 2-42 提供了數據傳輸波束寬度固定方案(SCB)與為抑制波束漂移效應而設計的數據傳輸波束
90、寬度自適應優化方案(BWO)的仿真性能比較,即采用第一種方法設計并通過多分辨碼書實現。由圖可以看出由于能夠有效地抑制波束漂移效應,與波束寬度固定的方案相比,波束寬度自適應的方案可以獲得更好的有效可達速率性能。圖圖2-42 有有效效可可達達速速率率-數數據據傳傳輸輸波波束束寬寬度度固固定定與與自自適適應應優優化化 2.8.6 基于 AI/ML 的波束跟蹤技術 雖然波束成形可以增強用戶端的信號強度,提高覆蓋,但前提是波束方向需要和目標用戶對準。這一點需要通過波束訓練實現。一旦波束的指向偏離用戶,用戶反而43 接收不到高質量的無線信號,可謂是差之毫厘,謬以千里。在移動通信場景下,用戶移動與隨機遮擋導
91、致信道時變,需要反復的進行波束訓練獲取實時準確的信道信息;但是工作在毫米波和太赫茲頻段的大規模天線陣列規模較大,傳統窮舉式的波束訓練方式會產生巨大的導頻開銷。因此常采用波束跟蹤輔助波束訓練的方式。根據信道的時變規律,以低開銷快速的獲取信道信息,大開銷的波束訓練僅在追蹤失敗后重新開始??梢哉f,快速高效的波束跟蹤算法是保證移動通信質量的關鍵。波束跟蹤的關鍵在于精準的信道預測,對信道如何隨時間變化進行一定的預測,以預測的結果作為先驗知識,進行波束跟蹤。為了減少訓練開銷,一個可行的方法是從以往的波束訓練中提取和利用信息,以減少波束搜索空間,并為以后的訓練做準備。這種想法和機器學習相結合,產生了基于 M
92、L 的波束訓練算法122123124。但是這些方法都是基于監督學習,事先需要大量的數據做神經網絡的訓練。最近,文125提出來基于強盜測試算法(Bandit learning)的波束跟蹤算法125:該文將波束跟蹤建模為一個隨機 bandit 問題。為了感知環境的變化,利用最優波束序號的偏移,提出了基于 Bandit learning 的波束跟蹤算法。該算法針對基于碼本的波束跟蹤。波束成形的預編碼取自一個預先設計的碼本,一般該碼本的碼字是按照角度排列的 DFT 向量。2.9 基于 AI 的多用戶接入技術 隨著設備數量的爆發式增長以及大規模 MIMO 系統的廣泛應用,傳統的多接入技術無法滿足大規模設
93、備的接入要求,非正交接入技術通過對時、空、頻和功率等多個維度資源的復用,可以保證用戶的接入性能,同時也使得多用戶檢測的計算復雜度問題變得極具有挑戰性。傳統的壓縮感知(compressed sensing,CS)方法雖然能利用稀疏性減少復雜度,但其性能和復雜度還有很大的改進空間?;谏疃葘W習的多接入技術126是近年來 AI 在無線通信中應用的研究熱點之一,國內外眾多研究機構均對該方向開展了深入探索,相關工作集中于依據各類信號檢測算法的特性設計神經網絡,以實現智能化的多用戶檢測、用戶活動性(用戶激活)檢測2-4、多用戶 MIMO檢測5-11或多用戶干擾分離137,提高檢測性能的同時極大地降低了計算
94、量。如前文所述,基于 AI 的多接入技術可分為模型驅動方法和數據驅動方法。模型驅動方法的網絡結構由可訓練變量的迭代算法設計而成,學習時使用現有算法的結果作為初始起點,并基于反向傳播算法優化變量,如智能用戶活動性檢測網絡DNN-MP-BSBL127 以 及 前 文 提 到 的 智 能 MIMO 檢 測 網 絡 DetNet131 和OAMPNet134。而數據驅動方法的網絡學習過程是模型不斷擬合現實數據的過程,44 如智能用戶活動性檢測網絡 D-AUD128和 BRNN135 以及智能 MIMO 檢測網絡DNN-dBP133和 MMNet136。圖圖2-43 基基于于AI方方法法的的多多用用戶戶
95、接接收收機機 針對非正交接入(non-orthogonal multiple access,NOMA)系統中的多用戶干擾問題,華為使用 AI/ML 方法設計了如圖 2-43 所示的多用戶接收機46,其性能優于傳統接收機。2.10 基于 AI 的活躍用戶檢測 在物聯網場景下的免授權隨機接入系統中,基站需要進行用戶活動性檢測來使識別有哪些用戶處于激活狀態,以便后續對傳輸數據進行解碼,確?;竞陀脩糁g的有效通信,因而其檢測的準確度大大影響著系統的整體性能。目前有關活躍用戶檢測算法的大量研究仍是基于傳統的壓縮感知算法進行改進,性能提升非常有限。為克服傳統壓縮感知算法的技術限制,解決大規模免授權接入系
96、統的活躍用戶檢測問題,國內學者在深度學習的基礎上構建了 LDS-OFDM(Low-density signature-OFDM)系統的活躍用戶檢測(active user detection,AUD)與信道估計(channel estimation,CE)方案,根據基于塊稀疏表示的貝葉斯學習算法設計了 DNN-MP-BSBL(deep nneural network-aided message passing-based block sparse 45 bayesian learning)框架127。該算法迭代一次的網絡結構及其每層實現的操作如圖2-44 所示。圖圖2-44 DNN-MP-BS
97、BL結結構構(N=3;K=6;Lt=2;dc=2)由網絡結構可知,DNN-MP-BSBL 將消息傳遞的迭代過程從因子圖轉移到神經網絡中,因此促進算法收斂的同時也提高了檢測結果的準確度。(a)不同過載因子下 AUD 成功概率比較 (b)AUD 成功概率隨活躍用戶數目變化曲線圖圖2-45 D-AUD與與傳傳統統檢檢測測算算法法性性能能比比較較 DNN-MP-BSBL 解決的是聯合 AUD 和 CE 問題,針對 AUD 問題,近期,精通壓縮感知理論的韓國學者B.Shim的團隊提出了基于AI的上行鏈路免授權NOMA系統的活躍用戶檢測方案D-AUD(deep active user detection)
98、129。利用某一個時刻活躍用戶的稀疏性,活躍用戶檢測問題可以轉化為支持向量檢測的問題,并用神經網絡直接學習接收信號到活躍用戶索引集合間的映射關系。D-AUD 的訓練是監督學習的過程,基于人工生成的大量訓練數據,網絡最終能收斂到一個較為穩定的狀態。從 1.1中可以看出,在不同的過載條件下(過載因子=用戶數/子載波數),D-AUD 的活躍用戶檢測成功率均明顯優于傳統的 LS-BOMP、MMSE-BOMP 和 AMP 算法,尤其是在46 過載因子較大的時候,傳統算法由于感知矩陣的欠定程度嚴重,性能也急劇惡化,而D-AUD 則在過載因子增大和活躍用戶數目增多時表現出了較強的魯棒性。2.11 基于 AI
99、 的定位技術 目前,消費者市場,比如商場導購、停車場反向尋車、家人防走散、展廳自助導游等,垂直行業,如人流監控和分析、智慧倉儲和物流、智能制造、緊急救援、人員資產管理和服務機器人等,都對定位服務提出了更高精度的需求??傊?,高精度定位是未來智能生活和智能工廠普及化的基石。然而,在很多應用場景中,多徑,NLOS,室內覆蓋和同步問題都是實現高精度定位難以跨越的障礙。3GPP 在 NR Rel-16 標準中引入了多種定位方法,包括基于時間測量的方法和基于角度的方法。之后,3GPP在 R17 通過定位增強的立項,旨在滿足消費者市場和企業市場的高精度位置服務需求。3GPP NR Rel-17 標準的應用場
100、景主要是商業場景以及 IIOT 場景。精度要求非常高,最高達到分米級。特別是在 IIOT 場景,水平方向要求定位精度小于 0.2m。然而,目前經典的定位算法,比如 TDOA 算法,比較依賴場景中的 LOS 基站個數,當 LOS 基站的個數少于4 個時,定位的精度一般都很難達到要求,而在 IIOT 某些場景中,LOS 概率都是比較小的。因此很難達到 0.2m 的定位精度要求。比如 DH(3GPP 仿真場景之一)在各種參數配置下的 LOS 概率如圖 2-46。050100150200250300Distance(m)00.10.20.30.40.50.60.70.80.91CDF(%)LOS pr
101、obability vs DistanceInF-SLInF-DLInF-SHInF-DH圖圖2-46 不不同同場場景景下下LOS的的概概率率 也就是說在 InF-DH 和 InF-DL 下,最多只能保證 1-2 個 LOS 基站,在這種情況下,定位的精度誤差一般在 16m 以上。因此需要進一步研究新的定位算法,比如利用 AI的高效的特征提取功能,來提取基站到用戶信道測量信息的抽象特征,可能會對上述問題帶來重大的突破。利用神經網絡的非線性優勢,可借助所有信道測量信息,包括非直射徑的信道信息進行特征提取并訓練,達到更高的定位精度要求。47 2.12 小結 截止目前,AI/ML 技術已經被研究應用
102、到無線物理層的方方面面,這包括無線環境建模與感知、信道估計、預測與反饋、端到端的設計、信道編譯碼、用戶接入檢測等等。初步的研究結果表明,AI/ML 技術在無線物理層方面具有獨特的優越性。例如,通過 AI 可以實現多維特征信息的感知與融合,從而實現基于 AI 的精準感知定位,對比傳統的經典算法(十幾米定位誤差),AI 定位的精度達到了分米級;在信道估計方面,AI 使能的技術,在各種場景下達到接近基于完美信道估計的表現,并優于傳統的信道估計方法。但是隨著深度學習在無線通信物理層研究中的逐步應用,深度學習在無線物理層技術方面已經有了一定的突破。與傳統的模型驅動的物理層技術相比較,基于深度學習方法在信
103、道估計、反饋、接入等方面的性能上有顯著的改善,但同時由于維度爆炸,深度學習應用于編碼技術、環境重建、接收機設計等方面也存在一定的局限性。48 第三章 基于AI/ML的鏈路層技術 未來無線通信系統將由不同的接入制式,多樣的網絡部署方法和混合異構網絡共同組成,旨在實現數據傳輸速率、網絡覆蓋率和可連接設備數量等方面的大幅提升以及網絡時延和設備能耗的持續降低。在未來無線通信系統中,無線資源分配以及系統內部與系統之間的干擾協調是業界關注的一大研究熱點。面對狀態多變、架構復雜的未來網絡,傳統模型和算法難以提供高效可靠的技術支撐?;谌斯ぴO計的傳統的資源管理方法將很難滿足日益苛刻的通信服務質量需求。同時,下
104、一代無線網絡期望更多地考慮用戶環境以及行為特征,從而提供更高質量的個性化的通信服務11。為解決這些問題,面向下一代無線網絡的資源管理方法亟需理論和范式上的創新與突破。另一方面,基于 AI 的最優控制方法在近幾年有著迅猛的發展,其中最主要的發展方向為強化學習。強化學習能夠通過與環境的交互,學習環境的特征,從而自適應地實現最優決策。特別是深度強化學習(deep reinforcement learning,DRL),能夠以極低的計算成本智能地處理復雜系統的最優控制問題12。不同于傳統模型和算法,AI技術對復雜多變的網絡環境和網絡結構具有很好的適應性,并且能從已有數據和先驗信息中提取出未知特征以推演
105、出高效的資源調度和干擾協調方案。由此,應用先進的Al 技術解決異構無線資源調度和干擾協調問題逐漸發展為無線網絡技術研究中一類新興的研究手段?;趶娀瘜W習的無線資源管理作為當前的研究熱點,得到國內外諸多著名研究團隊與企業的推進和發展13-23。目前,在頻譜資源分配13,車聯網14,無人機通信16,綠色通信17等諸多方面,已有較為成熟的研究成果。這些研究成果表明,相比基于人工設計的傳統方法,基于強化學習的無線資源管理在計算成本與服務質量上的表現均有提升。在無線通信干擾協調、資源調度(包括功率分配、信道分配、接入控制)和集中式分布式架構方面,AI 已經有了各種研究和應用。3.1 基于 AI 的功率分
106、配 文獻148中,作者考慮了由單個 MBS 和若干個 SBSs 構成的混合供能異構網絡,基站可以消耗傳統電網的能量也可以消耗可再生的新能源。由于在移動環境中準確和完整的環境模型是未知的,論文構建了基于無物理模型(model-free)的強化學習模型用于指導網絡的用戶調度和能源分配,最大化系統的能量利用率。具體的,作者提出利用參與者-批評者(actor-critic)強化學習算法來得出最優隨機策略。其示意圖如下:49 圖圖3-1 Actor-critic 強強化化學學習習框框架架 該算法由于結構特征具有收斂性。仿真結果證明當網絡提供更多的可再生能源時,所提出的算法可以提高資源利用率。文獻150中
107、,作者提出一種分布式 model-free 強化學習算法實現所有發送機的加權效用和最大化目標。具體的假設信道 CSI 的隨機變化和延遲都是固有的,每個發送機收集鄰居的 CSI 和 QoS,采用深度 Q-learning 決定自身的發送功率。論文提出的算法可以得到一個相比于集中式算法更快的次優算法。文獻155在進行功率分配的同時,考慮了信道間存在干擾,并基于此提出了一種基于 Q-learning 的功率分配策略。該策略根據所觀察到的無線電環境狀態和干擾功率以及描述每個狀態作用對的折扣長期回報的質量函數或 Q 函數來選擇發射功率。該方案在不考慮信道模型和干擾模型的情況下,在 MIMO NOMA 動
108、態抗干擾博弈中推導出多用戶最優策略。3.2 基于 AI 的信道分配 文獻151研究了毫米波超密集網絡中的頻譜管理問題,并將時空復用作為提高頻譜利用率的一種方法。作者將頻譜管理問題歸結為設備間的非合作博弈,證明了該問題是一個保證納什均衡(nash equilibrium,NE)存在的一般潛在博弈。為了幫助設備在沒有全局信息的情況下實現 NE,作者設計了一種新穎的分布式 Q-learning 算法,使得設備能夠從個體獎勵中學習環境。每個設備的動作和回報分別是信道選擇和信道容量。經過分析得出學習主體間的耦合有助于加速學習的收斂。仿真結果表明,該方案比多條對比基準線收斂更快、更穩定,且延遲小。不同于已
109、有工作中直接利用經典的強化學習方法,文獻152則設計了一種全新的包含遞歸神經網絡的強化學習方法來處理 LTE-U 系統中許可和未授權頻帶的管理。該問題被描述為一個以 SBSs 和 MBS 為博弈參與者的非合作博弈,且每個 SBS 已知的50 網絡信息有限。為了實現混合策略的 NE,提出了一種基于回聲狀態網絡(echo state networks,ESNs)的多智能體強化學習方法。與傳統的 RL 方法相比,該方法可以在不需要太多訓練數據的情況下快速地學會分配資源。在算法執行過程中,每個 BS 只需要廣播當前所采取的動作及其最佳動作。仿真結果表明,與 Q-learning 相比,該方法下第 50
110、 百分位用戶的速率總和提升達到 167%。在部署異構網絡時,干擾是實現高頻譜效率的最大限制因素之一。文獻156研究了一個異構網絡中的多目標、頻譜訪問問題,旨在實現 QoS 約束下同時最小化在微蜂窩處接收的幀內/層間干擾以及從微蜂窩到演進基站(evolved node B,eNB)的層間干擾。由于缺乏全局完整的信道信息,節點數量未知等因素,作者提出了一種基于聯合效用和策略估計的強化學習方法,該方法包含兩個序列層次,第一級的目的是為飛蜂窩識別可用的頻譜資源,第二級負責資源的優化選擇。仿真結果表明,該方法使得層內和層間干擾的顯著減少,從而實現更高的小區吞吐量。文獻147提出了一個基于機器學習的多無人
111、機管理框架減輕無人機小區之間的干擾,旨在保證地面用戶所需的數據率的同時,最大限度地提高無人機小區的能源效率。該框架的關鍵技術包括用于控制發射功率的親和傳播干擾管理(APIM)方案和用于位置重排的 K-means 位置調整方案。與已有的方案相比,該方案減少干擾并提高 25的能效。3.3 基于 AI 的接入控制 接入控制的本質是復用,根據資源復用時是否有可能會發生碰撞沖突,我們將接入控制分為無沖突的調度和基于競爭的隨機接入。文獻15提出了一種基于深度Q-learning(deep Q-learning,DQL)的物聯網傳感器的動態信道接入方案。在每一個時隙,傳感器選擇 M 個信道中的一個來傳輸它的
112、數據包。信道狀態低干擾,即表示成功傳輸,反之高干擾,代表傳輸失敗。由于傳感器在選擇了通道后只知道通道狀態,因此傳感器的優化決策問題可以表述為部分可觀察馬爾可夫決策過程。文獻154中則考慮了一種多傳感器場景,并使用 DQL 處理聯合信道接入和包轉發。該模型如圖 3-2所示,其中一個傳感器作為中繼,將從鄰近傳感器接收到的數據包轉發給接收器。該傳感器裝有緩沖區以存儲所接收的數據包。傳感器在每個時隙中選擇一組信道進行數據包轉發以最大化其效用,即傳輸數據包的數目與傳輸功率的比率。本文證明了傳感器的效用函數是有界的,保證了算法的收斂性。51 圖圖3-2 物物聯聯網網中中的的聯聯合合信信道道接接入入和和包包
113、轉轉發發 盡管調度可以完美規避沖突,但其需要預先設計策略,導致自適應能力與可擴展性較差。相反,基于競爭的隨機接入算法往往無需中心控制節點或者少量中心控制信號,通過精巧設計的分布式算法實現在復雜網絡環境中的接入控制。文獻158中,作者提出了一種基于學習的二進制指數回退算法,用以解決無線局域網內的沖突問題。不同于傳統回退算法中隨機選擇后退時長,新算法會根據上一次成功發送選取固定值,進而可以有效減少沖突的發生頻率,提升整體性能。文獻21中,作者引入隱馬爾可夫模型(hidden Markov model,HMM),并通過對頻譜參數的學習,解決了次級用戶接入空閑頻譜資源的沖突問題。相比較次級用戶而言,初
114、級用戶的突發傳輸會導致頻譜檢測誤差大大增加,并嚴重影響次級用戶隨機接入的成功率。作者通過對初級用戶的特征建立 HMM,設計了一種信道學習算法,可以有效的識別出初級用戶的傳輸模式。3.4 基于 AI 的鏈路調度 文獻150研究了在密集部署的無線網絡場景下無線調度問題,利用空間深度學習,對具有全頻率復用的多個干擾鏈路提出了最佳調度的解決方案。針對此問題的經典優化方法通常有以下模式:首先估算所有干擾信道強度,然后使用該模型找到最佳解決方案。然而,傳統的調度方法是計算密集的,尤其是在密集網絡中,信道估計成本很高,并且鏈路調度的優化通常是非凸問題。研究人員采用一種深度空間學習方法來解決調度問題。完全繞過
115、信道估計階段,并使用深度神經網絡僅基于網絡中發送器和接收器的地理位置來產生接近最佳的調度。使用神經網絡架構將受干擾的節點和相鄰節點的地理空間卷積作為多個反饋階段的輸入,以學習最佳解決方案。用地理位置信息(GLI)替代每個發射機和接收機的信道狀態信息作為神經網絡的輸入,將問題的復雜度由變成。將一個網格區域的連續變量離散量化發射機和接收機的網格密度作為輸入。其相比傳統方法的優勢在于通過使用地理空間卷積來估計每個鏈路周圍的干擾鄰居的密度以及用于逐步調整鏈路活動模式的反饋結構。深52 度神經網絡實際上可以學習網絡干擾拓撲并僅根據地理空間信息就可以執行調度到接近最佳狀態,從而省去了昂貴的信道估計階段。3
116、.5 基于智能體(smart agent)的無線資源調度 AI/ML 方法中的 RL 算法可以通過智能體與環境交互,動態調整自身的決策策略,獲得最優的期望收益。它無需對系統進行顯式建模,因此非常適合用于解決復雜通信系統中的參數選擇、跨模塊聯合優化、跨層資源分配和決策類任務?,F有工作中體現的 RL 對空口的影響主要體現在將其用于解決功控、調度、資源分配等決策類任務時,空口參數的優化配置。例如,文獻47使用 DRL 方法解決車輛到基礎措施(vehicle to infrastructure,V2I)場景下設備調度問題,通過控制設備開啟和休眠,使得系統在滿足 QoS 需求的情況下延長路邊單元的電池使
117、用時間。文獻48使用 DRL 方法實現 IoT 設備的調度,在不影響正常語音業務的情況下,最大化 IoT 業務的吞吐。文獻49聯合優化了調度和內容緩存策略。文獻50則在給定功率限制下優化用戶的上行調度流程,最大化系統的上行吞吐。文獻55的作者嘗試使用 DRL 方法解決蜂窩網絡用戶調度問題??紤]了兩種流量模型,其中全緩存(full-buffer)流量模型下,可以通過優化算法得到問題的最優解;而非全緩存(non-full-buffer)流量模型下,最優解則無法顯式獲得。圖圖3-3 基基于于DRL的的full-buffer場場景景用用戶戶調調度度 對于 full-buffer 流量模型,文獻55基于
118、 DRL 框架,提出了如圖 3-3 所示的三種學習方法。由于比例公平(Proportional Fair,PF)調度策略在該場景下為最優方案,因此將 PF 調度策略作為專家知識訓練智能,可以達到最優性能且收斂速度較快。當專家知識難以獲取時,則可以采用對偶學習的方法,使用兩個智能體互相學習互相促進的方式,防止算法像直接學習一樣落入局部最優。對于 non-full-buffer 流量模型,無法獲得顯式的最優算法。文獻56使用 DRL 方法,結合 n 步回退、熵正則化、動作掩碼(masking)等訓練方法,可以得到優于現有算法的性能:在不損失公平性的情況下,53 實現吞吐的提升和丟包率的下降。作者還
119、將在單 RBG(resource block group)條件下訓練的智能體用于多 RBG 場景的調度推理,同樣可以獲得類似的優于傳統算法的性能,這說明了這種方法的泛化性能有一定保證?;谥悄荏w解決無線資源調度問題時的另一個挑戰是通信系統的高度動態性,參與調度的用戶數隨著時間變化,這就要求智能體可以處理不同用戶數的調度問題而無需頻繁重新訓練。為此,文獻230提出了一種可擴展的神經網絡設計方法,用于基于策略的 advantage actor-critic(A2C)架構,解決高動態用戶數可變場景下的無線資源管理問題。如圖 3-4 所示,同一個策略網絡被重復使用 K 次(K 為參與調度的用戶數量),
120、用以處理用戶設備的每一個狀態;價值網絡則只被使用一次,用以處理所有用戶設備的平均狀態。所有用戶設備共享同一個策略網絡。用戶設備的數量值只影響策略網絡的使用次數,這稱為用戶調度的置換不變性。結合離線訓練,在線推理方法,該方案可以進一步加快智能體的部署流程。圖圖3-4 可可擴擴展展的的神神經經網網絡絡設設計計 圖圖3-5 深深度度強強化化學學習習算算法法性性能能 圖 3-5 刻畫了在單蜂窩、5 用戶設備、單蜂窩、50 用戶設備、3 蜂窩、每個蜂窩10 用戶設備三種場景下可擴展神經網絡的性能。相比于傳統的 PF 調度算法,基于深度強化學習的調度算法可以在幾乎不損失公平性的前提下達到更高的吞吐量和更低
121、的54 丟包率。相同的神經網絡設計用于不同場景可以獲得類似的性能增益,體現了基于強化學習方的資源調度的有效性和可擴展性。當考慮多個小區的聯合資源分配問題時,則需要使用多智能體 RL(multi-agent RL,MARL)。根據多智能體的實現方式不同,可以將這些工作大致分為兩類。第一類工作中,多個智能體采用各不相同的神經網絡參數。這些智能體在同一個環境中進行訓練,它們各自的決策需要考慮其他智能體可能的動作情況,同時會對其他智能體產生影響。例如文獻51基于 MARL 中常用的單 critic 網絡+多 actor 網絡結構解決異構網絡中的功控問題。中心式的訓練過程中,中心 critic 網絡可以
122、獲得全局信道,多個 actor 被部署在多個網絡 AP 上,各自根據 critic 的指導和本地信息進行訓練。文獻52中,各用戶基于深度 Q-learning 網絡(deep Q-learning network,DQN)訓練自身的智能體,完成 AP 關聯和資源分配。另一類工作中,多個智能體使用相同的神經網絡結構和參數。不同智能體從本地局部環境中收集的經驗增加了神經網絡的訓練樣本,幫助網絡更快收斂。訓練好的神經網絡也可以直接下發給新入網的智能體,解決了擴展性問題。文獻53使用這種方法解決了物與物(device-to-device,D2D)場景中的功率分配問題。文獻54則用于解決蜂窩網絡多小區聯
123、合調度和功控問題,建模過程中,考慮系統狀態收集和交互的時延,即智能體智能通過一些過期的信息進行決策。利用智能體/多智能體技術,完成參數配置、跨模塊優化、資源分配等任務一直是研究的熱點和方向。3.6 基于 AI 的網絡切片無線資源分配 基于 AI 的網絡切片無線資源分配大規模機器類型通信(mMTC)被認為是未來數字世界的革命性技術之一,可在當前的 5G 和即將到來的超越 5G(B5G)網絡中實現廣泛的應用,包括工業自動化、智能交通、智能電網等。隨著眾多具有多樣化 QoS需求的 MTCD 接入網絡,傳統的面向 HTC 的蜂窩網絡面臨著巨大的挑戰。第一個關鍵挑戰源于不同 mMTC 應用程序的差異化
124、QoS 要求。在多應用共存的 mMTC 網絡中,不同應用在時延、可靠性、移動性、能耗等方面對服務質量 QoS的需求是不同的。此外,支持這些應用程序的底層協議可能非常不同,例如設備的激活周期、幀大小、前導碼格式等。然而,在傳統的網絡架構下,物理設備與網絡中的業務高度耦合,無法為不同的 mMTC 應用提供差異化的服務。mMTC 的另一個主要挑戰是來自這些 MTCD 的大量訪問請求。在 RA 過程中涉及的資源中,有兩種資55 源會限制大量MTCD接入請求時系統的性能:即用于識別發起 RA 請求的 MTCD 的前導碼資源和為物理下行鏈路控制信道(PDCCH)保留的 RB 資源。中國電信提出“6G 多維
125、信息感知的無線 AI 技術”,通過場景與業務的深度感知,進行網絡業務協同優化,實現深度感知的智能無線資源管理。中國電信聯合電子科技大學設計基于網絡切片的 mMTC 智能接入控制與資源分配機制和控制信道資源分配機制。具體而言為了克服上述 mMTC 隨機接入上的述挑戰,我們將網絡切片引入 mMTC,并提出了一個支持網絡切片的 RA 框架。借助網絡軟件的可編程性、靈活性和模塊化等特點,可以為不同的 mMTC 應用提供細粒度差異化的服務。此外,通過引入網絡切片,可以將具有海量 MTCD 的單個龐大的物理網絡切分為多個獨立的輕量級網絡切片,每個切片內只接入原 MTCD 集合的一個子集,從而減少了沖突域,
126、使得每個網絡切片內的沖突概率大大降低,從而可以有效地減少隨機接入時延。然而,雖然每個網絡切片內的沖突域減小了,但可用前導碼和 PDCCH RB 資源也減少了,因為網絡切片的資源是從物理網絡中分割出來的。因此,與禁用網絡切片的解決方案相比,沖突概率和訪問延遲的降低并不顯著。為此,我們提出了一種支持網絡切片的 mMTC 隨機接入框架,該框架結合了切片前導碼(sliced Preambles,sPreambles)的概念和基于 Actor-Critic 的 RB 資源共享方案。一方面,sPreamble 的引入顯著擴展了每個網絡切片中可用的前導資源,從而有效地降低了沖突概率和接入延遲。另一方面,我們
127、提出的基于 Actor-Critic 的 RB 資源共享方案可以實現網絡切片之間 PDCCH 資源的智能復用,從而有效地提高它們的接入能力。如圖 3-9 所示,與傳統的貪心算法(每條業務流選擇滿足約束條件的最大路徑帶寬)、固定分配算法(業務流保持初始狀態不變,即不采取 重新配置)和隨機分配算法(隨機分配路徑帶寬以及節點 VNF 實例處理資源)相比,基于 AC 的重配置算法可以有效地提升用戶的效用增益約為 30%,同時可以有效地提升資源的利用率約 40%。圖圖3-6 面面向向業業務務流流的的網網絡絡切切片片資資源源分分配配仿仿真真結結果果 56 3.7 小結 初步研究表明,AI 技術對復雜多變的
128、網絡環境和網絡結構具有很好的適應性,并且能從已有數據和先驗信息中提取出未知特征以推演出高效的資源調度、功率分配與干擾協調等方案。目前,AI 技術在頻譜資源分配、無線通信干擾協調、功率分配、信道分配、接入控制、鏈路調度、智能體資源調度、切片資源管理等方面已有較為成熟的研究成果,例如相比基于人工設計的傳統方法,基于強化學習的無線資源管理在計算成本與服務質量上的表現均有提升。因此,應用先進的 Al 技術在解決異構無線資源調度、功率分配、線路控制、干擾協調等問題逐漸發展為無線網絡技術研究中一類新興的技術手段。尤其是基于強化學習的無線資源調度與功率分配方面具有很大的研究空間與發展潛力,且有望在不久的將來
129、替代基于人工設計的傳統方法進行無線資源管理,協助無線網絡智能地學習和自適應地決策。57 第四章 基于AI的網絡上層技術 AI 在無線通信網絡的應用層和網絡層主要有兩方面的應用。首先,它們可以用于預測、推理和大數據分析。在此應用領域,AI 功能與無線網絡從其用戶、環境和網絡設備生成的數據集學習的能力有關138139140141。例如,AI 可以用來分析和預測無線用戶的可用性狀態和內容請求,從而使基站能夠提前確定用戶的關聯內容并進行緩存,從而減少數據流量負載。在這里,與用戶相關的行為模式(如移動方式和內容請求)將顯著影響緩存哪些內容、網絡中的哪個節點以及在什么時間緩存哪些內容。第二,AI 在無線網
130、絡中的另一個關鍵應用是通過在網絡邊緣及其各網元實體(如基站和終端用戶設備)上內嵌 AI 功能來實現自組織網絡操作。這種邊緣智能是資源管理、用戶關聯和數據卸載的自組織解決方案的關鍵促成因素。在這種情況下,AI 可以學習環境,并隨著環境的變化采用不同的解決方案,使得設備自主決策成為可能,從而實現網絡智能化。4.1 基于 AI 的無線網絡架構 未來網絡演進的目標是通過人工智能的引入實現網絡的自主決策和自主演進,達到無人自治的完全智能化網絡。對現有 5G 架構,應盡量將影響降低至最小化,盡量不引入新增接口,并且能夠實現和當前 RAN 的兼容和共存。此外,還需在研究中考慮到人工智能相關數據在接口上的安全
131、性要求,保證人工智能相關數據傳輸的健壯性和可靠性?;?6G 網絡的無線人工智能架構在設計時,不僅需要考慮后向兼容,即兼容基于 5G 網絡的無線人工智能架構,還需要適當地考慮前向兼容,即在包括 6G在內的未來網絡中運行人工智能時,避免因未來網絡演進而產生各層網元設備無法實現相關功能而進行大量改動。具體來說,未來的無線人工智能架構至少需要滿足如下需求:1.大量不同類型數據的統一化獲取、預處理、管理、共享、存儲以及安全傳輸。2.增強接口功能,能夠實現節點間人工智能功能的開啟與關閉、人工智能模型獲取和測量結果報告。3.能夠根據應用場景和用例需求選擇不同的人工智能訓練模型,包括監督學習、非監督學習、強
132、化學習等,并可以確定對應的輸入與輸出。58 4.支持不同應用的統一化架構,包括節能、負載平衡、資源分配、移動性管理和覆蓋范圍優化等。5.人工智能功能邊緣化,從邊緣獲取數據后可以利用邊緣資源進行實時化決策制定,提高系統能效并減少數據傳輸帶寬需求,滿足變化快、實時性較高的業務控制需求。根據上述需求,未來的無線 AI 架構的實例圖之一如圖 4-1 所示:圖圖4-1 無無線線AI架架構構 具體而言,接入節點對算力需求比較低,需要處理的數據量較小,重點實現網元級人工智能策略的執行,提供實時性 AI 處理能力。同時,需支持接入節點之間的人工智能互操作性,實現分布式的 AI/ML 算法。邊緣節點實現輕量級
133、AI,運行輕量級的機器學習模型,具有一定的計算和決策的能力,以滿足敏捷連接、實時業務、安全與隱私保護等方面的需求。RAN 側的人工智能功能從層次上來說分為:通用 AI 處理和特定用例 AI 處理。通用 AI 處理包括根據特定用例進行的模型選取和調用、底層軟硬件資源的統一分配和算力編排等。特定用例 AI 處理包括:針對特定用例(移動軌跡預測、Massive MIMO 增強等)進行數據規范化處理和智能分類等。4.2 基于 AI 的傳輸層擁塞控制技術 傳輸層擁塞控制技術作為網絡領域最重要的技術之一,對于提升網絡效率和降低時延起著至關重要的作用。最早擁塞控制是從傳輸控制協議(transmission
134、control protocol,TCP)開始的,TCP Tahoe 于 1988 年由 Jacobson 提出,是最經典的傳輸層擁塞控制算法,引入了慢啟動和擁塞避免,快速重傳等機制。后來 TCP Reno 引入了快速恢復機制。TCP new Reno 維護了快速恢復狀態,避免了因為連續丟包導致的連續砍59 窗口的問題。TCP SACK 加入了選擇確認(selective ACK,SACK)與重傳機制,避免了累計確認(cumulative ACK)與重傳機制帶來的低效的回退問題。后來數據中心的興起,由于數據中心屬于單一自治域的同構網絡環境,有相對固定的拓撲和相同的網絡配置,比如顯式擁塞通告(e
135、xplicit congestion notification,ECN),于是基于數據中心的擁塞控制技術研究成為熱點,比如最有代表性的 DCQCN160算法,實現了交換機端的 ECN 標記和主機端的速率控制。但是仍然存在以下問題:1)已有的方法只考慮了有限的輸入和數學建模,比如 ECN,丟包,往返時延(round-trip time,RTT),實際網絡非常復雜,需要考慮更多因素(比如動態業務模型)和復雜建模。2)由于獲取的網絡信息有限,導致收斂速度慢,容易導致網絡排隊時延增大。3)由于算法的狀態多和優化的參數眾多且復雜,使得算法調優非常復雜。為了解決存在的問題,由于 AI/ML 技術可以解決多
136、維度復雜場景下的建模,開始引入 AI/ML 到傳輸層擁塞控制算法的研究中。主要的研究方法包括基于離線訓練的有監督學習、深度強化學習、在線訓練的學習?;?AI 的傳輸層擁塞控制技術主要有以下方向:離線訓練的有監督學習、深度強化學習、在線訓練的學習。每種算法主要的區別在于不同的目標函數的選擇,不同的輸入輸出和 AI/ML 模型的選擇。下表列出了主要 AI 算法的比較161:表4-1 傳輸層擁塞控制主要AI算法 Remy 和 Indigo 算法是典型的基于離線訓練的有監督算法,把業務模型和對網絡資源消耗作為先驗信息,在離線訓練階段,將吞吐率和時延最優作為目標函數,將最優的擁塞窗口作為訓練模型的輸出
137、?;陔x線學習的算法好處在于收斂速度快,但由于需要獲取較多的離線數據用于模型的訓練,完整的數據集成為了在實際應用過程中的一個瓶頸。從下圖的實驗結果表明146,基于 AI 的擁塞控制方法在不同的帶寬,時延,隊列大小,丟包率下,相比傳統 TCP CUBIC 而言,性能都有了不錯的提升。60 圖圖4-2 實實驗驗結結果果 4.3 基于 AI 的業務速率控制 圖圖4-3 基基于于AI的的業業務務層層速速率率控控制制 圖圖4-4 網網絡絡測測試試結結果果 類似的思路還可以用作業務層的速率控制,比如Pensive144,視頻碼率的動態選擇。如圖4-3所示,帶寬、速率、終端緩存作為碼率選擇模型的輸入,輸出為
138、動態碼率選擇。然后與實際的視頻體驗質量(quality of experience,QoE)運行環境結合,將QoE(考慮視頻碼率、視頻卡頓率和碼率切換)作為收益反饋到AI模型中,不斷完善碼率選擇模型。通過實際網絡的測試結果如圖4-4所示,結果表明從視頻碼率,卡頓率和視頻切換順暢度各維度進行評估,都表現出了良好性能。61 4.4 基于 AI 的需求預測與緩存技術 隨著智能終端設備的快速發展與普及,諸如短視頻等新型移動多媒體業務不斷地涌現,人們對于無線數據服務的需求呈現出爆炸式的增長165。然而,由于頻譜的稀缺性,現有的無線網絡難以支撐移動多媒體業務的持續增長,需要我們提出新的解決方案。得益于大數
139、據技術的高速發展,廣義認知網絡可以將認知對象從電磁環境拓展到用戶需求。同時,也得益于存儲技術在過去二十年中的長足進步,目前的網絡邊緣設備均配置了一定容量的存儲介質。因此,可以將熱門文件與用戶未來可能請求的文件主動緩存至移動網絡邊緣的存儲介質中。在用戶發起真實請求后,可以直接從網絡邊緣的存儲介質或本地緩存區中讀取,從而降低用戶的請求時延和移動網絡的峰值功率。要想盡可能地提高緩存系統的能效與譜效,需要解決的問題包括:如何提高文件熱度預測與用戶請求預測的準確性?如何基于預測的文件熱度和用戶請求在有限的緩存區內制定緩存策略?如何基于緩存策略制定相應的推送與服務策略?國內外眾多學者圍繞上述問題以 AI
140、為手段開展大量的研究,下面簡要介紹。a)蜂蜂窩窩網網絡絡內內容容熱熱度度預預測測和和緩緩存存策策略略設設計計在文獻166中,康奈爾大學的 Krishnamurthy 教授提出了一種適應性緩存方案以解決蜂窩網絡中的文件緩存問題,首先通過機器學習方法,基于用戶行為和文件特征等估計內容熱度,再結合蜂窩網絡相關參數,通過解混合整數線性規劃問題得到具體的緩存策略,該方案得到的緩存策略可以根據網絡參數如網絡拓撲、通信鏈路、路由策略的變化而進行調整,相比于單一固定的緩存策略,該方案可以更好地適應復雜的網絡環境變化。b)霧霧無無線線接接入入網網絡絡用用戶戶偏偏好好預預測測和和緩緩存存策策略略設設計計在文獻16
141、7中,東南大學尤肖虎教授團隊研究了霧無線接入網絡中的緩存問題,文中考慮了內容流行度在時間和空間上的變化,使用在線梯度下降(online gradient descent,OGD)方法和 FTRL-Proximal 方法提出了對用戶偏好的低復雜度在線學習算法,更準確高效地預測用戶需求的變化,進一步以用戶個體的偏好為基礎,預測給定空間范圍或時間范圍內的內容流行度,從而得到有效的緩存策略。c)D2D 通通信信中中用用戶戶偏偏好好分分析析在文獻169中,悉尼大學 Branka Vucetic 教授考慮基于個人的內容請求概率,而非整體的內容請求概率來設計緩存策略,以此更準確地反應用戶個人的偏好而非整體的
142、內容熱度,從而實現更準確高效的緩存策略。作者引入了評分矩陣的概念,并對矩陣進行分解得到內容特征與用戶偏好的對應關系,通過貝葉斯學習方法預測用戶個人62 對不同特征的偏好程度,并據此設計緩存策略。該方案還可擴展到 D2D 通信中以進一步降低延時,提高預測準確度。d)協協同同緩緩存存的的最最優優策策略略在文獻171中,倫敦瑪麗皇后大學的 Yue Chen 教授研究了協同緩存中內容放置的優化問題,其目的是最大化移動用戶的總平均意見得分(MOS)。首先,作者利用遞歸神經網絡(RNN)來預測用戶的移動性和內容的熱度。然后,作者提出了一種基于學習自動機的 Q-learning 協同緩存算法,該算法通過調用
143、學習自動機進行 Q-learning來獲得在隨機和平穩環境下的最優決策。仿真結果顯示協同緩存優于非協同緩存和隨機緩存。e)移移動動邊邊緣緣網網絡絡文文件件熱熱度度預預測測與與緩緩存存設設計計在文獻172中,德克薩斯 A&M 大學的 Ning Zhang 助理教授使用循環神經網絡模型對內容熱度進行預測,并基于熱度的預測更新緩存策略,通過緩存降低核心網的擁擠程度和降低用戶服務延時。循環神經網絡模型可以有效捕捉用戶請求在時間上存在的內在關聯性,并依據用戶請求在時間上的相關性更準確地預測用戶未來的請求。仿真結果表明該方案會隨著更深的神經網絡層數以及更長的時間步長而提升性能。f)內內容容推推送送技技術術
144、利用無線傳輸的多播特性將內容推送到多個用戶設備端進行主動緩存,能夠有效緩解中心網絡負載,提升用戶體驗。有限的無線傳輸資源和緩存資源導致內容推送決策之間相互耦合。有限的無線傳輸資源下,系統每個時隙內只能推送有限的內容到特定的用戶設備端。過早的內容推送將帶來用戶設備端額外的緩存代價,而過遲的內容推送將面臨錯過用戶請求的風險。亟需利用有限的網絡資源,實現最大化數據卸載量和最小化緩存代價的平衡。文獻168提出了一種基于結構化卷積神經網絡的內容推送策略。g)基基于于相相關關性性和和因因果果性性的的業業務務預預測測技技術術文獻170提出利用無線業務的兩個本質屬性,相關特性和因果特性,以準確預測無線業務。1
145、)無線業務相關特性:無線業務具有空時相關特性,即相同小區不同時間段以及不同小區業務之間的相互關系。人們一般使用相關系數來衡量兩個變量之間的相互關系,其取值范圍在-1,1之間,其中 1 代表完全正相關,而-1 代表完全負相關,而 0 意味著沒有相關性。根據實測無線網絡業務的相關性分析可知,無線網絡業務在同一地點不同日期的同一時段的業務量呈現很強的相關性(時間相關性),相鄰小區同一時段的業務量呈現一定的相關性(空間相關性),因此有效利用無線業務的時空相關性有助于預測無線業務的規律項,提高預測精度。2)無線業務因果特性:無線業務因63 果特性揭示了網絡業務變化的原因。根據格蘭杰因果檢測方法可知,如果
146、一個平穩時間序列 X 的歷史值有助于提高另一個平穩時間序列 Y 的預測值,則 X 是 Y 的格蘭杰因果,也稱預測性因果。例如,大型活動、上課、航班起飛/降落等都是無線網絡業務變化的原因,具備一定的因果性。探索和利用無線業務的因果性將有助于預測無線業務的變化量,提高預測精度。4.5 基于 AI 的無線分布式計算 隨著移動互聯網的飛速發展,各類互聯網應用產生的數據量呈爆炸式增長。面對如此巨大的數據量,傳統的依托于數據中心進行集中數據分析與處理這種模式逐漸難以滿足業務需求。在傳統模式中,網絡的邊緣節點只負責數據收集與用戶交互行為,并將所有原始數據上傳到數據中心進行處理,這將導致巨大的通信消耗例如帶寬
147、占用和能量消耗等,此外,對原始數據的上傳還可能導致用戶的隱私泄露。目前移動設備的快速發展與普及使得網絡的邊緣節點具有較強的計算能力與儲存能力,可以勝任針對本地的小規模數據量的分析與計算。因此,為了解決這些問題并且更高效地完成大規模數據的分析與處理,我們可以采用分布式計算的思想,借助移動邊緣計算和人工智能算法,將龐大的計算任務分發給網絡邊緣節點完成,而后由中心服務器將各個節點的計算結果進行整合統一,從而形成全局的計算模型。因此,AI 在未來無線計算中的應用成為了一個重要的研究課題,而聯邦學習(federated learning,FL)能夠在無線計算任務中實現分布式訓練與訓練結果的集中整合,有望
148、有效地解決大規模數據處理的資源消耗與隱私保護問題。當前的研究主要包括如下方面:a)基基于于 AI 的的移移動動邊邊緣緣計計算算技技術術在邊緣節點執行數據壓縮可以有效地減少需要傳輸的數據量,大大緩解了網絡負載。如何聯合優化系統中的數據壓縮和傳輸成為了一個亟待解決的問題。以往的研究工作解決的都是單時隙之間數據壓縮和傳輸的耦合問題。然而在大數據背景下,考慮到數據壓縮時間不可忽略,數據需要在壓縮完成后的時隙傳輸,因此時隙間耦合使數據壓縮和傳輸問題更為復雜。文獻172在考慮傳輸資源和計算能力受限的情況下,提出了一個分布式的數據壓縮和傳輸調度算法。為了描述實際等待的數據包數量,此研究建立了原始數據隊列和壓
149、縮數據隊列之間的隊列映射關系。以吞吐量最優為目標,其利用原始數據隊列設計了基于李雅普諾夫優化的傳輸調度算法。為了解決數據傳輸決策與數據壓縮決策解耦過程中產生的長期收益問題,利用深度 Q 網絡估計每個節點對壓縮方案的偏好,并提出一種最優的數據包替換算法。64 b)基基于于 MIMO 空空中中計計算算的的 ML 模模型型分分割割在傳統 ML 模型分割任務中,通信往往被視為一個管道,只負責準確地傳輸神經網絡計算過程中的一部分中間結果。由于在模型分割中,每組數據的前向計算、反向傳播中間結果均需要進行傳輸,這需要大量的通信開銷。在文獻196中,作者提出可以通過使用空中計算(over-the-air co
150、mputation)技術的 MIMO 系統高效實現與無線通信高度耦合的模型分割學習系統。由于模擬信號在空中的疊加,基于 MIMO 系統的空中計算可以看作一個帶噪的線性變換,其具體參數由信道參數本身決定。通過這一技術,可以利用 MIMO 系統同時發送多路模擬信號以代表多維數據,大大提高系統效率。由于神經網絡本身具有良好的泛化能力和對噪聲的容忍能力,噪聲對這一系統的影響不如普通模擬系統中大。同時,通過調整預編碼與合并矩陣,可以實現對空中計算所對應的線性變換的控制。由于神經網絡中存在大量的線性操作,這一可控線性變換可以很容易地與神經網絡耦合。c)聯聯邦邦學學習習中中的的調調度度策策略略最最小小化化損
151、損失失函函數數/最最大大化化模模型型精精度度:在文獻25中,由于無線網絡中的聯邦學習需要通過無線連接來傳輸參數,所以會受到無線資源的限制,需要選擇合適的用戶子集、資源分配方式以及學習的策略。針對 OFDMA 傳輸,作者提出了一個存在誤包的情況下的本地模型丟棄策略,和一個在延時、功率以及能量約束條件下的最小化損失函數的優化問題,并使用二分圖匹配算法進行了求解,得到了用戶選擇和資源配置策略。實驗結果表明作者提出的算法和基線方法相比,損失函數更小,預測精度更高。最最大大化化收收斂斂速速度度:在文獻26中,同樣由于無線資源的限制,需要選擇合適的用戶子集和資源分配方式。針對 OFDMA 傳輸,作者提出了
152、一個概率用戶選擇策略,對全局模型有較大影響的用戶被選擇的概率較高,且每個用戶被選擇的概率均大于 0 的。同時作者還提出利用神經網絡來表示不同的用戶本地模型之間的關系,并利用它來估計那些未被選擇的用戶的本地模型,以此利用更多的用戶數據集信息。在給定用戶子集的基礎上,優化無線資源塊的分配,最小化收斂時間。d)計計算算資資源源與與通通信信資資源源聯聯合合調調度度在文獻195中,作者研究了在聯邦學習中如何有效利用邊緣節點有限的計算資源與通信資源達到最優的學習性能。模型聚合的頻率是可以控制的,而非最優的聚合頻率可能導致大量的資源浪費。作者從理論角度分析了基于梯度下降算法的聯邦學習收斂界,并據此提出了一種
153、控制算法來動態控制模型聚合的頻率,以在有限的資源預算下最小化損失函數。通過實際數據集仿真驗證,該控制算法在多種不同情況下都能達到近乎最優的性能。65 在文獻199中,作者研究了在無線通信網絡中的聯邦學習延時最小化的問題。在聯邦學習中,本地計算時延與通信時延都取決于目標學習準確度,通過聯合考慮這兩方面的時延,作者建立了一個聯合傳輸與計算優化問題以最小化聯邦學習延時,并理論證明了延時是學習準確率的凸函數。而后,基于這一凸函數性質,作者提出一種二分查找算法得到最優的學習準確率。e)自自適適應應分分簇簇的的分分級級聯聯邦邦學學習習系系統統在大規模聯邦學習系統中,各用戶本地數據分布呈現較強的互異性。為避
154、免數據非獨立同分布特性帶來的負面影響,傳統聯邦學習系統要求各用戶頻繁上傳本地訓練結果到中心端基站執行全局模型融合。然而,廣大 UE 的異構性致使頻繁通信場景缺乏足夠的可靠性;用戶群體的巨大數量及模型規模的日益增長使得系統通信損耗急劇增加,進而導致涉及頻繁通信的分布式架構在實際場景中缺乏實用性。文獻198在分級聯邦學習架構的基礎上,提出了自適應分簇算法,對用戶接入基站的選擇以及通信資源的分配。在分簇方案的決策過程中,系統將綜合考慮各用戶的本地數據分布及其地理位置等信息,一方面通過促使各簇內的聯合數據分布趨于獨立同分布來進一步提高簇內局部模型融合的可靠性,另一方面通過對系統內可用通信資源的合理分配
155、來降低系統整體通信時延,從而尋求學習增益與通信增益的聯合最大化。在構建的優化問題中,決策變量包括分簇策略及通信資源分配策略,通過聯合優化二者來達到提升系統整體訓練效率的目的。4.6 小結 相比于 AI 技術在物理層技術的研究,AI 在無線通信網絡上層技術方面的研究較少,目前主要是集中在無線通信網絡的應用層和網絡層兩個方面。初步的研究結果表明,AI 技術可以用于無線網絡架構的設計、傳輸層擁塞控制、業務速率控制、網絡/用戶需求預測、以及無線分布式計算等領域。例如,AI 被應用于分析和預測無線用戶的可用性狀態和內容請求,從而使基站能夠提前確定用戶的關聯內容并進行緩存,從而減少數據流量負載,并擴展到業
156、務層速率控制算法。此外,AI 還被用在學習環境,并隨著環境的變化采用不同的解決方案,使得設備自主決策成為可能,從而實現網絡智能化。66 第五章 基于AI的語義通信 近年來,隨著人們對無線通信智能化需求的提升,各種基于無線通信技術的新興智能業務(如工業互聯網、車聯網、遠程醫療/手術、虛擬現實及全息投影技術等)層出不窮。這些新興業務不再僅僅依靠高速率的數據傳輸,而逐漸對網絡智能化和服務多樣性等方面提出更多要求。在這一發展趨勢的推動下,未來通信網絡將開始逐步向高度自動化、智能化且可提供更貼近人類用戶需求和體驗的萬物智聯全新架構轉變。語義通信是一種全新的通信架構,它通過將用戶對信息的需求及語義融入通信
157、過程,將有望大幅度提高通信效率、改進用戶的體驗質量(QoE,quality of experience),并從根本上解決基于數據的傳統通信協議中存在的跨系統、跨協議、跨網絡、跨人機不兼容和難互通等問題,真正實現“萬物透明智聯”的宏偉愿景,即通信網絡、計算和存儲等軟/硬件設備無縫融入人們的生活。人們無須攜帶手機或計算機等專屬計算和通信設備也可以享受無處不在的計算、存儲和通信等服務。5.1 基于 AI 的語義通信系統架構 語義通信模型的一般框架如圖 5-1 所示,與傳統通信系統相同,語義通信系統包含發送端、信道與接收端三個部分,主要區別在于語義通信系統所采用的編解碼方式。語義通信系統的發送端包含語
158、義編碼與信道編碼部分,接收端包含信道解碼與語義解碼部分。在已有的工作中,文獻204將深度學習與聯合信源信道編碼結合,通過語義信息的傳遞在接收端恢復文本信息。文獻205將聯合信源信道編碼用于圖像的傳輸中,并取得了較好的效果。文獻206出了內容為語音的語義通信方式,驗證了語義通信對語音的有效性。圖圖5-1 語語義義通通信信模模型型的的一一般般框框架架 5.2 基于 AI 的高效語音語義通信系統 現有針對圖像、文字的語義提取主要使用全連接層獲取低維度的隱變量,這種隱變量相較于信源編碼具有更低維度從而可以傳遞更少的數據量。更進一步地,可以使用不同模態的數據作為可解釋性表征去提取語義信息,204針對語音
159、傳輸任務的語義通信,67 使用語音中對應的文字信息作為語義信息提取目標,實現語音到文字之間的跨模態對齊,從而不僅降低了隱變量的維度,而且還大幅縮短了序列長度,從而進一步地去除通信中的冗余,實現更高效的語義通信系統。圖圖5-2 高高效效語語音音語語義義通通信信系系統統結結構構 圖 5-2 為所提出的系統結構圖。整體結構分為兩個部分,分別為發射端和接收端,而接收端可以分為語義編碼器、信道編碼器和額外語音信息提取器,接收端可分為信道解碼器、語義解碼器、語義糾正器和語音重建器。其中系統輸入的語音信號首先轉換為對應的頻譜信號,然后輸入語義編碼器,在語義編碼器中使用卷積模塊和雙向 LSTM 模塊獲取中間隱
160、變量,該中間隱變量由軟對齊模塊和額外語音信息提取器分別轉換為文字隱變量和額外語音信息。文字隱變量經由發送端的信道編碼器、帶噪信道和接收端的信道解碼器得到帶噪聲的文字隱變量。在接收端使用基于束搜索的語義解碼器,同時使用基于 LSTM 的語言模型輔助糾正信道噪聲帶來的語義錯誤,得到對應的準確文字信息。如果要獲得重建的語音信號,我們將獲得的文字信息和額外的語音信息輸入一個非自回歸的語音生成模型,并通過 HIFIGAN,獲取與輸入語音近似的重建語音信號,完成高效的語音傳輸。從圖 5-3、圖 5-4 可以看出,對于語音到文字傳輸,本系統在測試集的準確率遠高于其他通信系統,尤其是在低信噪比區域,本系統不會
161、出現大幅度的性能下降,在詞錯誤率和語義相似度上都保持了更穩定的表現。圖圖5-3 語語音音語語義義通通信信系系統統測測試試集集錯錯誤誤率率 圖圖5-4 語語音音語語義義通通信信系系統統語語義義相相似似度度 68 表5-1 高效語音語義通信系統對于傳輸一段音頻信號所需要的序列長度 表5-2 高效語音語義通信系統對于傳輸一個隱變量所需要的通信量 表 5-1 和表 5-2 分別給出了本系統對于序列長度冗余的去除和平均通信量的對比,可以看出本系統通過軟對齊和冗余消除,大大縮短了需要傳輸的序列長度,同時獲取了最小的平均通信量。在和語音到語音傳輸系統的對比中,我們僅需要使用 0.2%的通信量就可以實現相近的
162、效果。5.3 基于 AI 的圖像語義通信系統 深度學習在圖片語義通信模型中得到廣泛的應用,通過其良好的特征提取和學習能力,對圖片包含的語義信息進行提取和通信。相較于數字通信通信模型,基于深度學習的圖片通信模型不會遭遇“懸崖效應”204?;诼摵闲旁葱诺谰幋a的圖片語義通信模型(joint source and channel coding,JSCC)204,已經用于具有非線性信號的多徑衰落信道中的無線圖像傳輸,該通信系統利用卷積神經網絡聯合設計和優化信號的編解碼和通信過程。同時,在204中提出了一種基于深度學習的JSCC方案,用于在具有非線性信號的多徑衰落信道上進行無線圖像傳輸。所提出的編碼器和
163、解碼器使用卷積神經網絡將源圖像直接映射到基帶進行正交頻分復用(OFDM)傳輸。該模型基于機器學習方法不需要單獨的源和信道編碼,同時集成 OFDM 數據路徑以應對多路徑衰落信道。204提出一種多級別語義通信系統(MLSC-image),該通信系統由兩部分組成如圖 5-5 所示:(i)編碼器,從輸入圖像中提取語義特征并將其編碼為符號信號以實現無線信道傳輸;(ii)解碼器,從接收到的信號中解碼語義特征,以重構源圖像。編碼器由兩部分組成:多級語義特征提取器和聯合語義信道編碼器。首先編碼器的輸入圖像 I 由標準化層預處理,使得圖像中的每個元素都在0,1范圍內。然后通過多級語義特征提取69 器提取輸入圖像
164、不同層級的語義特征。聯合語義信道編碼器將這些語義特征編碼為符號,并通過無線信道發送給接收器。解碼器由兩部分組成,聯合語義信道解碼器和圖像重建模塊。聯合語義信道解碼器能夠有效緩解信道噪聲對傳輸信號的影響,并恢復多級語義特征。圖像重建模塊融合不同層次的語義信息,進而重建目標圖像。最后,反標準化層對重建結果進行像素映射(0-255)。圖圖5-5 基基于于多多級級特特征征的的圖圖像像通通信信系系統統 隨著物聯網設備的廣泛部署,圖片語義系統的高效性使其能夠大規模部署在設備端。204提出一種在物聯網設備上使用兩個深度神經網絡作為編解碼器的聯合傳輸和重識別(re-ID)方案,在低信噪比的情況下與部署在物聯網
165、設備上的傳統方案(JPEG 和基于壓縮感知的方案)相比,所提出的系統能夠實現具有更好的識別精度。在計算資源有限的邊緣服務器上通過聯合特征壓縮和傳輸系統來處理圖片,實現高效可靠的推理和識別任務204。該系統結合 JSCC 方案,同時考慮特征壓縮和信道編碼,并結合新型濾波器修剪策略減少神經網絡冗余復雜性,該方案不僅提高了端到端的可靠性,而且降低了計算復雜度。5.4 基于 AI 的語義通信系統資源調度 語義通信是一種新型通信范式,不同于現有通信系統中不考慮任務語義的信源信道編解碼,語義通信系統提取任務相關的語義信息進行編碼傳輸,可以有效降低通信量,并且可以在窄帶寬、高噪聲的情況下進行通信。目前大部分
166、與語義通信相關的工作都集中在語義信息的提取,對其在資源分配相關的研究比較少。而有效的資源分配對通信系統性能的提升有著重要的影響,因此,關于語義通信系統的資源分配的研究很有必要。我們提出了一種語義通信場景下的下行資源分配算法。在該場景中,每個用戶都有一個時延的約束和一個通信性能的約束。文獻224提出一種聯合語義壓縮和資源分配算法,在滿足用戶時延和性能需求的情況下,最大化系統所能服務的用戶數。仿真結果如圖 5-6中所示,可以看出所提出的算法在相同功率的情況下,能夠支持更多的用戶數,其中,70 Greedy 代表將問題 3 用匈牙利算法求解,得到每個用戶所需的功率,然后根據貪婪算法選擇用戶的結果,U
167、niform 表示功率平均分配,資源塊隨機配對。圖圖5-6 系系統統支支持持用用戶戶數數隨隨功功率率變變化化圖圖 為了探究自適應壓縮方案與固定壓縮方案的性能差距,我們將所提出的方案與固定壓縮比的方案進行了比較,這些算法的壓縮比是固定的,資源分配方案與所提出的算法一致??梢钥闯?,固定壓縮比方案的算法性能有所下降,這是因為固定壓縮比有時候會傳遞更多冗余的信息,造成功率的損耗。而壓縮比為 1/24 的算法性能明顯下降,這是因為其壓縮比過低,對于對性能要求比較高的用戶,過低的壓縮比無法滿足其需求。5.5 小結 目前,基于 AI 的語義通信的研究剛剛起步,主要集中在語義通信系統框架、高效的語義通信系統(
168、語音語義系統、圖像語義通信系統)、語義的資源調度等方面的研究。初步的結果表明,基于 AI 的語義通信系統具有一定的可行性,能夠提取并恢復多級語義特征,實現初級的基于圖像語義、語音語義的信息傳輸。但是大量的基礎概念和基礎問題亟須大量的研究和完善,例如如何量化語義信息,如何壓縮語義信息,如何設計通用語義通信知識庫與更新,如何實現高效的多模態信源語義編解碼等方面。71 第六章 無線AI研究數據集 無線 AI 研究需要高質量的數據,如何共建共享無線 AI 研究數據集是無線 AI 研究向前推進需要迫切解決的問題。一種典型的無線 AI 研究數據集可以包括如下 5 個子數據集:1)信道數據集,包括對信道狀態
169、的記錄;2)環境數據集,包括對客觀環境的描述;3)經驗數據集,包括無線網絡狀態、決策和性能的記錄;4)用戶畫像數據集,包括對用戶屬性、行為的描述;5)預訓練模型數據集,包括預先訓練好的可用于通信任務的神經網絡模型及參數。其中,信道狀態可以是信道估計得到的信道系數,也可以是CSI 測量信息等信道相關的信息。環境數據則可以包括用于描述客觀傳輸環境的圖像、點云數據等。用戶畫像可以包括用戶使用的終端型號、位置等用戶屬性和行為信息。而預訓練模型則可以是不同場景下的信道預訓練模型、信道數據的分布模型或無線網絡優化模型等可用于特定場景特定任務的預先訓練的神經網絡模型集合208209。6.1 無線 AI 研究
170、數據收集和利用 無線 AI 研究數據集可以通過仿真、實測或者兩者結合的方式進行構建。仿真數據的獲取靈活性更高,可以通過修改場景配置和通信參數的方式生成多種多樣的數據樣本。實測數據則更貼近算法的實際應用場景,能夠為算法提供更加準備有效的評估。兩者的結合可以通過互相校準的方式實現。仿真數據集的構建主要有兩種方式。一種是利用 3GPP TR38.901210等標準提供的統計模型,在給定場景和通信參數下生成信道、信號強度等數據。統計模型生成的數據往往無法與具體的場景設置(如建筑物布局、BS/UE 位置等)一一對應,因此無法用于特定場景設置相關的具體任務。另一種是在給定場景設置下,通過 ray-trac
171、ing 方式生成數據211212213。這種方式得到的數據與其生成場景強相關,可用于研究具體環境對無線通信的影響。還可以在無線通信的過程中,實時的收集無線 AI 研究數據集中的各個子數據集數據,甚至通過預訓練模型的訓練和推理,這些數據可以用于輔助通信中的各個任務,讓網絡變得更加智能。圖 6-1 展示了一個實時收集并利用各個子數據集的例子,通信中歷史采集得到的信道數據可以預先訓練好一個信道模型,這個信道模型學習了信道狀態在時、頻、空域的變化規律,根據實時信道狀態的輸入,可以輸出信道的壓縮表示。該信道表示數據再拼接環境數據、用戶畫像等信息,就可以足夠充分的表達當前場景,輸入下游用于具體任務的神經網
172、絡模型,可以輸出智能決策用于執行智能空口配置、資源管72 理調度及智能環境感知等任務。收集這些任務執行后的狀態、決策和性能指標等可以得到經驗數據集,經驗數據集可反饋用于模型的持續在線訓練過程。圖圖6-1 無無線線AI研研究究數數據據集集的的收收集集和和利利用用舉舉例例 6.2 無線 AI 研究數據集的共建共享 圖圖6-2 內內生生AI架架構構與與無無線線AI研研究究數數據據集集 圖圖6-3 RT仿仿真真信信道道數數據據(左左:BS/UE部部署署 右右:BS5和和UE7 RT仿仿真真結結果果)無線 AI 研究在數據集的建立上也面臨很大的挑戰。不同于互聯網上隨處可見的圖像、語音、文本等數據,真實無
173、線傳輸環境下的數據采集往往需要昂貴的專用設備和大量的人力和時間。而采集到的數據也面對著諸如數據種類繁多,數據質量參差不齊,數73 據處理方法和數據格式多種多樣,體量巨大等一系列問題。在此種情況下,討論如何共建共享無線 AI 研究數據集,并發展一套與之匹配的系統性的評估理論和方法,是需要各研究單位協同參與并一起解決的關鍵問題。在內生 AI 網絡中的相關建立和部署方法如圖 6-2 所示,可以分為以下四個步驟:步步驟驟 1:建建立立多多場場景景仿仿真真信信道道數數據據集集。首先建立統一的大規模仿真信道數據集,用于 AI 算法的驗證以及模型的預訓練。仿真信道數據的產生可以采用射線追蹤(Ray-trac
174、ing)方法,并在信道數據產生的同時記錄反映通信場景的信息,例如環境中的建筑物布局、設備位置等。步步驟驟 2:引引入入實實采采數數據據和和仿仿真真鏈鏈路路與與系系統統。在少量實測場景中采集實際數據,驗證在該場景下信道預訓練模型的性能,并嘗試在真實數據上進行模型遷移,提升當前場景下的模型性能。同時,研究實采數據的分布,校正仿真信道數據生成模型,提升仿真數據集的真實性。步步驟驟 3:單單站站真真實實系系統統部部署署。通過單站、小規模真實系統的部署,對預訓練的模型和算法進行初步驗證、調優,并把經驗數據收集起來。步步驟驟 4:多多站站多多用用戶戶系系統統部部署署。將模型部署在多站多用戶真實系統中進一步
175、驗證模型的泛化能力以及多站多用戶之間的聯合學習、多智能體強化學習等算法。在示例中,相關數據集的建立過程如:1)通過在全球 40 多個大城市的公開地圖上進行采樣,可獲得 10000+真實建筑物布局,每一個建筑物布局可以看作一個環境;然后在每個環境里隨機撒點,可獲得 5 個基站和 30 個終端的位置;2)利用射線追蹤方法仿真基站和終端的所有 150 種組合,得到 150 個組合場景的數據。這樣,我們可以得到了 150 萬+的場景,每個場景包括環境信息(建筑物布局)、基站和終端的位置,以及仿真信道。其中,仿真信道包括了當前基站和終端鏈路的所有的射線信息,每條射線又包括出發角、到達角、時延以及不同頻點
176、的頻率響應等。如圖 6-3 所示,在給定建筑布局場景中進行 BS 和 UE 撒點,其中 UE 的撒點位置為隨機,BS 的撒點則要求在建筑附近的街道上,以保證一定的合理性。3)獲得 BS 和 UE 之間的射線追蹤仿真結果。如圖6-3 中所示的 BS5 和 UE7 之間的射線情況,其中,顏色越深代表射線的路損越小。采用該方法獲得的信道數據除了具有場景多樣、貼近真實的特點,還可以提供和數據集配套的數據預處理代碼,對頻點、系統帶寬、OFDM 參數、天線數、天線間隔等參數進行自定義配置,并輸出與此參數對應的信道沖擊響應。6.2.1 定位 以定位任務為例,由于多徑信道受到通信設備周邊的環境影響,理論上結合
177、環境信息,即使只有單站的信道,也可以實現具有一定精度的定位。定位實驗的參數配置如表6-1 所示,數據集中的每份數據包含:時延角度域的信道沖擊響應、當前的環境以及設74 備位置等信息。讀取的數據按照 9:1 的比例分成訓練集和測試集,訓練時以信道沖擊響應、環境、發射設備位置作為神經網絡的輸入,以接收設備位置作為神經網絡的輸出。表6-1 自定義參數配置 頻點 帶寬 載波數 接收天線數 發射天線數 天線間距 2.16GHz 5M 25 2/4 8/32 半波長 示例中的訓練可采用卷積神經網絡和全連接網絡提取信道、環境和發射端位置的特征,并輸出預測的接收端位置。用于定位的神經網絡的從數據集預處理得到的
178、輸入數據經過 DNN 或 CNN 后得到不同特征并拼接,再經過 DNN 推演,得到接收端的預測位置。在對比實驗中,我們嘗試了有環境信息和沒有環境信息、以及 8T2R 和 32T4R 的天線數組合。從圖 6-4 中可以看出,有環境信息的實驗無論是訓練集還是測試集,定位精度都要高于沒有環境信息的實驗。當天線數從 32T4R 降為 8T2R,由于角度分辨率降低,定位精度下降,但是有環境信息的實驗訓練集下降很少,測試集的定位精度下降也少于沒有環境信息的實驗。另外從上述實驗結果中可以看出,環境信息的引入對于定位精度的提升有一定幫助。圖圖6-4 基基于于無無線線AI研研究究數數據據集集的的定定位位任任務務
179、訓訓練練結結果果 高質量的無線 AI 研究數據集中含有豐富的信道、環境、場景信息等,對于未來無線 AI 的研究有極其重要的基礎價值。6.2.2 智能波束預測 空域波束預測是指利用已知部分的稀疏波束功率測量結果,預測出其它未知部分的波束功率,進而從中挑選出最優波束的過程。傳統算法對未知部分的波束功率的預測不準確導致挑選的波束和最優波束之間有較大的功率差,而遍歷所有未知波束的掃描開銷是不能接受的。因此,探索利用 AI 方法進行空域波束預測并考慮兩種方案:只基于稀疏波束測量結果的預測;基于稀疏測量結果和環境信息的預測。假設完整的波束集合包含 64 個窄波束,在波束掃描的第一階段,先等間隔測量 M(以
180、 M=16,8 為例)個波束,再基于該75 稀疏測量結果,從完整的波束集合中挑選 K 個(以 K=1,3,5,7 為例)波束以供第二階段波束掃描。第一階段和第二階段的掃描組合參數取值以M-K的形式表示?;€算法在稀疏測量結果中的最強波束附近選擇 K 個候選波束,AI 方法則先預測完整波束集合的功率,再從中選出最強的 K 個候選波束。訓練數據集包含 1000 個環境,測試數據集包含另外的 100 個環境?;?64 天線、UE2 天線、帶寬 30.72MHz、載波數 128 以及頻點 28GHz。性能評價指標為波束預測準確率,其定義為:最優波束如果在 K 個波束中則預測正確,否則預測錯誤。波束掃
181、描開銷的定義為:第一階段和第二階段掃描的波束數量之和與波束總量的比值。圖圖6-5 波波束束預預測測性性能能對對比比 從圖 6-5 所示的對比結果中可以看到,在同樣的掃描開銷下,AI 方法的預測準確率要明顯高于基線方法。特別是在 K 取值較小時,僅在稀疏測量波束附近進行搜索,難以找到最優波束。對比 AI 算法的兩種方案,在引入環境信息后,波束預測的準確率進一步提升。對于兩階段的波束掃描,不同的掃描配置(M 和 K 取值)的掃描開銷和預測準確率不同。波束掃描組合 8-3、8-5、8-7 的掃描開銷都小于 16-1,同時具有更高的預測準確率,因此稀疏波束測量配置的不同組合具有一定的優化設計空間。6.
182、2.3 模型泛化與遷移 以波束預測模型為例討論基于無線 AI 數據集訓練得到的模型在不同無線場景下的泛化與遷移性能。在訓練使用多場景訓練數據,可以讓預訓練模型在不同場景下具有一定的泛化性。然而,泛化性的提升也可能導致預訓練模型在某一特定場景下的性能不是最優的。在實際部署時,預訓練模型可以在具體場景下進一步在線訓練(微調)。相比于重新開始訓練,微調預訓練模型可以用很少的計算代價得到更準確的模型。圖 6-6 展示了多環境預訓練模型在遷移到密集撒點環境并進行微調后的性能,其中密集撒點環境中包含 1 個 BS 和 10000 個隨機撒點的 UE。第一階段波束測量個數 M=16個,第二階段掃描波束個數
183、K 為1,2,3,5,7??梢钥吹?,波束預測準確率隨著微調訓練76 的進行而不斷提升,說明基于多環境數據的預訓練模型雖然已經收斂,但通過基于特定場景的具體數據進行微調訓練可以給性能帶來進一步提升。圖圖6-6 波波束束預預測測模模型型遷遷移移性性能能 我們再討論不同遷移方法的性能。如圖 6-7 所示,首先考慮三種典型的模型訓練和遷移方案:Case A:基于多場景數據的預訓練模型先遷移到特定場景 1,再遷移到特定場景 2(特定場景間遷移);Case B:基于多場景數據的預訓練模型直接遷移到特定場景2(多場景至特定場景遷移);Case C:利用場景 2 本地數據從零開始訓練模型(無遷移)。圖圖6-7
184、 預預訓訓練練模模型型部部署署和和遷遷移移驗驗證證 圖圖6-8 三三種種模模型型遷遷移移策策略略的的波波束束預預測測準準確確率率對對比比 如圖 6-8 所示,對比上述三種模型遷移策略可見,無遷移的 Case C 在同樣的訓練計算量下,準確率遠低于兩種遷移方法。同時,Case A 為代表的特定場景間的遷移,其模型準確率一直低于 Case B 為代表的多場景至特定場景的遷移??梢妴蝹€環境下少量特77 定場景數據的微調造成了模型在該數據分布下一定程度的過擬合,即使使用新數據訓練,它的準確率也不如使用具有泛化性能的預訓練模型進行遷移。6.3 無線 AI 倫理規范及隱私保護 隨著無線通信網絡的迅速發展,
185、未來無線網絡的規模、接入量及復雜度將會呈指數增長。因此,無線通信網絡一直在探尋將人工智能引入網絡,為無線網絡賦能的道路。然而,伴隨著人工智能在各行各業的大規模應用,除了人工智能帶來的巨大收益之外,也催生了人機關系的新變化和新挑戰。隨意濫用人工智能帶來了一系列惡果,如深度偽造(deep fake),自動生成虛假新聞等。一些組織和機構已經開始重視應用人工智能過程中的正確態度,并對人工智能的行為規范展開了研究,總結出了人工智能的倫理規范。目前,對人工智能進行約束的首要目標是構建人工智能倫理規范及倫理體系,眾多國際組織、政府機構、及公司等均發布了人工智能倫理相關文件。從發布主體分類,可大致分為三種文件
186、:國際組織文件、政府文件、產業界文件,包括宣言、原則、指南、白皮書等多種形式。截止目前,約有 74 份人工智能倫理相關文件已發布,雖然出發點不同,但最終落腳點均落在對人類有益、保護數據安全及隱私、可靠、可解釋等特點上。由于無線通信網絡屬于基礎設施,處于強監管領域,用于無線通信網絡的人工智能需要滿足嚴格的倫理規制和監管要求,保證其安全可靠,確保人工智能的應用受到合理約束,才能夠在無線通信領域順利應用,使人工智能真正助力無線通信系統的發展。我國從 2017 年便開始重視人工智能面臨的倫理及隱私保護問題,國務院在 2017 年 4 月發布了新一代人工智能發展規劃,明確指出要“制定促進人工智能發展的法
187、律法規和倫理規范”217。2019 年 6 月,國家新一代人工智能治理專業委員會發布了新一代人工智能治理原則發展負責任的人工智能,提出了人工智能治理的框架和行動指南,其中第四條提到“尊重隱私:人工智能發展應尊重和保護個人隱私,充分保障個人的知情權和選擇權。在個人信息的收集、存儲、處理、使用等各環節應設置邊界,建立規范。完善個人數據授權撤銷機制,反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為”218。2020 年 8 月,我國國家標準化管理委員會、中央網信辦、國家發展改革委、科技部、工業和信息化部等五部委聯合發布了國家新一代人工智能標準體系建設指南,提到要“建立人工智能標準體系結構”,
188、其中一個重要方面就是建立倫理與安全隱私保護標準,包括“基礎安全,數據、算法和模型安全,技術和系統安全,安全管理和服務,安全測試評估,產品和應用安全”等六個部分,貫穿整個人工智能標準體系219。由此可見,我國對于人工智能倫理規范建設的需求已經刻不容緩。世界范圍內也對人工智能的倫理規范和隱私問題進行了廣泛探討,期望規范人工智能的行為。舉例來說,2020 年 2 月,歐盟委員會發布了人工智能白皮書220,在人工智能白皮書中,歐盟提出要建立一個“受信任的人工智能環境”,要求確保隱私78 和個人數據在使用人工智能的產品和服務中受到合理保護,因為人工智能增加了跟蹤和分析人們日常習慣的可能性。此外,通過分析
189、大量數據并識別數據之間的關聯,人工智能還可以用于對個人的數據進行回溯和去匿名化處理,這對即使本身不包含個人數據的數據集,也帶來了新的個人數據保護風險。斯坦福大學在 2019 年 3 月成立了以人為本人工智能研究院(HAI),旨在減少人工智能的危害,認為“把倫理研究納入人工智能的研究和開發的基礎中是當務之急?!碑斎斯ぶ悄鼙粦糜跓o線通信系統時,其應當遵守的倫理規范和確保的隱私保護原則應更為嚴格。無論是 5G 或者未來的 6G 無線通信系統,最終愿景是從人人互聯、人物互聯,到物物互聯,再到人網物三者的結合,最終構建萬物互聯的智能世界。由于未來的 6G 無線網絡將支持豐富的應用服務,因此會涉及到大量
190、的用戶隱私數據,如終端硬件標識、用戶的身份證(ID),以及用戶的行為偏好等。同時,由于數據挖掘技術進步,使得隱私信息的提取方式變得更加強大。因此,人工智能應用于無線通信網絡時,應遵守以下倫理守則:1)保護數據安全及隱私;2)魯棒性;3)透明性;4)可解釋性。由于無線通信系統的高度重要性,無論是無線通信系統內部或者垂直應用場景下的數據安全和隱私均應當得到充分的保護:1)傳統意義上的無線通信網絡用戶隱私數據,如用戶數據、位置、行蹤、通信內容、通信行為、通聯關系、賬號等;2)垂直應用場景中的隱私數據,如智慧工廠、智慧海洋、智慧物聯中的相關敏感信息等。這些隱私信息的敏感和需要保護的程度將更為嚴格;3)
191、未來無線通信網絡中的隱私數據,此時無線通信網絡接入的設備多樣化,支撐多種業務,如無人駕駛,智慧城市,工業自動化,及超大規模物聯網等。在此階段,人工智能將會收集、存儲、處理海量的數據,其數據安全和隱私保護要求將會上升到一個更高的高度。6.4 小結 總之,面向未來無線 AI 通信系統,數據集的建立上目前面臨這很大的挑戰。具體而言,真實無線傳輸環境下的數據采集往往需要昂貴的專用設備和大量的人力和時間。而采集到的數據也面對著諸如數據種類繁多,數據質量參差不齊,數據處理方法和數據格式多種多樣,體量巨大等一系列問題。在此種情況下,討論如何共建共享無線 AI 研究數據集,并發展一套與之匹配的系統性的評估理論
192、和方法,是需要各研究單位協同參與并一起解決的關鍵問題。另一方面,由于人工智能的應用伴隨著大量的數據收集、存儲、處理過程,數據安全和隱私保護是一個無法回避,且亟待解決的問題。無線通信系統作為基礎設施,承載著海量數據傳輸的任務,數據安全和隱私保護應當受到高度重視,讓安全,可靠,可信的人工智能系統助力無線通信系統發展,實現無線通信網絡的高度智能化。79 第七章 研究總結及產業化前景分析與展望本報告結合物理層、鏈路層以及網絡上層具體需求和問題,全面介紹無線智能網絡架構、無線智能空口、無線AI算法、無線AI數據集、無線語義通信等基礎理論和關鍵技術當前的主要研究進展。本章將總結全文內容,概述 AI 賦能的
193、無線技術的潛能和優勢,分析其產業化前景、現有的技術成熟度及其對標準化和產業化應用的影響。7.1 AI 賦能無線技術的潛能及優勢 無線 AI 將是未來 6G 中滲透性最強的核心技術之一,涉及空口、網絡、協議和算法的各個層面,也將深度影響感知、通信、計算、控制等網絡功能,其技術可行性和性能潛力已得到證實。本報告的研究工作初步形成了如下基本結論和重要共識:1)AI/ML 能很好地表征和重構未知無線信道環境、有效跟蹤預測反饋信道狀態、挖掘利用大狀態空間內在統計特征,大幅度提升物理層信號處理算法的性能。2)AI/ML 能夠智能挖掘利用無線網絡時空頻通信、感知和計算資源,有效協調干擾,實現多用戶、多目標、
194、高維度、分布式、準全局優化調度決策。3)若干 AI/ML 架構能夠很好地與無線網絡拓撲、無線傳輸接入協議、無線資源約束、無線分布式數據特征相適配,從而有潛力建構新型無線智能網絡架構;在此基礎上進一步利用網絡分布式算力和動態運力,自主適應無線網絡分布式計算業務需求,實現網絡高效資源利用、自主運行和智能服務。4)無線語義通信作為一種全新的智能通信架構,通過將用戶對信息的需求和語義特征融入通信過程,有望顯著提升通信效率、改進用戶體驗,解決基于比特的傳統通信協議中存在的跨系統、跨協議、跨網絡、跨人機不兼容和難互通等問題。5)無線數據隱藏結構特征復雜,跨時空分布式小樣本問題突出,無線數據集的構建、訪問、
195、訓練、遷移及其隱私安全保障將顯著影響無線 AI 系統的架構設計和算法部署。具體來說,無線 AI 可以實現多模塊聯合優化甚至端到端通信的整體優化;數據驅動的無線 AI 模型可有效地逼近與擬合任意復雜的輸入輸出關系,提取與處理隱含的特征;無線 AI(如強化學習)可在多種場景和情況下不斷調整、演進、修復,基于無線AI 的系統設計思路能更好的兼容未來的多種新型場景;無線通信系統中智能化設備越來越多,數據收集和處理能力也有了質的提升;此外,網絡設備可以通過各類參考信號以及終端設備的反饋信息,非常方便地獲得海量的無線環境數據;最后,可以通過通用80 硬件實現多種功能的神經網絡,并支持未來網絡的平滑升級和替
196、換,降低網絡部署和維護的成本。AI/ML 在物理層的應用已有大量的成功案例。本報告的第二章節討論了 AI 在物理層的各個模塊,包括無線環境建模與感知、信道估計預測及反饋、編譯碼、調制與波形技術等方面的現有研究成果。這些成果顯示 AI 特別是深度學習由于其具有端到端優化的能力可以避免傳統通信鏈路的模塊化設計,同時由于其的非線性處理能力,帶來了顯著的性能提升。AI 特別是強化學習,能夠通過與環境的交互,學習環境的特性,從而自適應地實現最優決策,已被廣泛應用到無線鏈路層的資源分配與調度中。本報告的第三章節概述了 AI 在干擾鏈路調度、功率分配、信道分配、接入控制、頻譜資源檢測等方面的成功應用。這些成
197、果顯示,AI 技術,特別是深度強化學習,對復雜多變的網絡環境和網絡結構具有很好的適應性,能夠以極低的計算成本智能地處理復雜系統的最優控制問題。AI 在應用層和網絡層的應用主要有兩方面。一是用于預測、推理和大數據分析。在這一方面,本報告的第四章介紹了基于 AI 的擁堵控制技術、業務速率控制技術、需求預測與緩存技術等。二是通過在網絡邊緣及其各網元實體上內嵌 AI 功能來實現自組織網絡操作。第四章也討論了相關的無線分布式計算技術,包含移動邊緣計算技術、AI/ML 模型分割技術、聯邦學習等。這些邊緣智能可以學習環境,并隨著環境變化而改變策略,從而實現網絡智能化。通過上述討論可以發現,AI/ML 方法已
198、經被用于無線技術研究的多個方面,并且相較于傳統算法獲得顯著的性能提升。AI 的一些技術與模型(如 CNN,RNN,DRL 等)與無線技術深度融合,尤其是與物理層/鏈路層空口技術的結合和后續發展值得重點關注。此外,如本報告的第五章節中所探討的,如何獲取和利用研究數據集是無線 AI 研究的關鍵和難點之一。7.2 AI 賦能無線技術的產品成熟度 目前手機終端的嵌入式神經網絡處理器(Neural-network processor unit,NPU)的處理能力與日俱增。在 2018 年以前,手機終端尚無專門的 NPU 模塊,從 2018 年開始,手機終端的 NPU 處理能力每年都提升數倍。按照這個速度
199、,2030 年手機終端的 NPU 處理能力將持續高速提升。表 7-1 列出了一些典型的復雜神經網絡的復雜度,以及這些神經網絡占據目前典型芯片的 NPU 1 秒計算能力的比例。通過將現有手機 NPU 的處理能力與經典的神經網絡的復雜度進行比較,可發現目前手機 NPU 處理能力已經非常強大。神經網絡的復雜度一般以 OP 為單位計算,即一次實數乘法或一次實數加法為一個 OP。以 GoogleNet 為例,81 它的復雜度為 2G OPs,但它只占據目前典型芯片的 NPU 1 秒計算能力的 1.3e-4(即 1秒可以計算 7500 次,或執行一次網絡只需 0.13 毫秒)。表7-1 典型的復雜神經網絡
200、的復雜度列表神經網絡復雜度(OPs)神經網絡占據目前典型芯片的 NPU 1 秒計算能力的比例Inception V2 4.1G 2.7e-4 Inception V3 12G 8.0e-4 CaffeNet 724M 4.8e-5 GoogleNet 2G 1.3e-4 MobileNet 1.15G 7.7e-5 無線 AI 中使用的神經網絡一般是輕量級神經網絡,復雜度不高。因此,在手機終端上執行基于神經網絡的運算已成為現實。隨著手機終端 NPU 處理能力的快速增長,在手機上支持更復雜的無線 AI 成為可能。7.3 AI 賦能無線技術的標準化和產業化影響 無線 AI 在感知、預測、定位、跟蹤
201、、反饋、調度、優化、調控等方面的應用潛力巨大,初步形成了未來標準化和產業化的基礎,部分技術已在 R17、R18 中得到初步研究和討論。例如在數據獲取和使用方面,無線 AI 中的數據獲取和 AI 模型參數更新,可能需要通信標準定義相應的流程;基于終端和網絡設備的部分功能實現,要從法律法規和隱私保護方面進行規范。3GPP 當前的標準討論中,在核心網側,增加了 NWDAF,用于進行數據收集和分析。并且在 RAN 工作組和 SA 工作組上分別設立了一個 SI(Study Item),分別對數據采集和 AI/ML 模型傳輸進行研究,并討論下一步標準化的可能,相關的進展情況可以參考 3GPP TR 37.
202、817“Study on enhancement for data collection for NR and ENDC”和 TR22.874“Study on traffic characteristics and performance requirements for AI/ML model transfer”。從標準化討論進展來看,目前 3GPP 5G NR Release 18 已在 RAN 1 開啟 AI 增強無線通信空口標準化討論,相關評估和討論結果將在研究報告 TR 38.843中發布。Release 18 的 study item 通過對代表性用例(CSI 壓縮,波束預測和定
203、位增強)的討論和性能評估,研究包括無線通信網絡中不同 AI 階段定義、基站與終端的合作、AI 模型生命周期管理、標準化潛在影響等課題。而關于 AI/ML 模型傳輸(AMMT)的討論則進入到第二階段,進一步增強 AI 服務作為 3GPP 的關鍵應用場景。按目前的計劃,R18 的討論結果將在 R19 進行更多用例討論和標準化,R19+可能會進行 3GPP 框架內AI 模型訓練/交互、AI 物理層信號處理等研究。由于無線 AI 可以實現相關通信模塊的聯合優化,傳統通信標準中所涉及的內部接口將被簡化,相關的信令過程也會有一定的改變,信令、參考信號的開銷也將會降低。同時,不同階段的無線 AI 對標準化和
204、產業82 化的影響不同。在初始階段,無線 AI 將會以輔助工具或優化方案來提升現有無線通信系統的性能,其標準化影響相對較小。隨著無線 AI 技術的成熟和無線通信系統對 AI的開放性和支持度提高,多個功能模塊會逐漸被性能更好的無線 AI 模塊所替代,其標準化影響將會更大。7.4 AI 賦能無線技術未來研究工作展望 當前在學術界,通信領域無線AI相關研究論文和 workshop研討會的占比持續攀升;在工業界,主要的 6G 區域組織,如 歐洲 Hexa-X、北美 Next G、中國 IMT-2030 6G 推進組等,都將 AI 作為未來 6G 核心的使能技術和應用場景。同樣我們也看到無線 AI 方向
205、上的研究后續在理論,架構與技術研究和實現落地等三個層面也面臨著一系列挑戰,比如在基礎理論層面,有一些關鍵的科學問題需要攻克,1)如何通過理論指導找到適合無線通信系統的 AI 模型訓練和部署方法,在通信、計算與存儲的開銷與性能中尋找最優;2)如何科學地評價無線分布式學習算法的性能與收斂性,從理論上刻畫無線 AI模型學習能力的度量(如模型的容量),并建立成體系的方法與理論,評估無線 AI 算法模型的收斂性、學習速率和訓練代價,以及模型推演的性能極限和可靠性等問題。在系統架構與技術方案研究層面,也面臨著諸如 1)空口智能化與極致性能的最優化技術研究問題;2)如何找到通信協議設計與實現的新思路與新方法
206、;3)如何找到解決系統中廣泛存在的通信,計算與存儲等資源開銷的最優化利用的技術方案問題;4)如何真正實現網絡智能化自治的架構設計等問題。在最終的實現落地層面,也面臨著如何解決 1)AI 運算所帶來的高能耗與芯片能力局限問題,2)如何在無線動態環境下導致的學習與訓練方面的通信與計算資源開銷問題以及 3)在面對網絡中大量存在的異構模型時如何找到通用的訓練方法問題等挑戰。下一步的研究工作宜深入探索無線智能通信系統在數據和算力需求、AI 通信計算綜合效能方面的極限理論,重點推進無線智能網絡架構、無線智能空口、無線 AI 算法、無線 AI 數據集、無線語義通信等方面的標準化,著重解決如下核心難點:適用于
207、無線的通用 AI 架構、數據和算力約束的高效無線 AI 算法,支撐 AI 算法高效部署的無線協議,以及無線 AI 性能(界限)的精準分析預測等等。83 參考文獻1 Kermoal,Jean-Philippe,et al.A stochastic MIMO radio channel model withexperimental validation.IEEE Journal on selected areas in Communications 20.6(2002):1211-1226.2 Hur,Sooyoung,et al.Proposal on millimeter-wave chann
208、el modeling for 5G cellularsystem.IEEE Journal of Selected Topics in Signal Processing 10.3(2016):454-469.3 Sternad,Mikael,and Daniel Aronsson.Channel estimation and prediction for adaptiveOFDM downlinks vehicular applications.2003 IEEE 58th Vehicular Technology Conference.VTC 2003-Fall(IEEE Cat.No.
209、03CH37484).Vol.2.IEEE,2003.4 Q.Bai,J.Wang,Y.Zhang and J.Song,Deep Learning-Based Channel EstimationAlgorithm Over Time Selective Fading Channels,in IEEE Transactions on Cognitive Communications and Networking,vol.6,no.1,pp.125-134,March 2020.5 Z.Xu and J.Sun,“Model-Driven Deep-Learning,”National Sci
210、.Rev.,vol.5,no.1,2018,pp.2224.6 H.T.He,S.Jin,C.-K.Wen,F.Gao,G.Y.Li,and Z.Xu,“Model-driven deep learning forphysical layer communications”,IEEE Wireless Communications,vol.26,no.5,pp.77-83,Oct.2019.7 H.T.He,M.Zhang,S.Jin,C.-K.Wen and G.Y.Li,“Model-driven deep learning formassive MU-MIMO with finite-a
211、lphabet precoding,”IEEE Commun.Lett.,vol.24,no.10,pp.22162220,2020.8 Y.He,H.He,C.-K.Wen,and S.Jin,“Model-driven deep learning for massive multiuserMIMO constant envelope precoding,”IEEE Wireless Commun.Lett,vol.9,no.11,pp.1835-1839,Nov.2020.9 W.Jiang and H.D.Schotten,“Recurrent neural network-basedf
212、requency-domain channelprediction for wideband communications,”inProc.IEEE Veh.Technol.Conf.(VTC),Kuala Lumpur,Malaysia,Apr.2019,pp.16.10 T.Ding and A.Hirose,“Fading channel prediction based on com-bination ofcomplex-valued neural networks and chirpZ-transform,”IEEE Trans.Neural Netw.Learn.Syst.,vol
213、.25,no.9,pp.16861695,Sep.2014.11 W.Jiang and H.D.Schotten,“Multi-antenna fading channel prediction empowered byartificial intelligence,”inProc.IEEE Veh.Technol.Conf.(VTC),Chicago,IL,USA,Aug.2018,pp.16.12 Y.Sui,W.Yu,and Q.Luo,“Jointly optimized extreme learning machine for short-termprediction of fad
214、ing channel,”IEEE Access,vol.6,pp.4902949039,2018.13J.Yuan,H.Q.Ngo,and M.Matthaiou,“Machine learning-based chan-nel estimationin massive MIMO with channel aging,”inProc.IEEE20th Int.Workshop Signal Process.Adv.Wireless Commun.(SPAWC),Cannes,France,Jul.2019,pp.15.14 M.Mehrabi,M.Mohammadkarimi,M.Ardak
215、ani,and Y.Jing,“Decision directedchannel estimation based on deep neural networkk-step predictor for MIMOcommunications in 5G,”IEEE J.Sel.AreasCommun.,vol.37,no.11,pp.24432456,Nov.2019.15 J.Wang,Y.Ding,S.Bian,Y.Peng,M.Liu,and G.Gui,“UL-CSI datadriven deeplearning for predicting DL-CSI in cellular FD
216、D systems,”IEEE Access,vol.7,pp.9610596112,2019.84 16M.Arnold,S.Drner,S.Cammerer,S.Yan,J.Hoydis,and S.T.Brink,“Enabling FDDmassive MIMO through deep learning-based channel prediction,”Jan.2019.Online.Available:arXiv:1901.036.17 W.Liu,L.-L.Yang,and L.Hanzo,“Recurrent neural network based narrowbandch
217、annel prediction,”in Proc.IEEE 63rd Veh.Technol.Conf.(VTC),Melbourne,VIC,Australia,May 2006,pp.21732177.18T.Ding and A.Hirose,“Fading channel prediction based on combination ofcomplex-valued neural networks and chirp Z-transform,”IEEE Trans.Neural Netw.Learn.Syst.,vol.25,no.9,pp.16861695,Sep.2014.19
218、 J.Yuan,H.Q.Ngo and M.Matthaiou,Machine Learning-Based Channel Prediction inMassive MIMO With Channel Aging,in IEEE Transactions on WirelessCommunications,vol.19,no.5,pp.2960-2973,May 2020,doi:10.1109/TWC.2020.2969627.20 Luo,Changqing,et al.Channel state information prediction for 5G wirelesscommuni
219、cations:A deep learning approach.IEEE Transactions on Network Scienceand Engineering(2018).21 Sutskever,Ilya,Oriol Vinyals,and Quoc V.Le.Sequence to sequence learning withneural networks.Advances in neural information processing systems.2014.22 Huangfu,Yourui,et al.Predicting the mumble of wireless
220、channel withsequence-to-sequence models.2019 IEEE 30th Annual International Symposium onPersonal,Indoor and Mobile Radio Communications(PIMRC).IEEE,2019.23 Huangfu,Yourui,et al.Realistic Channel Models Pre-training.2019 IEEE GlobecomWorkshops(GC Wkshps).IEEE,2019.24 T.Gruber,S.Cammerer,J.Hoydis,and
221、S.t Brink,“On deep learning-based channeldecoding,”in 2017 51st Annual Conference on Information Sciences and Systems(CISS),Mar.2017.25 He Y,Zhang J,Wen C K,et al.TurboNet:A model-driven DNN decoder based onmax-log-MAP algorithm for turbo codeC/2019 IEEE VTS Asia Pacific WirelessCommunications Sympo
222、sium(APWCS).IEEE,2019:1-5.26 Y.He,J.Zhang,Shi Jin,C.-K.Wen,G.Y.Li,“Model-Driven DNN Decoder for TurboCodes:Design,Simulation,and Experimental Results,”IEEE Trans.Commun.,vol.68,no.10,pp.61276140,Oct.202027 Elkelesh A,Ebada M,Cammerer S,et al.Decoder-tailored polar code design using thegenetic algori
223、thmJ.IEEE Transactions on Communications,2019,67(7):4521-4534.28 Nisioti E,Thomos N.Design of Capacity-Approaching Low-Density Parity-CheckCodes using Recurrent Neural NetworksJ.arXiv preprint arXiv:2001.01249,2020.29 OShea T J,Corgan J,Clancy T C.Convolutional radio modulation recognitionnetworksC/
224、International conference on engineering applications of neural networks.Springer,Cham,2016:213-22630 Shental O,Hoydis J.Machine LLRning:Learning to Softly DemodulateJ.arXivpreprint arXiv:1907.01512,2019.31 M.Stark,F.A.Aoudia,and J.Hoydis,“Joint Learning of Geometric and ProbabilisticConstellation Sh
225、aping,”in 2019 IEEE Globecom Workshops(GC Wkshps),Dec.2019.32 R.T.Jones,T.A.Eriksson,M.P.Yankov,and D,Zibar,“Deep Learning of GeometricShaping Including Fiber Nonlinearities,”in 2018 European Conference on OpticalCommunication(ECOC),Sep.201833 C.Wen,et al,“Deep Learning for Massive MIMO CSI Feedback
226、,”in IEEE WCL,vol.7,no.5,pp.748-751,Oct.201885 34 J.Joung,“Machine Learning-Based Antenna Selection in Wireless Communications,”IEEE Communications Letters,vol,20,no,11,pp.2241-2244,Nov.2016.35 F.Sohrabi,H.V.Cheng,and W.Yu,“Robust Symbol-Level Precoding ViaAutoencoder-Based Deep Learning,”in 2020 IE
227、EE International Conference onAcoustics,Speech and Signal Processing(ICASSP),May 2020.36 H.He,C.-K.Wen,S.Jin,and G.Y.Li,“A Model-Driven Deep Learning Network forMIMO Detection,”in 2018 IEEE Global Conference on Signal and InformationProcessing(GlobalSIP),Nov.201837 J.R.Hershey,J.L.Roux,and F.Weninge
228、r,“Deep Unfolding:Model-Based Inspirationof Novel Deep Architectures,”Online https:/arxiv.org/abs/1409.2574.pdf,Nov.201438 Z.Zhao,M.C.Vuran,F.Guo,and S.Scott,“Deep-Waveform:A Learned OFDMReceiver Based on Deep Complex Convolutional Networks,”Onlinehttps:/arxiv.org/pdf/1810.07181.pdf,Nov.2018.39 M.Ki
229、m,W.Lee,and D.-H.Cho,“A Novel PAPR Reduction Scheme for OFDM SystemBased on Deep Learning,”IEEE Communications Letters,vol.22,no.3,pp.510-513,Mar.2018.40 A.E.Gamal,Y-H.Kim.Network information theoryM.Cambridge:CambridgeUniversity Press,2011.41 H.Cui,C.Luo,C.W.Chen and F.Wu,“Robust uncoded video tran
230、smission overwireless fast fading channel,”IEEE INFOCOM 2014-IEEE Conference on ComputerCommunications,Toronto,ON,Canada,2014,pp.73-81.42 S.Jakubczak and D.Katabi,SoftCast:Clean-slate scalable wireless video,2010 48thAnnual Allerton Conference on Communication,Control,and Computing(Allerton),Montice
231、llo,IL,USA,2010,pp.530-53343 Bourtsoulatze E,Kurka D B,Gndz D.Deep joint source-channel coding for wirelessimage transmissionJ.IEEE Transactions on Cognitive Communications andNetworking,2019,5(3):567-579.44 L.Huang,H.Zhang,R.Li,Y.Ge,and J.Wang,AI Coding:Learning to ConstructError Correction Codes,I
232、EEE Transactions on Communications,vol.68,no.1,pp.26-39,Jan.2020.45 Huang,Lingchen,et al.Reinforcement learning for nested polar code construction.2019 IEEE Global Communications Conference(GLOBECOM).IEEE,2019.46 Wang,Jun,et al.Artificial intelligence and wireless communications.Frontiers ofInformat
233、ion Technology&Electronic Engineering(2020):1-13.47 R.Atallah,C.Assi,and M.Khabbaz,“Deep reinforcement learningbased scheduling forroadside communication networks,”in 2017 15th International Symposium onModeling and Optimization in Mobile,Ad Hoc,and Wireless Networks(WiOpt).IEEE,2017,pp.18.48 S.Chin
234、chali,P.Hu,T.Chu,M.Sharma,M.Bansal,R.Misra,M.Pavone,and S.Katti,“Cellular network traffic scheduling with deep reinforcement learning,”inThirty-Second AAAI Conference on Artificial Intelligence,2018.49 Y.Wei,Z.Zhang,F.R.Yu,and Z.Han,“Joint user scheduling and content cachingstrategy for mobile edge
235、networks using deep reinforcement learning,”in 2018 IEEEInternational Conference on Communications Workshops(ICC Workshops).IEEE,2018,pp.16.50 M.Chu,H.Li,X.Liao,and S.Cui,“Reinforcement learning based multi-access controland battery prediction with energy harvesting in iot systems,”IEEE Internet of
236、ThingsJournal,2018.86 51 Zhang,Lin,and Ying-Chang Liang.Deep Reinforcement Learning for Multi-AgentNon-Cooperative Power Control in Heterogeneous Networks.arXiv preprintarXiv:2004.12095(2020).52 Zhao,Nan,et al.Deep reinforcement learning for user association and resourceallocation in heterogeneous c
237、ellular networks.IEEE Transactions on WirelessCommunications 18.11(2019):5141-5152.53 Nasir,Yasar Sinan,and Dongning Guo.Multi-agent deep reinforcement learning fordynamic power allocation in wireless networks.IEEE Journal on Selected Areas inCommunications 37.10(2019):2239-2250.54 Naderializadeh,Na
238、vid,et al.Resource Management in Wireless Networks viaMulti-Agent Deep Reinforcement Learning.arXiv preprint arXiv:2002.06215(2020).55 Wang,Jian,et al.Deep reinforcement learning for scheduling in cellular networks.2019 11th International Conference on Wireless Communications and Signal Processing(W
239、CSP).IEEE,2019.56 Xu,Chen,et al.Buffer-aware wireless scheduling based on deep reinforcementlearning.2020 IEEE Wireless Communications and Networking Conference(WCNC).IEEE,2020.57 H.Ye,G.Y.Li and B.-H.Juang,“Power of deep learning for channel estimation andsignal detection in OFDM systems,”IEEE Wire
240、less Communications Letters,vol.7,no.1,pp.114-117,February 2018.58 D.Neumann,T.Wiese and W.Utschick,“Learning the MMSE channel estimator,”IEEE Transactions on Signal Processing,vol.11,no.66,pp.2905-2917,June 2018.59 X.Cheng,D.Liu,C.Wang,S.Yan and Z.Zhu,“Deep-learning based channelestimation and equa
241、lization scheme for FBMC/OQAM systems,”in IEEE WirelessCommunications Letters,2019.60 Y.Yang,F.Gao,X.Ma and S.Zhang,“Deep learning-based channel estimation fordoubly selective fading channels,”in IEEE Access,2019.61 A.Aboutaleb,W.Fatnassi,M.Soltani,and Z.Rezki,“Symbol detection and channelestimation
242、 using neural networks in optical communication systems,”IEEEInternational Conference on Communications(ICC):Wireless CommunicationsSymposium,2019.62 E.Balevi and J.G.Andrews,“Deep learning-based channel estimation forhigh-dimensional signals,”preprint arXiv:1904.09346,2019.63 T.-H.Li,M.R.A.Khandake
243、r,F.Tariq,K.-K.Wong and R.T.Khan,“Learning thewireless V2I channels using deep neural networks,”preprint arXiv:1907.04831,2019.64 S.Han,Y.Oh and C.Song,“A deep learning based channel estimation scheme forIEEE 802.11p systems,”in Proc.IEEE International Conference on Communications(ICC),2019.65 H.Mao
244、,H.Lu,Y.Lu and D.Zhu,“RoemNet:Robust meta learning based channelestimation in OFDM systems,”in Proc.IEEE International Conference onCommunications(ICC),2019.66 E.Balevi,A.Doshi and J.G.Andrews,“Massive MIMO channel estimation with anuntrained deep neural network,”preprint arXiv:1908.00144,2019.67 S.
245、Gao,P.Dong,Z.Pan and G.Y.Li,“Deep-learning based channel estimation formassive MIMO with mixed-resolution ADCs,”preprint arXiv:1908.06245,2019.68 Q.Bai,J.Wang,Y.Zhang and J.Song,“Deep-learning based channel estimationalgorithm over time selective fading channels,”preprint arXiv:1908.11013,2019.87 69
246、.T.Demir and E.Bjrnson,“Channel estimation in massive MIMO under hardwarenon-linearities:Bayesian methods versus deep learning,”preprint arXiv:1911.07316,2019.70 M.B.Mashhadi,and D.Gndz,“Deep learning for massive MIMO channel stateacquisition and feedback,”preprint arXiv:2002.06945,2020.71 X.Ma and
247、Z.Gao,“Data-Driven Deep Learning to Design Pilot and Channel EstimatorFor Massive MIMO,”IEEE Transactions on Vehicular Technology,vol.69,no.5,pp.5677-5682,May 2020.72 Foad Sohrabi,Kareem M.Attiah,Wei Yu,“Deep Learning for Distributed ChannelFeedback and Multiuser Precoding in FDD Massive MIMO”,arXiv
248、:2007.0651273 M.Soltani,V.Pourahmadi,and H.Sheikhzadeh,“Pilot Pattern Design for DeepLearning-Based Channel Estimation in OFDM Systems,”preprint arXiv:2003.08980,2020.74 Y.-S.Jeon,J.Li,N.Tavangaran,and H.V.Poor,“Data-Aided Channel Estimator forMIMO Systems via Reinforcement Learning,”preprint arXiv:
249、2003.10084,2020.75 H.He,C.Wen,S.Jin and G.Y.Li,Deep Learning-Based Channel Estimation forBeamspace mmWave Massive MIMO Systems,in IEEE Wireless CommunicationsLetters,vol.7,no.5,pp.852-855,Oct.2018,doi:10.1109/LWC.2018.2832128.76 H.T.He,R.Wang,S.Jin,C.-K.Wen and G.Y.Li,“Beamspace channel estimation i
250、nTerahertz communications:A model-driven unsupervised learning approach,”2020,arXiv:2006.16628.77 H.He,C.-K.Wen,S.Jin and G.Y.Li,“Model-driven deep learning for joint MIMOchannel estimation and signal detection,”preprint arXiv:1907.09439,2019.78 X.Ru,L.Wei,and Y.Xu,“Model-driven channel estimation f
251、or OFDM systems basedon image super-resolution network,”preprint arXiv:1911.13106,2019.79 Dong C,Loy C C,He K,et al.Image Super-Resolution Using Deep ConvolutionalNetworks.IEEE Trans Pattern Anal Mach Intell,2016,38(2):295-30780 Kai Z,Zuo W,Chen Y,et al.Beyond a Gaussian Denoiser:Residual Learning o
252、f DeepCNN for Image Denoising.IEEE Transactions on Image Processing,2016,26(7):3142-3155.81 W.Jiang and H.D.Schotten,“Neural Network-Based Channel Prediction and ItsPerformance in Multi-Antenna Systems,”in 2018 IEEE 88th Vehicular TechnologyConference(VTC-Fall),Aug.2018,pp.16,doi:10.1109/VTCFall.201
253、8.8690590.82 W.Jiang and H.D.Schotten,“Recurrent Neural Network-Based Frequency-DomainChannel Prediction for Wideband Communications,”in 2019 IEEE 89th VehicularTechnology Conference(VTC2019-Spring),Apr.2019,pp.16,doi:10.1109/VTCSpring.2019.8746352.83 J.Ahrens,L.Ahrens and H.D.Schotten,“A machine le
254、arning method for prediction ofmultipath channels,”preprint arXiv:1909.04824,2019.84 Y.Yang,F.Gao,Z.Zhong,B.Ai,and A.Alkhateeb,“Deep transfer learning baseddownlink channel prediction for FDD massive MIMO systems,”preprintarXiv:1912.12265,2019.85 Y.Wang,X.Chen,H.Yin,and W.Wang,“Learnable sparse tran
255、sformation basedmassive MIMO CSI recovery network,”IEEE Commun.Lett.,vol.24,no.7,pp.1468-1471,Jul.2020.86 M.Safari and V.,“Deep UL2DL:Channel knowledge transfer from uplink todownlink,”preprint arXiv:1812.07518,2018.88 87 M.Alrabeiah and A.Alkhateeb,“Deep learning for TDD and FDD massive MIMO:Mappin
256、g channels in space and frequency,”preprint arXiv:1905.03761,2019.88 F.Gao,title to be updated by Feifei Gao89 Z.Xiao,Z.Zhang,Z.Chen,Z.Yang and R.Jin,Mobile MIMO Channel Predictionwith ODE-RNN:a Physics-Inspired Adaptive Approach,accepted by 2022 IEEE 33ndAnnual International Symposium on Personal,I
257、ndoor and Mobile RadioCommunications(PIMRC).90 Z.Xiao,Z.Zhang,C.Huang,X.Chen,C.Zhong,and M.Debbah,“C-GRBFnet:APhysics-Inspired Generative Deep Neural Network for Channel Representation andPrediction,”in IEEE Journal on Selected Areas in Communications(IF=13.081),2022,doi:10.1109/JSAC.2022.3180800.91
258、 C.K.Wen,W.T.Shih,and S.Jin,“Deep learning for massive MIMO CSI feedback,”IEEE Wireless Commun.Lett.,vol.7,no.5,pp.748-751,Oct.201892 T.Wang,C.Wen,S.Jin and G.Y.Li,“Deep learning-based CSI feedback approach fortime-varying massive MIMO channels,”IEEE Wireless Commun.Lett.,vol.8,no.2,pp.416-419,Apr.2
259、019.93 J.Guo,C.Wen,S.Jin,and G.Y.Li,“Convolutional neural network-based multiple-ratecompressive sensing for massive MIMO CSI feed-back:Design,simulation,andanalysis,”IEEE Trans.Wireless Commun.,vol.19,no.4,pp.28272840,2020.94 J.Guo,C.Wen,S.Jin,“Deep Learning-Based CSI Feedback for Beamforming inSin
260、gle-and Multi-cell Massive MIMO Systems,”IEEE Journal on Selected Areas inCommunications,2021.95 Z.Chen,Z.Zhang and Z.Xiao,Viewing the MIMO Channel as Sequence Rather thanImage:A Seq2Seq Approach for Efficient CSI Feedback,2022 IEEE WirelessCommunications and Networking Conference(WCNC),2022,pp.2292
261、-2297,doi:10.1109/WCNC51071.2022.9771730.96 Y.Jiang,H.Kim,H.Asnani,S.Kannan,S.Oh,and P.Viswanath,“Turbo autoencoder:Deep learning based channel codes for point-to-point communication channels,”arXivpreprint arXiv:1911.03038v1,2019.97 T.OShea and J.Hoydis,“An introduction to deep learning for the phy
262、sical layer,”IEEE Trans.Cog.Commun.Netw.,vol.3,no.4,pp.563575,2017.98 S.Dorner,S.Cammerer,J.Hoydis,and S.T.Brink,“Deep learning basedcommunication over the air,”IEEE J.Sel.Topics Signal Process.,vol.12,no.1,pp.132143,Feb.2018.99 F.Ait Aoudia and J.Hoydis,“Trimming the Fat from OFDM:Pilot-and CP-less
263、Communication with End-to-end Learning,”arXiv:2101.08213v3,Apr.2021.100E.Arikan,Channel Polarization:A Method for Constructing Capacity-AchievingCodes for Symmetric Binary-Input Memoryless Channels,in IEEE Transactions onInformation Theory,vol.55,no.7,pp.3051-3073,July 2009.101E.Nachmani,Y.Beery and
264、 D.Burshtein,Learning to decode linear codes using deeplearning,2016 54th Annual Allerton Conference on Communication,Control,andComputing(Allerton),Monticello,IL,2016,pp.341-346.102J.Zhang,Y.Huang,Y.Zhou,and X.You,“Beam alignment and tracking for millimeterwave communications via bandit learning,”I
265、EEE Trans.Commun.,vol.68,no.9,pp.5519-5533,2020.103J.Zhang,Y.Huang,Q.Shi,J.Wang,and L.Yang,“Codebook design for beamalignment in millimeter wave communication systems,”IEEE Trans.Commun.,vol.65,no.11,pp.49804995,Nov 2017.89 104J.Zhang,Y.Huang,J.Wang,X.You,and C.Masouros,“Intelligent interactive beam
266、training for millimeter wave communications,”IEEE Trans.Wireless Commun.,pp.1-1,2020.105J.Zhang,Y.Huang,J.Wang,and X.You,“Intelligent beam training formillimeter-wave communications via deep reinforcement learning,”in 2019 IEEEGLOBECOM,Dec 2019,pp.17.106J.Zhang,Y.Huang,J.Wang,X.You,and C.Masouros,“I
267、ntelligent interactive beamtraining for millimeter wave communications,”IEEE Trans.Wireless Commun.,pp.11,2020.107E.Nachmani,E.Marciano,L.Lugosch,W.J.Gross,D.Burshtein and Y.Beery,DeepLearning Methods for Improved Decoding of Linear Codes,in IEEE Journal ofSelected Topics in Signal Processing,vol.12
268、,no.1,pp.119-131,Feb.2018.108Y.Huang,Z.Zhang,J.Che,Z.Yang,Q.Yang,and W.Kai-Kit“Self-AttentionReinforcement Learning for Multi-Beam Combining in mmWave 3D-MIMO Systems,”Sci.China.Inf.Sci.(SCIS),to appear,2022.109S.Cammerer,T.Gruber,J.Hoydis and S.ten Brink,Scaling Deep Learning-BasedDecoding of Polar
269、 Codes via Partitioning,GLOBECOM 2017-2017 IEEE GlobalCommunications Conference,Singapore,2017,pp.1-6.110F.Liang,C.Shen and F.Wu,An Iterative BP-CNN Architecture for ChannelDecoding,in IEEE Journal of Selected Topics in Signal Processing,vol.12,no.1,pp.144-159,Feb.2018.111J.Wang,Y.Ding,S.Bian,Y.Peng
270、,M.Liu,and G.Gui,“UL-CSI datadriven deeplearning for predicting DL-CSI in cellular FDD systems,”IEEE Access,vol.7,pp.9610596112,2019.112C.Chen,C.Teng and A.A.Wu,Low-Complexity LSTM-Assisted Bit-FlippingAlgorithm For Successive Cancellation List Polar Decoder,ICASSP 2020-2020 IEEEInternational Confer
271、ence on Acoustics,Speech and Signal Processing(ICASSP),Barcelona,Spain,2020,pp.1708-1712.113H.Huang,Y.Song,J.Yang,G.Gui and F.Adachi,Deep-Learning-BasedMillimeter-Wave Massive MIMO for Hybrid Precoding,in IEEE Transactions onVehicular Technology,vol.68,no.3,pp.3027-3032,March 2019.114T.Lin and Y.Zhu
272、,“Beamforming design for large-scale antenna arrays using deeplearning,”IEEE Wireless Commun.Lett.,vol.9,no.1,pp.103107,Jan.2020.115A.Alkhateeb,S.P.Alex,P.Varkey,Y.Li,Q.Z.Qu,and D.Tujkovic,“Deep learningcoordinated beamforming for highly-mobile millimeter wave systems,”IEEE Access,vol.6,pp.373283734
273、8,Jun.2018.116M.Elbir,“CNN-based precoder and combiner design in mmWave MIMO systems,”IEEE Commun.Lett.,vol.23,no.7,pp.12401243,Jul.2019.117M.Elbir and K.V.Mishra,“Joint antenna selection and hybrid beamformer designusing unquantized and quantized deep learning networks,”arXiv:1905.03107,May2019.118
274、M.Elbir and A.K.Papazafeiropoulos,Hybrid Precoding for Multiuser MillimeterWave Massive MIMO Systems:A Deep Learning Approach,in IEEE Transactions onVehicular Technology,vol.69,no.1,pp.552-563,Jan.2020.119X.Li and A.Alkhateeb,Deep Learning for Direct Hybrid Precoding in MillimeterWave Massive MIMO S
275、ystems,2019 53rd Asilomar Conference on Signals,Systems,and Computers,Pacific Grove,CA,USA,2019,pp.800-805.90 120Chen,Wei,et al.Solving Sparse Linear Inverse Problems in Communication Systems:A Deep Learning Approach With Adaptive Depth.IEEE Journal on Selected Areas inCommunications,2021.121X.Gao,L
276、.Dai,Y.Zhang,T.Xie,X.Dai and Z.Wang,Fast Channel Tracking forTerahertz Beamspace Massive MIMO Systems,in IEEE Transactions on VehicularTechnology,vol.66,no.7,pp.5689-5696,July 2017.122A.Alkhateeb,S.Alex,P.Varkey,Y.Li,Q.Qu,and D.Tujkovic,“Deep learningcoordinated beamforming for highly-mobile millime
277、ter wave systems,”IEEE Access,vol.6,pp.37 32837 348,2018.123V.Va,J.Choi,T.Shimizu,G.Bansal,and R.W.Heath,“Inverse multipathfingerprinting for millimeter wave V2I beam alignment,”IEEE Trans.Veh.Technol.,vol.67,no.5,pp.40424058,May 2018.124J.C.Aviles and A.Kouki,“Position-aided mm-wave beam training u
278、nder nlosconditions,”IEEE Access,vol.4,pp.87038714,2016.125J.Zhang,Y.Huang,Y.Zhou,and X.You,“Beam Alignment and Tracking forMillimeter Wave Communications via Bandit Learning,”IEEE Transactions onCommunications,Apr.2020.126G.Gui,H.Huang,Y.Song and H.Sari,Deep Learning for an Effective NonorthogonalM
279、ultiple Access Scheme,in IEEE Transactions on Vehicular Technology,vol.67,no.9,pp.8440-8450,Sept.2018,doi:10.1109/TVT.2018.2848294.127Z.Zhang,Y.Li,C.Huang,Q.Guo,C.Yuen and Y.L.Guan,DNN-Aided Block SparseBayesian Learning for User Activity Detection and Channel Estimation in Grant-FreeNon-Orthogonal
280、Random Access,in IEEE Transactions on Vehicular Technology,vol.68,no.12,pp.12000-12012,Dec.2019,doi:10.1109/TVT.2019.2947214.128W.Kim,Y.Ahn and B.Shim,Deep Neural Network-Based Active User Detection forGrant-Free NOMA Systems,in IEEE Transactions on Communications,vol.68,no.4,pp.2143-2155,April 2020
281、,doi:10.1109/TCOMM.2020.2969184.129W.Kim,G.Lim,Y.Ahn and B.Shim,Active User Detection of Machine-TypeCommunications via Dimension Spreading Neural Network,ICC 2019-2019 IEEEInternational Conference on Communications(ICC),Shanghai,China,2019,pp.1-6,doi:10.1109/ICC.2019.8761407.130G.I.Kechriotis and E
282、.S.Manolakos,Hopfield neural network implementation of theoptimal CDMA multiuser detector,in IEEE Transactions on Neural Networks,vol.7,no.1,pp.131-141,Jan.1996,doi:10.1109/72.478397.131N.Samuel,T.Diskin and A.Wiesel,Deep MIMO detection,2017 IEEE 18thInternational Workshop on Signal Processing Advan
283、ces in Wireless Communications(SPAWC),Sapporo,2017,pp.1-5,doi:10.1109/SPAWC.2017.8227772.132N.Samuel,T.Diskin and A.Wiesel,Learning to Detect,in IEEE Transactions onSignal Processing,vol.67,no.10,pp.2554-2564,15 May15,2019,doi:10.1109/TSP.2019.2899805.133Tan,Xiaosi,et al.Improving massive MIMO belie
284、f propagation detector with deepneural network.arXiv preprint arXiv:1804.01002(2018).134He H,Wen C K,Jin S,et al.A model-driven deep learning network for MIMOdetectionC/2018 IEEE Global Conference on Signal and Information Processing(GlobalSIP).IEEE,2018:584-588.135Bai Y,Ai B,Chen W.Deep learning ba
285、sed fast multiuser detection for massivemachine-type communicationC/2019 IEEE 90th Vehicular Technology Conference(VTC2019-Fall).IEEE,2019:1-5.91 136Khani,Mehrdad,et al.Adaptive neural signal detection for massive MIMO.IEEETransactions on Wireless Communications(2020).137Zhang C.Deep Learning Based
286、Multi-user Interference Cancellation TechnologyJ.Science Discovery,2019,7(6).138Q.Zhang,M.Lin,L.T.Yang,Z.Chen and P.Li,Energy-Efficient Scheduling forReal-Time Systems Based on Deep Q-Learning Model,in IEEE Transactions onSustainable Computing,vol.4,no.1,pp.132-141,1 Jan.-March 2019,doi:10.1109/TSUS
287、C.2017.2743704.139Atallah,Ribal et al.“Deep reinforcement learning-based scheduling for roadsidecommunication networks.”2017 15th International Symposium on Modeling andOptimization in Mobile,Ad Hoc,and Wireless Networks(WiOpt)(2017):1-8.140Haoran Sun,Xiangyi Chen,Qingjiang Shi,Mingyi Hong,Xiao Fu,a
288、nd Nikos DSidiropoulos.Learning to optimize:Training deep neural networks for wireless resourcemanagement.In Proc.18th IEEE International Workshop on Signal ProcessingAdvances in Wireless Communications(SPAWC),pages 16,2017.141Zhiyuan Xu,Yanzhi Wang,Jian Tang,Jing Wang,and Mustafa Cenk Gursoy.A deep
289、reinforcement learning based framework for power efficient resource allocation in cloudRANs.In Proc.2017 IEEE International Conference on Communications(ICC),pages16.142Zhi Zhou,Xu Chen,En Li,Liekang Zeng,Ke Luo,and Junshan Zhang.EdgeIntelligence:Paving the Last Mile of Artificial Intelligence With
290、Edge Computing,Proceedings of the IEEE(PIEEE),Vol.107,No.8,pp.1738 1762,Aug.2019.143C.Pandana and K.J.R.Liu,Near-optimal reinforcement learning framework forenergy-aware sensor communications,in IEEE Journal on Selected Areas inCommunications,vol.23,no.4,pp.788-797,April 2005,doi:10.1109/JSAC.2005.8
291、43547.144G.Naddafzadeh-Shirazi,P.Kong and C.Tham,Distributed Reinforcement LearningFrameworks for Cooperative Retransmission in Wireless Networks,in IEEETransactions on Vehicular Technology,vol.59,no.8,pp.4157-4162,Oct.2010,doi:10.1109/TVT.2010.2059055.145N.Mastronarde and M.van der Schaar,Fast Rein
292、forcement Learning forEnergy-Efficient Wireless Communication,in IEEE Transactions on Signal Processing,vol.59,no.12,pp.6262-6266,Dec.2011,doi:10.1109/TSP.2011.2165211.146L.Liang,H.Ye and G.Y.Li,Spectrum Sharing in Vehicular Networks Based onMulti-Agent Reinforcement Learning,in IEEE Journal on Sele
293、cted Areas inCommunications,vol.37,no.10,pp.2282-2292,Oct.2019,doi:10.1109/JSAC.2019.2933962.147S.Maghsudi and S.Staczak,Hybrid CentralizedDistributed Resource Allocation forDevice-to-Device Communication Underlaying Cellular Networks,in IEEETransactions on Vehicular Technology,vol.65,no.4,pp.2481-2
294、495,April 2016,doi:10.1109/TVT.2015.2423691.148Y.Wei,F.R.Yu,M.Song and Z.Han,User Scheduling and Resource Allocation inHetNets With Hybrid Energy Supply:An Actor-Critic Reinforcement LearningApproach,in IEEE Transactions on Wireless Communications,vol.17,no.1,pp.680-692,Jan.2018.149L.Xiao,Y.Li,C.Dai
295、,H.Dai and H.V.Poor,Reinforcement Learning-Based NOMAPower Allocation in the Presence of Smart Jamming,in IEEE Transactions onVehicular Technology,vol.67,no.4,pp.3377-3389,April 2018.92 150W.Cui,K.Shen and W.Yu,Spatial Deep Learning for Wireless Scheduling,2018IEEE Global Communications Conference(G
296、LOBECOM),Abu Dhabi,United ArabEmirates,2018,pp.1-6,doi:10.1109/GLOCOM.2018.8647453.151C.Fan,B.Li,C.Zhao,W.Guo and Y.Liang,Learning-Based Spectrum Sharing andSpatial Reuse in mm-Wave Ultradense Networks,in IEEE Transactions on VehicularTechnology,vol.67,no.6,pp.4954-4968,June 2018.152M.Chen,W.Saad an
297、d C.Yin,Echo State Networks for Self-Organizing ResourceAllocation in LTE-U With UplinkDownlink Decoupling,in IEEE Transactions onWireless Communications,vol.16,no.1,pp.3-16,Jan.2017.153S.Wang,H.Liu,P.H.Gomes and B.Krishnamachari,Deep Reinforcement Learningfor Dynamic Multichannel Access in Wireless
298、 Networks,in IEEE Transactions onCognitive Communications and Networking,vol.4,no.2,pp.257-265,June 2018.154J.Zhu,Y.Song,D.Jiang and H.Song,A New Deep-Q-Learning-Based TransmissionScheduling Mechanism for the Cognitive Internet of Things,in IEEE Internet ofThings Journal,vol.5,no.4,pp.2375-2385,Aug.
299、2018.155Y.S.Nasir and D.Guo,Multi-Agent Deep Reinforcement Learning for DynamicPower Allocation in Wireless Networks,in IEEE Journal on Selected Areas inCommunications,vol.37,no.10,pp.2239-2250,Oct.2019.156G.Alnwaimi,S.Vahid and K.Moessner,Dynamic Heterogeneous Learning Games forOpportunistic Access
300、 in LTE-Based Macro/Femtocell Deployments,in IEEETransactions on Wireless Communications,vol.14,no.4,pp.2294-2308,April 2015.157L.Wang,Y.Chao,S.Cheng and Z.Han,An Integrated Affinity Propagation andMachine Learning Approach for Interference Management in Drone Base Stations,inIEEE Transactions on Co
301、gnitive Communications and Networking,vol.6,no.1,pp.83-94,March 2020.158Barcelo J,Bellalta B,Cano C,et al.Learning-BEB:Avoiding Collisions in WLANsJ.Carrier Sense Multiple Access with Enhanced Collision Avoidance,2009:23.159K.W.Choi and E.Hossain,Opportunistic Access to Spectrum Holes Between Packet
302、Bursts:A Learning-Based Approach,in IEEE Transactions on WirelessCommunications,vol.10,no.8,pp.2497-2509,August 2011.160Yibo Zhu,Haggai Eran,Daniel Firestone,Chuanxiong Guo,Marina Lipshteyn,Yehonatan Liron,Jitendra Padhye,Shachar Raindel,Mohamad Haj Yahia,and MingZhang.Congestion Control for Large-S
303、cale RDMA Deployments.In SIGCOMM,2015.161Zhang L,Wang M,Yang Z,et al.Machine Learning for Internet Congestion Control:Techniques and ChallengesJ.IEEE Internet Computing,2019,23(5):59-64.162Hongzi Mao,Ravi Netravali,and Mohammad Alizadeh.Neural Adaptive VideoStreaming with Pensieve,2017,SIGCOMM 17.AC
304、M,New York,NY,USA,197-210.163Qi Chen,Wei Wang,F.Richard Yu,Meixia Tao,Zhaoyang Zhang,Content CachingOriented Popularity Prediction:A Weighted Clustering Approach,IEEE Transactionson Wireless Communications,early access.164N.Jay,N.Rotman,B.Godfrey,M.Schapira,and A.Tamar,“A deep reinforcementlearning
305、perspective on Internet congestion control,”in Proc.36th Int.Conf.Mach.Learn.,2019,vol.97,pp.30503059.165Letaief K.B.,Chen W.,Shi Y.,et al.The roadmap to 6G:AI empowered wirelessnetworks.IEEE Communications Magazine 57.8(2019):84-90.166S.M.S.Tanzil,W.Hoiles and V.Krishnamurthy,Adaptive Scheme for Ca
306、chingYouTube Content in a Cellular Network:Machine Learning Approach,in IEEE Access,vol.5,pp.5870-5881,2017,doi:10.1109/ACCESS.2017.2678990.93 167Y.Jiang,M.Ma,M.Bennis,F.Zheng and X.You,User Preference Learning-BasedEdge Caching for Fog Radio Access Network,in IEEE Transactions onCommunications,vol.
307、67,no.2,pp.1268-1283,Feb.2019,doi:10.1109/TCOMM.2018.2880482.168Qi Chen,Wei Wang,Wei Chen,F.Richard Yu,Zhaoyang Zhang,“Cache-EnabledMulticast Content Pushing with Structured Deep Learning,”IEEE Journal of SelectedAreas in Communications,submitted.169P.Cheng et al.,Localized Small Cell Caching:A Mach
308、ine Learning Approach Basedon Rating Data,in IEEE Transactions on Communications,vol.67,no.2,pp.1663-1676,Feb.2019,doi:10.1109/TCOMM.2018.2878231.170Juan Wen,Min Sheng,Jiandong Li,and Kaibin Huang,“Assisting Intelligent WirelessNetworks with Traffic Prediction:Exploring and Exploiting Predictive Cau
309、sality inWireless Traffic,”IEEE Commun.Mag.,vol.58,no.6,June 2020,pp 26-31171Z.Yang,Y.Liu,Y.Chen and L.Jiao,Learning Automata Based Q-Learning forContent Placement in Cooperative Caching,in IEEE Transactions on Communications,vol.68,no.6,pp.3667-3680,June 2020,doi:10.1109/TCOMM.2020.2982136.172L.Ale
310、,N.Zhang,H.Wu,D.Chen and T.Han,Online Proactive Caching in MobileEdge Computing Using Bidirectional Deep Recurrent Neural Network,in IEEEInternet of Things Journal,vol.6,no.3,pp.5520-5530,June 2019,doi:10.1109/JIOT.2019.2903245.173W.Chen and H.V.Poor,Content Pushing With Request Delay Information,in
311、 IEEETransactions on Communications,vol.65,no.3,pp.1146-1161,March 2017,doi:10.1109/TCOMM.2017.2648800.174Y.Lu,W.Chen and H.V.Poor,Coded Joint Pushing and Caching With AsynchronousUser Requests,in IEEE Journal on Selected Areas in Communications,vol.36,no.8,pp.1843-1856,Aug.2018,doi:10.1109/JSAC.201
312、8.2844918.175 W.Chen and H.V.Poor,Caching With Time Domain Buffer Sharing,in IEEETransactions on Communications,vol.67,no.4,pp.2730-2745,April 2019,doi:10.1109/TCOMM.2018.2884973.176H.Hui,W.Chen and L.Wang,Caching with Finite Buffer and Request DelayInformation:A Markov Decision Process Approach,in
313、IEEE Transactions on WirelessCommunications,doi:10.1109/TWC.2020.2989513.177C.Jiang,H.Zhang,Y.Ren,Z.Han,K.Chen and L.Hanzo,Machine LearningParadigms for Next-Generation Wireless Networks,IEEE Wireless Communications,vol.24,no.2,pp.98-105,April 2017.178 N.C.Luong,D.T.Hoang,S.Gong,D.Niyato,P.Wang,Y.Li
314、ang and D.I.Kim,Applications of Deep Reinforcement Learning in Communications and Networking:ASurvey,IEEE Communications Surveys&Tutorials,vol.21,no.4,pp.3133-3174,May 2019.179 N.Zhao,Y.Liang,D.Niyato,Y.Pei,M.Wu and Y.Jiang,Deep ReinforcementLearning for User Association and Resource Allocation in H
315、eterogeneous CellularNetworks,IEEE Transactions on Wireless Communications,vol.18,no.11,pp.5141-5152,Nov.2019180 H.Ye,G.Y.Li and B.F.Juang,Deep Reinforcement Learning Based ResourceAllocation for V2V Communications,IEEE Transactions on Vehicular Technology,vol.68,no.4,pp.3163-3173,April 2019.181A.Za
316、ppone,E.Bjrnson,L.Sanguinetti,and E.Jorswieck,“Globally optimalenergy-efficient power control and receiver design in wireless networks,”IEEETransactions on Signal Processing,vol.65,no.11,pp.28442859,Jun.2017.94 182J.Hu,H.Zhang,L.Song,Z.Han and H.V.Poor,Reinforcement Learning for aCellular Internet o
317、f UAVs:Protocol Design,Trajectory Control,and ResourceManagement,IEEE Wireless Communications,vol.27,no.1,pp.116-123,Feb.2020183M.Chu,H.Li,X.Liao and S.Cui,Reinforcement Learning-Based MultiaccessControl and Battery Prediction with Energy Harvesting in IoT Systems,IEEE Internetof Things Journal,vol.
318、6,no.2,pp.2009-2020,April 2019184H.Wang,Y.Wu,G.Min,J.Xu and P.Tang,“Data-driven dynamic resource schedulingfor network slicing:A deep reinforcement learning approach,”Information Sciences,vol.498,pp.106-116,Sept.2019.185 J.Perolat,JZ.Leibo,V.Zambaldi,C.Beattie,K.Tuyls and T.Graepel,“A Multi-AgentRei
319、nforcement Learning Model of Common-Pool Resource Appropriation,”in Proc.Advances in Neural Information Processing Systems,2017,pp.3643-3652.186H.Sun,X.Chen,Q.Shi,M.Hong,X.Fu and N.D.Sidiropoulos,Learning toOptimize:Training Deep Neural Networks for Interference Management,IEEETransactions on Signal
320、 Processing,vol.66,no.20,pp.5438-5453,Oct.2018.187J.Liu,H.Dai and W.Chen,“Delay Optimal Scheduling for Energy Harvesting BasedCommunications,”IEEE Journal on Selected Areas in Communications,vol.33,no.3,pp.452466,Mar.2015.188M.Wang,J.Liu,W.Chen,and A.Ephremides,“Joint Queue-Aware and Channel-AwareDe
321、lay Optimal Scheduling of Arbitrarily Bursty Traffic over Multi-State Time-VaryingChannels,”IEEE Transactions on Communications,vol.67,no.1,pp.503517,Jan.2019.189X.Zhao and W.Chen,Non-Orthogonal Multiple Access for Delay-SensitiveCommunications:A Cross-Layer Approach,IEEE Transactions on Communicati
322、ons,vol.67,no.7,pp.5053-5068,July 2019.190Danni Guo,Wei Wang,Qi Chen,Nan Zhao,and Zhaoyang Zhang,“Queue-StableDynamic Compression and Transmission with Mobile Edge Computing,”IEEEInternational Conference on Communications(ICC 2019),May 2019.191Yang K.,Jiang T.,Shi Y.,et al.Federated learning via ove
323、r-the-air computationJ.IEEETransactions on Wireless Communications,2020,19(3):2022-2035.192Chen M.,Yang Z.,Saad W.,et al.A joint learning and communications framework forfederated learning over wireless networksJ.arXiv preprint arXiv:1909.07972,2019.193Chen M.,Poor H.V.,Saad W.,et al.Convergence tim
324、e optimization for federatedlearning over wireless networksJ.arXiv preprint arXiv:2001.07845,2020.194S.Luo,X.Chen,Q.Wu,Z.Zhou and S.Yu.“HFEL:Joint Edge Association andResource Allocation for Cost-Efficient Hierarchical Federated Edge Learning”,IEEETransactions on Wierless Communications,Vol.19,No.10
325、,pp.6535 6548,2020.195Wang S.,Tuor T.,Salonidis T.,et al.Adaptive federated learning in resource constrainededge computing systemsJ.IEEE Journal on Selected Areas in Communications,2019,37(6):1205-1221.196Yang Y.,Zhang Z.,and Yang Z.Over-the-Air Split Learning with MIMO-Based NeuralNetwork and Const
326、ellation-Based Activation,to appear in 32nd IEEE Workshop onMachine Learning for Signal Processing(MLSP 2022),Xian,China,Aug.2022.197S.Zheng,C.Shen,and X.Chen,“Design and Analysis of Uplink and DownlinkCommunications for Federated Learning,”IEEE Journal on Selected Areas inCommunications,vol.39,no.7
327、,pp.21502167,Dec.2020,doi:10.1109/JSAC.2020.3041388.95 198Y.Tian,Z.Zhang,Z.Yang and R.Jin,Hierarchical Federated Learning with AdaptiveClustering on Non-IID Data Distribution,2022 IEEE Global CommunicationsConference,pp 1-6,2022.199Yang Z.,Chen M.,Saad W.,et al.Delay Minimization for Federated Learn
328、ing OverWireless Communication NetworksJ.arXiv preprint arXiv:2007.03462,2020.200Li T.,Sahu A.K.,Talwalkar A.,et al.Federated learning:Challenges,methods,andfuture directionsJ.IEEE Signal Processing Magazine,2020,37(3):50-60.201Yang Z.,Chen M.,Saad W.,et al.Energy efficient federated learning over w
329、irelesscommunication networksJ.arXiv preprint arXiv:1911.02417,2019.202Hosseinalipour S.,Brinton C.G.,Aggarwal V.,et al.From Federated Learning to FogLearning:Towards Large-Scale Distributed Machine Learning in HeterogeneousWireless NetworksJ.arXiv preprint arXiv:2006.03594,2020.203Han D,Chen W,Bai
330、B,et al.Offloading optimization and bottleneck analysis formobile cloud computing.IEEE Transactions on Communications,2019,67(9):6153-6167.204Fa Rsad N,Rao M,Goldsmith A.Deep Learning for Joint Source-Channel Coding ofText,in Proc.IEEE Intl.Conf.Acoustics Speech Signal Process.(ICASSP18),Calgary,AB,
331、Canada,2018:23262330.205Bourtsoulatze E,Kurka D B,Gunduz D.Deep Joint Source-Channel Coding forWireless Image Transmission,in Proc.IEEE Intl.Conf.Acoustics Speech Signal Process.(ICASSP18),Calgary,AB,Canada,2018:4774-4778.206Shi,G.,Gao,D.,Song,X.,Chai,J.,Yang,M.,Xie,X.,Li,L.,&Li,X.A newcommunication
332、 paradigm:from bit accuracy to semantic fidelity.ArXiv,2021:abs/2101.12649.207Han D,Chen W,Fang Y.Joint channel and queue aware scheduling for latency sensitivemobile edge computing with power constraints.accepted by IEEE Transactions onWireless Communications,2020.208Huangfu,Yourui,et al.Predicting
333、 the mumble of wireless channel withsequence-to-sequence models.2019 IEEE 30th Annual International Symposium onPersonal,Indoor and Mobile Radio Communications(PIMRC).IEEE,2019.209Huangfu,Yourui,et al.Realistic Channel Models Pre-training.2019 IEEE GlobecomWorkshops(GC Wkshps).IEEE,2019.210Study on channel model for frequencies from 0.5 to 100 GHz,3GPP TR 38.901 version17.0.0 Std.,April 2022.211Al