《華為:計算2030白皮書(38頁).pdf》由會員分享,可在線閱讀,更多相關《華為:計算2030白皮書(38頁).pdf(38頁珍藏版)》請在三個皮匠報告上搜索。
1、構建萬物互聯的智能世界計算十年前,人類進入ZB1數據時代,移動互聯網、云計算、大數據剛剛起步;今天,這些技術已經深刻地改變人類社會,計算發揮了前所未有的作用。2030年,人類將迎來YB1數據時代,對比2020年,通用算力增長10倍、人工智能算力增長500倍2。數字世界和物理世界無縫融合,人與機器實現感知、情感的雙向交互;人工智能無所不及,幫助人類獲得超越自我的能力,成為科學家的顯微鏡與望遠鏡,讓我們的認知跨越微小的夸克到廣袤的宇宙,千行萬業從數字化走向智能化;計算能效將持續提升,走向低碳計算,幫助人類利用數字手段加速實現碳中和目標。未來十年,計算將幫助人類跨入智能世界,這是一個波瀾壯闊的史詩進
2、程,將開啟一個與大航海時代、工業革命時代、宇航時代等具有同樣歷史地位的新時代。前言宏觀趨勢未來計算場景更聰明的AI 更普惠的AI 更縱深地感知超越現實的體驗更精確地探索未知更準確地模擬現實 數據驅動的業務創新更高的運營效率計算2030愿景及關鍵特征 智能認知 內生安全綠色集約多樣性計算 多維協同物理層突破 計算2030倡議附錄參考縮略語致敬 目錄P01 P02 P11P31P31計算 20301計算經過半個世紀的發展,已經深深地融入了人類的生活和工作。未來10年,計算作為智能世界的基石,將持續推動社會經濟發展和科學進步。面向2030年,中國、歐盟、美國等均將計算作為戰略方向重點布局。在中國十四
3、五規劃和2035年遠景目標綱要中,將高端芯片、人工智能、量子計算、DNA存儲等作為強化中國的戰略科技力量;在歐盟2030數字指南針:歐洲數字十年之路中,計劃到2030年,75%的歐盟企業將充分運用云計算、大數據或人工智能,打造歐盟首臺量子計算機;而美國,則再次提出“無盡前沿”,借助法案和撥款,推動美國在人工智能、高性能計算&半導體、量子計算、數據存儲和數據管理技術等領域的領先性研究。2030年,數字世界和物理世界無縫融合,人與機器實現感知、情感的雙向交互,計算具備模擬、還原、增強物理世界的能力,超現實體驗將驅動計算走向邊緣,云與邊緣、邊緣與邊緣、虛擬與現實多維協同計算;人工智能將從感知走向認知
4、,具備創造的能力,更加普惠并賦予萬物智能;科學探索的邊界將不斷擴展,帶來算力需求的快速增加,未來將出現100EFLOPS2級的超級算力和智能的科學研究新范式;碳中和目標驅動計算走向綠色,未來將更好地匹配綠色能源和業務體驗。計算所依賴的半導體技術逐步接近物理極限,計算將迎來創新的黃金10年,軟件、算法、架構、材料的創新和突破將開啟智能、綠色、安全的計算新時代。預計2030年,全球數據年新增1YB;通用算力增長10倍到3.3ZFLOPS,人工智能算力增長500倍超過100ZFLOPS2。宏觀趨勢計算 20302未來計算場景計算 20303更聰明的AI行:AI智慧交通 智能交通領域,通過攝像頭、雷達
5、、氣象傳感器等采集各種數據,邊緣完成車輛識別、交通事件識別、路面狀況識別,生成局部路段的全息數據,并在云端形成城市級道路數字孿生,實現車道級實時路況、歷史路況的全息呈現。通過云端策略計算,可以對每輛車、每條道路生成不同的交通指令,指揮車輛、調節交通信號,從而更高效、低碳的完成出行。預計2030年,全球道路上的電動汽車、面包車、重型卡車和公共汽車數量將達到1.45億輛。每輛汽車行駛中產生的數據(一輛車平均每天行駛2小時,行駛中每秒上傳的壓縮數據將從現在的10KB升至1MB,10萬輛車智能網聯汽車每天需要傳輸的數據量大約為720TB)需要在汽車與城市之間頻繁進行數據交換,借助智慧交通基礎設施的海量
6、數據存儲和分析能力,城市通勤時間將得到大幅提升(日均通勤縮短15-30分鐘),交通事故和汽車對城市碳排放量也隨之大幅降低。以計算為核心,持續支撐交通的數字化升級和智慧化管理。大交通從“運力”時代進入“算力”時代是歷史的必然選擇,“算力”帶來的交通安全、效率、體驗的提升,必將釋放出新的生產力,推動社會經濟的發展。行:AI無人駕駛 隨著L4級的自動駕駛規模商用,數據被源源不斷地送往數字孿生,AI在數字世界中不斷學習訓練,自動駕駛AI將變得越來越聰明,最終將在應對復雜路況、極端天氣超越人類,實現更高級L5級的完全自動駕駛。智能駕駛算力需求增長會遠超摩爾定律,隨著邊界案例(Corner Case)的不
7、斷積累,算力需求不斷增長,到2030年L4+自動駕駛汽車的單車算力將達到5000T。智能駕駛將驅動將無監督學習或弱監督學習帶入數據閉環中,利用車端快照獲取的圖片和視覺信息,實現自動化無監督的視頻級AI機器學習訓練。自動駕駛催生端云協同的計算需求,未來單個車廠的云端至少需要10EFLOPS以上的算力。城:智慧的城市城市占據全球2%的面積,居住著超過全球50%以上的人口,消耗了全球2/3的能源、排放了70%的溫室氣體(250多億噸二氧化碳)。城市的智慧化治理成為實現城市可持續發展的必然選擇。智慧城市中的物聯網傳感器則持續生成城市運行的環境數據,未來,每一個物理實體都將有一個數字孿生,如城市樓宇、水
8、資源、基礎設施等將組成城市數字孿生,實現更加智能的城市管理。城市智慧治理將帶來100倍的社會數據聚集,實現高效城市治理。智慧能源基礎設施借助數據的保存和分析能力將城市能源消耗中供需二者協調到一個系統中,以實時數據處理來實現城市能源的高效調度。例如:通過城市能源的消耗數據繪制出城市實時能效地圖,動態監控能源計算 20304的使用情況,再針對性的進行能源調度,將居民高峰用電平均需求減少15%以上。城市中每個居民息息相關的氣象、海洋、地震等公共服務,背后也是依賴大量的數據計算處理。通過更多元、更大量的城市及自然環境數據,智慧公共服務將可以更好地預測天氣、海洋和地震對城市生活的影響,從而使城市在面對極
9、端事件時更具韌性。每個居民還可以通過這些智慧化的公共服務,結合自身地理位置等信息,以定制化的信息判斷氣候或突發事件對自身的影響。數據是智慧城市高效運作的核心要素,如何對生成的海量數據進行有效管理和使用是智慧城市發展繞不開的主題。更普惠的AI醫:AI精準醫療 在醫療領域,人工智能已經可以自動識別出微小的肺結節,與以往肉眼識別、手工標識相比可以節省醫生大量的時間。未來人工智能將在更加復雜的問診中,深入參與醫生的病情推理過程,與醫生“討論病情”,為醫生提供可解釋的診斷依據和預期療效分析。這將使得人工智能出方案、醫生審核成為普遍的診療模式。世界衛生組織估計到2030年,將出現1800萬衛生工作者的短缺
10、,人工智能將為人類應對這一挑戰提供有力的幫助。醫:AI藥物篩選 AI將更加透明,不再是一個黑盒,不僅會告知結論,同時也會告知如何得出結論的,讓人類明白AI的思考過程,和人類建立彼此的互信。有了這樣的基礎,AI就可以在更廣的范圍內發揮更大的作用,幫助人類完成復雜的任務,比如:進行抗病毒藥物篩選,AI會告訴我們選出藥物的原因,而不是只給出一個藥物列表(通常情況下,如果我們只是看到一個結果,將很難做出決策)。教育:個性化教育 人類訓練人工智能的過程,同時也是認識自己的過程,人工智能使得認識人類的智能、人腦的規律變得更加重要,進而重新認識教育、改革教育3。未來人工智能將改變人類自己的學習、認知的過程。
11、如人工智能教員通過精細化地分析學生的行為、習慣、能力等,制定個性化的教學內容、計劃和教學方式,學生計算 20305的學習潛力將得到極大的挖掘,接納新知識更多、更容易。人工智能進入人類生活的方方面面,讓我們更高效的思考、創作、學習,讓優質稀缺的資源變得更加容易獲得,將在精準醫療、創作設計、文化教育、老人護理、社區服務、自動駕駛等領域普惠每一個人。更縱深地感知預計到2030年,全球聯接總數將達到兩千億,傳感器的數量達到百萬億級,傳感器持續不斷地從物理世界采集數據,溫度、壓力、速度、光強、濕度、濃度等,為了讓機器人具備“視覺、觸覺、聽覺、味覺、嗅覺”,需要更加多維的感知能力。數據量、時延等原因決定了
12、產生感知的計算在邊緣完成,邊緣將具備智能的數據處理能力,例如模仿人類大腦工作的模擬信息處理技術等。未來,大量感知計算將在邊緣完成,處理大約80%的數據。感知智能讓海量數據的采集、分析成為可能,讓更多的行業獲得感知自我的能力,并通過云端的數字孿生與物理世界形成協同,驅動行業的數字化創新。食:智慧農業 未來將建立和完善天空地一體化的智能農業信息遙感監測網絡,互聯網、物聯網、大數據、云計算、人工智能等現代信息技術與農業深度融合,具備農業信息感知、定量決策、智能控制、精準投入、個性化服務的全新農業生產方式將逐步實現。智慧大田、智慧大棚、智慧養殖、智慧種植、噴藥無人機等對邊緣AI計算有廣泛的需求。農業智
13、能傳感與控制系統、智能化農業裝備和農機田間作業自主系統將加快發展農業電子商務、食品溯源防偽、農業休閑旅游、農業信息服務水平,農業將迎來全方位全過程的數字化、網絡化、智能化改造。企業:智能控制設備 人工智能技術將在生產系統中高度普及,融入企業作業各個環節,這將帶來工廠作業模式、人員配置、部門區域協同等一系列的升級。未來10年,人工智能技術將給關鍵生產環節帶來大幅的質量提升與成本收益。AI可以幫助制造企業實現控制層智慧化運營管理、貫通層海量數據分析挖掘以及感知層更低時延診斷預警。中國制造2025提出,制造業重點領域全面實現智能化,試點示范項目運營成本將降低50%,產品生產周期縮短50%,不良品率降
14、低50%。比如,工廠的軸承故障診斷、鋼爐熱異常檢測、電力設備的檢修等深度學習場景,制造工廠可以通過AI技術進行更低時延的診斷預警,提高生產檢測效率,縮短訂單交付周期。企業:生產機器人 未來,從操作機械到指揮機器,人類告別惡劣極端的工作環境。人工智能將參與企業更多的非操作性任務,人與機器形成無縫的協作關系。從產品設計、生產、銷售,到企業架構、員工的雇用和培訓等各個環節,人工智能將驅動企業業務進行徹底的重計算 20306塑。如企業采用人工智能對經濟發展、社會熱點事件等進行分析,判斷行業外部及企業的發展趨勢,或者根據分析結果優化生產計劃、形成方案,為產品概念的開發提供決策建議;特別是在滿足個性化需求
15、的柔性生產中,人工智能的創造能力不僅能夠按照定制要求設計,更能綜合需求變化和產品使用數據生成新的產品設計。預計到2030年,每萬名制造業員工將與390個機器人共同工作,機器準確理解人的指令、準確感知環境、做出決策建議與行動。今天,無人值守的黑燈工廠已開始規模部署,人工智能驅動機器人忙碌于生產線和物流系統,在重復性高的場景中,機器讓人類告別重復枯燥的工作。未來,機器將幫助人類處理非確定場景下危險、惡劣工作,人將從現場操作轉變為遠程指揮,在更加舒適的環境中工作,遠離危險。如在采礦業,中國提出了煤礦智能化發展的目標,到2025年大型煤礦和災害嚴重煤礦基本實現智能化決策和自動化協同運行,井下重點崗位機
16、器人作業,實現井下少人到井下無人,2035年建成智能感知、智能決策、自動執行的煤礦智能化體系。4從操作性工作到創造性工作,企業智能化重塑。未來人工智能深度參與人類的思考,與人形成互動,并呈現出推理的過程,成為可信任的智能,將在金融、醫療、司法等需要高質量決策的復雜場景中發揮巨大作用。未來10年,通過對物理世界的不斷學習,人工智能將更加聰明,從確定性場景到非確定性場景,在越來越多的任務領域中增強人類,幫助人類獲得超越自我的能力。超越現實的體驗?。褐腔劢换ソ裉?,人工智能已經在幫助人類完成一些過去難以完成的任務。例如,通過手機攝像頭可以識別出我們所不認識的植物,并能獲取它的生活習性、栽培方法;機器人
17、幫助增強人類的行動力,如外骨骼機器人輔助病人進行康復;家用機器人則能幫助老人陪伴、家務勞動等智能化工作。預計2030年,家用智能機器人使用率將超過18%。人工智能參與人類的思考和創造過程,需要結果具備可解釋性,并符合人類思考問題的邏輯,具備與人類使用自然語言無縫交流的能力,未來人工智能將實現從感知到認知、從弱人工智能到強人工智能的跨越。當前人工智能在寫詩、作畫上進行了初級嘗試,未來人工智能將完成更加復雜的創造性工作,如電影制作、藝術創作和工業設計等。人工智能能夠提供高度定制化的內容服務,人們可以隨時獲得一幅定制的畫作,一部定制的電影。比如在互動電影的觀看過程中,觀眾可以在觀影中通過不同的選擇來
18、影響劇情走向,人工智能將完成每一條故事線的演繹和視頻生成,因此相同的電影將產生不同的結局,整體內容也更加豐富。未來這種人類提出主題、人工智能實現細節的創作方式將極大地提升人類的創造力、豐富人計算 20307們的生活。?。篈R/VR 數據將構建出眾多的數字空間,旅游景點、全息會議、虛擬展會這些數字空間與物理世界共同組成了一個虛實融合的世界。在虛擬旅行中游覽“真實的”山川、流水;與千里之外的朋友促膝交談;對話先哲,與王陽明一起悟道,與普魯塔克探討特修斯之舟;人與人、人與社會、人與自然、人與機器的交流方式將發生革命性的改變,未來人類的生活、工作和學習方式將重新定義。預計2030年,超過30%的企業在
19、數字世界中運營與創新,各種虛實結合的AR(Augmented Reality,增強現實)/VR(Virtual Reality,虛擬現實)用戶數達到10億。?。禾摂M世界/元宇宙數字世界與物理世界的無縫融合,能夠準確感知和還原物理世界,在虛實結合的世界中理解用戶的意圖,體驗將驅動計算走向邊緣,云與設備、設備與設備、虛擬與現實多維協同計算。云端將實現物理世界的建模、鏡像,經過計算、加入虛擬的元素,形成一個數字的世界;邊緣設備將具備聽覺、視覺、觸覺、嗅覺和味覺能力,人與設備之間實現實時交互;多維協同的計算將用戶所處的環境整體變成一臺超級計算機,計算環境信息、識別用戶意圖,并通過全息、AR/VR、數字
20、嗅覺和數字觸覺等技術進行用戶呈現。更精確地探索未知今天,“高性能計算+物理模型”的方法已被廣泛應用到眾多的科學問題。未來,隨著人類認知邊界的不斷擴展,量子力學、生命科學、地球大氣、宇宙起源的研究,尺度從10-21到1028米,跨越微觀世界到無垠宇宙,科學家需要處理的數據與計算量將爆炸性增長,數字世界算力的規模決定了物理世界探索的廣度和深度。例如,2012年歐洲核子研究組織(CERN)大型強子對撞機(LHC)實驗項目,全球超級計算機組成算力池,幫助科學家從近100PB數據中證明希格斯玻色子的存在;2027年底CERN將投入使用高光度大型強子對撞機(HL-LHC),每秒發生約10億次粒子碰撞,數據
21、計算量將增加50-100倍5,存儲需求達到ZB級。2030年,計算將在更多的領域幫助科學家解決基礎性問題。自然:生態監測 未來人類將環境保護作為重點,將新型科學技術與設備結合人工智能,可有效解決環境惡化帶來的溫室效應,土壤沙化和鹽堿化等各種環境問題的挑戰。以大數據為基礎,利用模型,可以較好地預測出不同管理措施下的結果,并不斷反饋給算法模型,得出更好的治理模式。如精確定位污染源,預測污染擴散等。自然:氣象 未來天氣預報不斷發展為更加復雜的動力數值模式,以求更準確和提前預報天氣。如氣象雷達質量控制、衛星數據反演及同化等氣象數據處理;短時臨近預報、概率預報、臺風海洋天氣預報、極端或災害性天氣預警、風
22、暴環境特征分類、環境預報等天氣氣候分析;以局部短時天氣預報為例 短時強降雨具有極大的破壞性,但受限于海量數據和巨大算力需求,很難實現準確預測。天氣預報從當前的10公里的精度,提升到公里、次公里,數據規模和算力需求提升1001000倍。預計2030年隨著100EFLOPS級超級計算機的出現,更高精度氣候模擬和天氣預報將成為可能,人類能夠更加從容的應對極端天氣。自然:地震預測/海洋預測 計算 20308未來應用人工智能監測地震、實時估算地震震源等將極大提高預報的準確性。從地震記錄推算地震震源機制是個計算耗時的過程,自1938年地震學家第一次開始推算地震斷層面解,震源機制參數一直是個難題。采用人工智
23、能方法有效地解決了這個復雜計算問題,應用地震大數據訓練人工智能神經網絡,可完善預報系統的準確性和可靠性,實現地震預報領域的突破。自然:宇宙結構探測 宇宙大規模結構是重要的科學前沿領域,研究宇宙結構形成和時間演化,從而揭示宇宙的物質組成以及宇宙演化過程、暗物質、暗能量等宇宙學問題。傳統的辦法是根據物理理論,使用超級計算機計算宇宙中各種大規模結構的演化,將其與觀測數據進行對比,但是這需要對數十萬到百萬個宇宙論模型進行精確的計算,目前可觀測的宇宙有2萬億個星系,萬億億個星球,即使全球所有計算資源一起也難以完成。更準確地模擬現實企業:生產仿真100倍精度/風洞仿真計算機風洞仿真已經成為飛機、高鐵和汽車
24、等高速運動產品的重要測試手段。但由于整機仿真計算量巨大,為了得到高精度的仿真結果,需要將測試系統分解成滑行輪胎、發動機等多個子系統,甚至發動機也要拆解成更小的系統,這對驗證整機設計是否滿足要求帶來新的挑戰。未來計算能力將提升23個數量級,風洞仿真有望實現更大級別子系統,甚至整機的高精度仿真測試。醫:AI新藥探索 2013年諾貝爾化學獎授予了在開發多尺度復雜化學系統模型中做出突出貢獻的科學家,評選委員會在聲明中闡述道:對于化學家來說,計算機是與試管同等重要的工具,計算機對真實生命的模擬已成為當今化學領域中大部分新研究成果成功的關鍵因素。組 合 量 子 力 學/分 子 力 學 方 法(Q M/MM
25、6)建模是當前研究酶催化機理最可靠的計算模擬方法之一,核心區域采用高精度QM模型、外圍采用低精度MM模型,兼顧量子力學的精確性和分子力學的高效性。用該模型模擬0.2微米生殖支原體細胞2小時的生長繁殖過程,超級計算機Summit7需要計算 20309耗費10億年。對于更復雜的人腦思維、記憶和行為研究,如模擬人腦在特定刺激下的反應,每一小時模擬Summit需要計算1024年8。圖靈獎得主吉姆格雷(Jim Gray)將科學研究分為四類范式,即實驗、理論、計算機仿真和數據密集型科學發現。今天,在生物、材料、化學、宇宙等演化復雜度極高的研究方向上,傳統的計算方法面臨變量數量、自由度增多帶來的“維度災難”
26、挑戰,算力需求呈指數級增長。人工智能將為解決“維度災難”開辟新的解決辦法,為科學研究打開新的探索之道。例如,采用傳統方法分析單個蛋白質的折疊結構,需要耗費科學家數年時間;通過人工智能學習已知的1.8萬種蛋白質折疊結構,可以在幾天內獲得對未知蛋白質折疊的原子精度模擬結果。這一成果使得癌癥、老年癡呆等細胞內蛋白質結構變化引起的世紀難題的預防、治療成為可能。2020年戈登貝爾獎9的研究工作,利用人工智能實現了1億原子規模模擬,比過去的同類工作計算空間尺度至少增大100倍,同時計算速度提高至少1000倍,實現了傳統方法無法模擬的大尺度計算,將精確的物理建模帶入了更大尺度的材料模擬中10。未來科學計算將
27、向著數據、計算、智能融合的方向發展,催生新的科學研究范式。通過人工智能學習已有知識、分析總結理論,在線迭代結合傳統建模的方法將極大的提高科學探索效率,加速人類認知的不斷擴展。數據驅動的業務創新企業:算力挖掘數據價值 云計算和大數據已經成為行業數字化的基礎,驅動以管理效率提升為目標的數字化,其特點是優化生產關系,更好的匹配生產力和客戶需求,如O2O(Online to Offline,線上到線下)服務、電商平臺等。企業:10倍的新業務開發需求 端邊云全棧Serverless化成為支撐企業數字化、智能化轉型中應用現代化改造的主流技術,基于云原生計算模式的編程語言、語言runtime、應用調度、運行
28、、運維,成為構建全棧Serverless化、現代化軟件的基礎,實現全面應用上云,構筑10X的性能、效率、成本優勢。更高效的運營效率企業:精細化的資源使用 計算 203010云技術的廣泛運用將使企業更加便捷地使用計算資源,新的計算技術可以讓企業消費資源的粒度更小、調度的時間更短,這將大量減少企業計算資源的浪費。例如,在非云化時代,處理器僅有10%的利用率,容器技術則將這一比例提升到了40%以上,未來新的資源管理技術的廣泛采用將進一步減少50%以上的資源浪費。企業:軟件定義運營 IT越來越成為企業生產系統的重要組成部分?;ヂ摼W企業因為采用DevOps11(敏捷開發和開發運維一體化)而變得敏捷高效。
29、2030年,工業制造等傳統企業將在更加復雜的產業鏈上下游環境中實現由軟件定義的高效企業運營。工業物聯網將驅動全球的供應、制造、維護、交付和客戶服務等業務流程實現廣泛聯接,各類公司將集體組成一個跨越全球的價值網絡,企業的數字化轉型將從內到外轉移至整個產業鏈的優化與協同,對數據的依賴從企業自身的數據擴展到產業鏈的上下游甚至是整個社會。未來企業將通過軟件處理跨組織復雜協同,通過軟件快速定義業務的運營,比如,流程自動化機器人、無代碼/低代碼等開發技術,通過人工智能支撐的自然語言編寫程序,調用機器人自動化軟件的能力,申請各類服務資源,編排各種業務流程,普通員工即可完成工作流程的優化和問題的解決。企業:低
30、碳DC 2030年,數據中心將在算力提升百倍的同時實現低碳的目標,企業將獲得更加綠色的計算資源。創新計算架構的引入,計算能效將極大的提升。例如,傳統計算過程中超過60%能耗集中在數據遷移,而未來以數據為中心的計算將使得能效提升數十倍。模擬計算如量子計算、模擬光計算將逐步成為重要的算力來源,能源效率更能得到指數級的提升。碳中和目標的驅動下,未來數據中心將受能源分布、算力需求分布的雙重影響,計算架構將在更大的空間維度上發生變化,通過算力網絡可以更好的匹配綠電、時延、成本的差異,實現全局最優的PUE(Power Usage Effectiveness,能源利用效率)與碳排放??蓪⑷斯ぶ悄苡柧?、基因測
31、序任務放到綠色能源豐富和氣溫較低的地區,工業控制應用、AR/VR放到靠近客戶生產環境的地區。計算 203011智能認知AI從感知走向認知是必然趨勢,認知智能是人工智能技術發展的高級階段,旨在賦予機器數據理解、知識表達、邏輯推理、自主學習等的能力,使機器成為人類改造世界、提升能力的得力助手。在從感知智能到認知智能的發展過程中,語義及知識的表達和邏輯推理,是進行認知的重要手段,而多模態學習則是獲得信息融合和協同的重要手計算 2030 愿景及關鍵特征物理層突破綠色集約智能認知多維協同多樣性計算內生安全計算2030計算 203012段。通過構建多模態的大規?;A模型,可以學習多種信息的融合表征,建立模
32、態轉換和協同關聯,從而提高AI系統對于復雜環境的認知和理解能力,進而獲得多場景多任務的AI應用能力。通用基礎模型AI從感知走向認知是發展趨勢:人工智能從早期的計算智能,升級到現在的感知智能,并將逐步走向認知智能。機器在運算速度和存儲方面具有一定的優勢;感知智能方面,利用深度學習和大數據分析,機器在視覺、聽覺、觸覺等方面執行確定任務的能力上接近人類;認知智能使得機器具有類人的理解和推理等能力,成為人類認知世界,改造世界的有利工具。從弱人工智能到強人工智能發展的路線上,提高機器解決問題的“泛化”能力,是重要的手段。在場景泛化、模態泛化、任務泛化等方面,通過大規?;A模型的領域通用方法,賦予AI系統
33、解決多問題的能力。多模態學習是構建基礎模型的重要手段:多模態首先要解決數據異構性問題,由此帶來的一系列挑戰包括:如何利用跨模態數據的互補性及冗余性做好表征學習;如何處理跨模態數據的強弱關聯性做好表征學習后的向量關系映射;如何處理訓練場景下某個或某類模態數據缺失后模型自適應的學習及遷移能力保障模型精度維持在可接受范圍內;如何處理推理場景下某個或某些模態數據缺失后的模型拓撲路由提高推理增益等。從發展趨勢看,多模態模型應具備跨模態自監督學習與通用知識遷移能力,可以使不同領域任務在多模態框架下實現統一。多模態學習將在以下關鍵領域實現突破:一是預訓練數據標注技術,關聯解譯文本、音頻和視頻幀等;二是多流編
34、解碼技術,從單模 高效表征學習 精準關系映射 自適應學習(訓練)模型拓撲路由(推理)計算 203013態預訓練模型到多模態關聯編碼,可實現多模態信息弱關聯學習,解碼器支持跨模態轉換與生成任務;三是自監督學習技術,實現文本、語音、視覺等各模態信息的語義對齊及相互預測;四是下游任務微調技術,實現多模態語義理解、多模態生成等任務;五是多模態模型小型化技術。自動自治AI目前,深度學習的開發及應用并未突破主流監督學習的模式,數據清洗、數據標注,模型的設計、開發、訓練和部署等都需要大量人力投入。遷移學習、小樣本、零樣本、自監督、弱監督、半監督、無監督及主動學習等新方法,將推動人工智最終實現“自治”,解決模
35、型訓練、迭代、設計對人工的依賴。未來AI自治使得模型更加歸一,多種任務共享相同的模型結構,數據規模進一步擴大,不再需要人工干預,模型可以在線學習吸收新的數據知識,實現自身能力的迭代提升。數據規模擴大及在線學習將使模型的生產更加集約化,各行業的業務模型會匯聚成幾個甚至一個超大模型。自治AI仍面臨如下挑戰:1)從依賴人工顯式標注轉向自監督,由訓練過程中轉向執行過程中同步自反饋。2)目前模型學習到的表征都是自然產生的,多次訓練的模型內在表征大相徑庭,需要克服災難性遺忘,在線持續學習,形成流式訓練、訓推一體。3)從人工設計多個模型匹配不同任務,到單模型學習多任務編碼,在線按需切換。類腦智能當前的深度學
36、習技術主要以數據驅動,嚴重依賴于大量的標簽數據和超強算力,基于反向傳播的訓練算法,在模型魯棒性、泛化能力和可解釋性上都需要持續增強。類腦智能期望借鑒和模仿生物神經元的工作模式,通過構建功能更加豐富的神經元,具有事件觸發、脈沖編碼、時間和空間信息協同處理的能力;利用神經動力學原理,可實現短時可塑性和長期記憶,在開放環境中具備自適應調整和學習能力;借鑒生物腦的稀疏連接和遞歸特性,沒有脈沖發放就不會產生計算,可大大減少能耗。如果能夠突破相關技術,未來五到十年類腦計算可能會在很多計算任務中展現出性能和功耗方面的優勢,并在智能終端、穿戴式設備、自動駕駛等領域得到應用。由于當前對人腦學習機理的研究還不夠透
37、徹,其學習效率、運算精度相對深度學習還有差距。未來類腦智能需要從兩個方向突破:一是自下而上,模擬生物腦中的脈沖神經網絡,借助神經形態芯片實現一定規模神經元和突觸,并在時序相關的應用中實現低功耗低時延;二是自上而下,從功能角度構建神經動力學理論和認知理論,并將其與人工智能結合,實現更魯棒、更通用的智能。計算 203014生成性AI生成性AI(Generative AI)技術作為最佳的自動化內容生產力要素,允許計算機抽象與輸入(例如文本,音頻文件或圖像)有關的基礎模式,使用它來生成期望的內容,可以用于身份保護、圖像修復、音頻合成、抗菌肽(AMP)藥物研究等領域。生成性AI與訓練數據保持相似,而不是
38、簡單的復制,可將人類創意融入設計和創作過程。如結合3D游戲生成引擎,測試挑戰智能體的視覺、控制、路線規劃和整體游戲能力,加速智能體的訓練。在生成性AI應用開發中,具有隨時間動態改進、自我進化能力的生成模型是關鍵。生成性AI具有如下挑戰:1)某 些 生 成 模 型(例 如 G A N,Generative Adversarial Network,生成式對抗網絡)不穩定且難以控制其行為,如生成圖片的精確度不足,無法產生預期的輸出,并很難判斷原因。2)當前生成性AI算法仍需要大量的訓練數據,不能創造全新的事物,這要依賴自我更新、自我進化的算法突破。3)惡意行為者可以將生成性AI用于欺詐目的,利用人工
39、智能工具的本身漏洞進行遠程攻擊,導致數據泄露、模型篡改、虛假垃圾郵件等事件,對網絡信息安全形成極大威脅。知識計算人工智能在行業中的應用,要能夠通過跨學科的領域專家知識進行綜合決策,形成完善的知識抽取、知識建模、知識管理、知識應用的技術體系。未來十年知識計算將實現知識抽取從文本、結構化特征,到多模態知識對齊、抽取與融合,復雜任務知識抽取,跨領域綜合知識抽取等復雜、多層次知識發展的跨越;知識建模則向垂直場景化、原子化、自動化、規?;闹R圖譜,進一步向垂直場景知識圖譜與通用知識圖譜的融合發展;知識的應用從簡單的查詢、預測,向因果推理、長距離推理、知識遷移等高階認知方向發展。知識計算的應用需要在算法
40、上突破海量稀疏信息檢索、不定長的知識引入、知識注意力(Knowledge Attention),大規模圖式計算;在認知智能的訓練模式上,需要突破訓練推理時高頻度知識檢索、知識結合的訓練特征提升等;在計算上,需要解決高頻度的隨機檢索訓練與推理,高速數據通路,諸如隨機漫步(RandomWalk)、結構采樣的圖式計算等問題。內生安全計算云化打破了傳統安全邊界,傳統基于信任域劃分的外掛式安全防護方案已經無法應對各種新型攻擊方法的挑戰。安全應該具備內生的特點;1)安全是系統的內生能力,是芯片、固件、軟件必備的基本特性;2)安全貫計算 203015穿存儲、計算、傳輸等數據處理的全過程,以抵御各環節安全攻擊
41、;3)硬件構建安全信任根,由于系統權限分級的原因,安全功能需要基于硬件的最高特權來實現,才能在操作系統及應用上提供可靠的安全服務,并且通過硬件加速的方式來提升安全服務的性能。4)安全開源開放,為了使安全服務能充分融入到各個業務軟件中,安全服務應以開源開放的形式提供,讓業務軟件結合自身軟件架構特點,將安全特性融入到業務中,從而保證業務安全。數字信任與隱私數據處理的本質是算法施加算力于數據。如果這3個要素全部由數據所有者控制,則不涉及數字信任與隱私問題;但云計算導致要素分離,算法與算力都是由算力提供商提供,用戶(數據擁有者)需要上傳數據到云端處理,即使用戶信任算力提供商,也無法信任算力提供商擁有特
42、權的管理員。因此云計算場景下安全的主要挑戰在于如何保護用戶數據與隱私,需要重建數字信任體系。為重建數字信任體系各國政府相繼出臺數據保護法,為數字信任體系的建立確立了法律依據。同時,數字身份與隱私計算成為重建整個數字信任體系的關鍵技術,其中數字身份是數據確權的基礎,隱私計算可以在保護數據本身不對外泄露的前提下實現數據分析處理:1)基于TEE(Trusted Execution Environment,可信執行環境)實現敏感數據處理的硬件隔離技術,主要挑戰在于硬件安全隔離機制實現的完備性無法用數學證明,難以自證清白,存在安全漏洞風險。但和密碼學技術相比,TEE對性能影響小,未來基于TEE的隱私計算
43、將成為公有云、互聯網以及企業重要業務的普遍需求,預計2030年50%以上的計算場景將使用該技術。2.)基于密碼學的同態加密、安全多方計算技術因其安全性在數學上可證明,從而成為業界公認最理想的隱私計算技術。但主要挑戰在于其性能比常規計算降低一萬倍以上,需要大幅度提升才能滿足應用需求。隨著近似算法的成熟,同態加密、安全多方計算技術在人臉驗證、健康數據分享等特定領域已獲得應用。未來,突破基于硬件加速的同態加密、安全多方計算技術,將在金融、醫療等行業的高安全應用場景獲得廣泛商用。3)多方計算的基礎是多方之間共享秘密,如果通過零知識證明等密碼學方法實現,性能開銷非常大,利用TEE來實現多方之間的秘密共享
44、,不但可以大幅提升多方計算性能,而且在信任TEE的基礎上安全性可數學計算 203016證明,未來有廣泛的應用前景。AI安全可信隨著AI應用的普及,特別是在醫療、自動駕駛等關鍵領域的應用,AI面臨日趨嚴峻的安全挑戰:1)AI模型和訓練數據是AI應用廠商的核心資產,如果保護不善可能被惡意逆向恢復。2)AI模型本身存在脆弱性,導致針對AI模型的閃避和藥餌等攻擊越來越多,在關鍵領域中使用的AI模型被攻擊導致誤判將帶來嚴重后果。3)因為人類對AI顧慮越來越大,AI倫理、取證成為新的安全挑戰。為應對AI日益嚴峻的安全挑戰,AI監管合規與治理成為AI生態中各參與方的必選項,同時也需要創新的技術手段支持對多參
45、與方的責任追溯,從而實現負責任的AI(responsible AI):1)AI模型與訓練數據保護:AI模型與訓練數據需要通過加密、強制訪問控制、安全隔離等手段保證AI模型與訓練數據在收集、訓練及使用階段的全生命周期安全。核心挑戰在于如何對NPU(Neural network Processing Unit,神經網絡處理器)芯片的高帶寬的內存數據進行實時的密態處理,并確保性能無損。未來需要突破高性能、低時延的內存加密算法,以及突破NPU片上的內存硬件加密引擎的架構設計,提供全生命周期的保護能力。2)AI攻擊檢測與防護:通過增加外部對抗樣本檢測模型實現對數字閃避和物理閃避等AI攻擊的識別,阻斷攻擊
46、路徑,防止AI模型受到攻擊后產生誤判。主要挑戰在于持續的進行對抗訓練以適應新的攻擊類型,未來會出現針對AI攻擊的獨立安全產品與服務。3)除上述針對已知攻擊手段所做的防御之外,也應增強AI模型本身的安全性,避免未知攻擊造成的危害。包括增強模型魯棒性、模型可驗證性以及模型可解釋性。通過對抗訓練,提高抗攻擊能力是AI模型安全能力提升的主要技術路徑;對抗樣本的泛化能力,模型正則化將是需要突破的關鍵技術;未來對抗魯棒性有望從當前較低的水平提升到80%。未來針對小模型存在有效的形式化驗證方法,可證明模型的安全性;面對大模型的形式化驗證還面臨巨大的挑戰。計算 203017為了防止AI帶來業務法律風險或者邏輯
47、風險,需要了解AI模型做出判斷的依據。未來通過建模前的“數據可解釋”,可以構建事前“可解釋模型”。目前線性模型基本都具備可解釋性。針對非線性模型,還將面臨巨大的挑戰,目前還無法做到AI模型的全局可解釋,但是,對網絡模型的分層可視化和局部可解釋,將會是未來很長一段時間的可能實現的技術路徑。4)為了滿足AI監管要求,未來在AI模型運行過程中必須持續監控與審計,并通過區塊鏈等技術保證審計結果可信,實現AI問題實時可追溯。新計算范式安全在以數據為中心計算場景下,算力下移,特別是內存計算PIM(Processing-In-Memory,內存內處理)將算力下移到內存,導致傳統內存加密機制失效,無法部署基于
48、硬件的隱私計算技術。即使在應用層加密數據、數據處理過程中,也將是明文狀態,從而導致無法防止特權用戶、進程竊取數據。針對這種場景唯一的選擇是部署同態、多方計算等基于密碼學的隱私計算技術,從而建立用戶對于算力提供商的信任。在多樣性算力數據中心場景下,云化導致網絡安全邊界模糊,傳統的基于邊界的安全防護模式逐漸失去價值。針對這樣的趨勢,零信任安全架構12通過強化訪問策略、主動監測、加密等技術以應對環境不可信的安全挑戰。零信任安全架構與多樣性算力發展趨勢相結合確定了未來多樣性算力安全技術走向:1)安全與在網計算架構相結合:零信任架構打破安全邊界后需要更細粒度的權限與訪問控制,實現動態的身份驗證和資源訪問
49、策略,軟件實現將占用大量CPU資源;在網計算架構中融入正則表達式硬件加速機制,可以有效提升策略執行效率1015倍。2)安全與多樣性計算架構相結合:零信任架構假設網絡環境不可信,無論在網絡的任何位置,通信都應該加密,包括計算節點間、數據中心間。因此需要在多樣性計算架構的每個xPU(x Processing Unit,泛指各種處理器)中融入加密通信的高性能硬件卸載能力,并支持后量子加密算法,以應對未來量子攻擊風險。3)安全與數據為中心的對等計算架構相結合:未來,在數據為中心的對等計算架構中,非易失性高性能的內存介質將會接入到系統的內存總線上,掉電后內存中殘余的數據目前尚無加密機制,數據與隱私泄露風
50、險將大幅度提升;在數據為中心的對等計算架構中如何實現數據安全將成為新的挑戰。例如:在分布式集群系統中,面對跨數百計算節點共享的大內存,如何進行數據保護,實現內存訪問的帶寬性能下降逼近理論極限,W2W(Wafer to Wafer,晶圓片對晶圓片),uBump-Hybrid Bonding-Monolithic 3D技術逐漸演進,應用場景將會廣泛覆蓋3D Memory on Logic、Logic on Logic及Optical on logic等,并且未來會逐步走向更多層異質堆疊。3D芯片在堆疊工藝方面需要采用小于10m甚至更小pitch超高密Bonding技術,3D芯片相對于傳統2.5D封
51、裝在帶寬及功耗性能優勢顯著,單bit功耗降低有望降低至1/10。更小尺寸TSV(Through Silicon Via,硅通孔)技術需要從材料、工藝基礎技術深入持續探索;同時3D堆疊帶來局部功耗密度和電流密度倍增,直接影響系統整體供電與散熱路徑。3)芯片出光,實現T級高帶寬端口高算力芯片(如xPU、Switch、FPGA等)的IO帶寬越來越高,預計2030年,端口速率將達T級以上。隨著單路速度提升,100/200G Gbps以上的高速串行通信帶來功耗、串擾和散熱挑戰,傳統光電轉換接口將無法滿足算力增長需要,芯片出光相比傳統方案端到端能效有望降低至1/3。光電轉換芯片和主芯片共封裝(Co-pac
52、kaged Optics),替代可拔插光模塊(Pluggable Optics)和板載光模塊(On-board Optics),芯片出光成為未來突破帶寬瓶頸的關鍵技術。同時芯片出光面臨PIC(Photonic Integrated Circuit,光子集成電路)與EIC(Electronic Integrated Circuit,電子集成電路)3D封裝,超大封裝基板及OE(Optical Engine,光引擎)集成,單芯片功耗密度提升等一系列工程技術挑戰。4)大功耗芯片供電技術探索算力需求與Chiplet技術持續推動芯片功耗提升,千瓦級芯片供電已經在望,萬瓦級Wafer level芯片需要更加
53、創新及高效的供電策略。高壓單級變換、開關電容混合變換等新型供電架構配合低壓氮化鎵(GaN)功率器件和高頻集成磁等工程技術的應用,可以進一步提升單板供電的端到端能效和功率密度。芯片48V高壓直供是解決芯片供電瓶頸的關鍵技術路徑?;?、封裝承受高壓的材料研究與工藝改進是芯片高壓直供的前提,同時高效的片上電壓轉換技術與分核供電技術也是關鍵研究方向。5)未來芯片層面散熱技術探索隨著計算芯片功耗的急速上升,散熱已成為制約芯片性能提升的主要瓶頸之一,新型散熱技術及材料亟待開發。通過開發高導熱TIM1材料降低路徑熱阻,Lidless(無頂蓋封裝)芯片散熱、封裝與芯片級先進液冷技術,有望為未來芯片提供千瓦級與
54、萬瓦級散熱能力,為芯片性能的跨越式提升提供散熱基礎。芯片動態熱管理技術與整機系統散熱協同設計也是未來超大功耗芯片散熱關鍵設計技術。多樣性計算未來的計算,數據將在最合適的地方,以最合適的算力來處理,例如網絡數據在DPU(Data Processing Unit,數據處理單元)上就近被處理,神經網絡模型在NPU上訓練;算力無處不在,硬盤、網卡、內存等外設開始逐漸具備數據分析和處理能力。融合應用呼喚多樣性計算的統一架構出現;當前各廠商工具的煙囪化,嚴重制約了多樣性計算的發展。數據為中心的計算1)對稱計算架構(數據全內存處理)馮諾依曼的經典架構,需要把數據搬移到CPU進行處理,這種數據搬移消耗了大量的
55、系統算力和能量,而且數據在處理和交換過程中,存在著大量的反復的內存格式,存儲格式,傳輸格式的各種轉換,這種格式轉換消耗大量CPU時間,而且能率很低;同時受到硬件發展的制約,而數據爆發凸顯了IO(Input/Output,輸入輸出),算力,網絡等瓶頸,這些瓶頸都影響數據搬移的速度和處理效率,影響整體的系統能效。對稱計算架構通過內存池化,在數據全生命周期使用統一的內存語義進行數據處理和交換,甚至數據全在內存中進行處理。該架構可避免數據格式的轉換,提高數據的移動速度,擴大應用的可使用內存,從而極大的提升整體計算 203022系統數據處理能力,是未來提升計算效率的重要路徑。實現該架構需要在多層級內存架
56、構、大容量非易失性內存等關鍵技術上突破創新。2)泛在計算(外設智能化)未來除了xPU各類算力之外,我們認為計算架構將走向泛在的近數據計算,數據在最合適的地方,以最合適的算力來計算,減少數據搬移,提高整體系統的性能。泛在近數據計算包括以下幾個方向:近內存計算,當前的瓶頸在于數據搬移的有效帶寬受外部總線帶寬約束,未來通過在DRAM(Dynamic Random Access Memory,即動態隨機存取存儲器)的控制電路上增加多并發的可編程計算單元,同時優化DRAM陣列結構提升內部訪問數據的并發度,實現DRAM內數據運算有效帶寬的倍數級提升,打破內存墻造成的數據帶寬瓶頸;近存儲計算,當前的方式是在
57、SSD(Solid State Drive,固態硬盤)控制器上增加固化的數據加速單元(如壓縮引擎)實現單一的數據處理功能,未來將演進到通過API(Application Programming Interface,應用程序接口)編程接口靈活調用SSD控制器內多種算子引擎,配合編譯器實現更為靈活的算力卸載,在通用場景下大幅提升數據運算的能效比;從基于SmartNIC(智能網卡)的在網計算演進到基于DPU的以數據為中心的計算架構,未來將實現靈活的可編程在網算力、開放的異構編程框架、業務驅動的在網計算范式。支持對存儲、安全、虛擬化等的全面加速,支撐HPC+AI融合、大數據、數據庫等分布式應用性能倍增
58、。未來將進一步實現對整個DC計算資源的細粒度動態調度、高效交互。3)存算一體存算一體是計算單元和存儲單元緊耦合的一種方式,即存儲介質既能做存儲單元又能做計算單元,打破算力和存儲的邊界,有效改善功耗墻和內存墻,相比傳統馮諾依曼架構有著預計十倍以上的能效提升?;赟RAM(Static Random-Access Memory,靜態隨機存取存儲器)、NOR Flash(非易失閃存)等成熟存儲器實現的存算一體,將有望在2-3年內規模商用,在端側、邊緣側的人工智能推理運算中展現出10倍能效優勢?;赗eRAM(Resistive random-access memory,可變電阻式內存)、PCM(Ph
59、ase Change Memory,相 變 存 儲器)、MRAM(Magnetoresistive Random-Access Memory,磁性隨機存儲器)等新型非易失存儲器的存算一體還在探索中,因其具有高性能、低功耗的特點,未來十年有望在數據中心側實現突破。存算一體大規模應用還需要在以下方向突破:計算精度:由于器件的一致性、穩定性導致的誤差,以及計算過程中存在的噪聲,使得存算一體的精度相比數字計算有一定下降,需要結合電路特征優化算法,使得計算結果滿足應用需求。軟件生態:存算一體是一種數據驅動的計算 203023計算,需要將神經網絡模型部署在合適的存儲單元上,并通過數據流調度來控制整個運算過
60、程,需要更加智能、高效、便捷的數據映射工具將不可或缺。體系架構:當前新型非易失存儲器的存算一體主要是基于向量乘矩陣的計算方式,常用于特定的機器學習應用(如神經網絡推理、訓練),難以擴展到其他的應用場景,且無法與現有的存儲系統配合,進行數據的高效處理。未來需要突破從存儲器件到編程模型,再到系統架構和應用的“全棧協同設計”,使得存算一體架構走向通用。4)計算總線從板級走向DC級隨著算力和數據的成倍增長,以AI、HPC和大數據為主要業務的大型集中數據中心成為發展趨勢。而連接整個數據中心的網絡,相比節點內總線有巨大的時延、帶寬“鴻溝”和厚重的網絡軟件棧開銷,制約了算力的發揮?!皟却嬲Z義”總線將高帶寬、
61、低時延和內存語義的輕量軟件棧,從板級平滑擴展到全數據中心,實現全數據中心性能和能效比最優?!皟却嬲Z義”總線的最大挑戰在于構建開放、平等、互通互操作性的總線、接口和協議標準,避免計算系統總線走向7國8制,限制計算性能發揮和規模構建。應用驅動的多樣性計算以特定領域專用硬件、特定領域編程語言、開放式架構、原生安全架構為代表的新計算范式將會成為下一代計算系統的主流。1)智能科學計算(HPC+AI)AI計算方法和AI算力架構持續突破,將機器學習與基于第一性原理的物理建模相結合的智能科學計算方法,正成為科學研究的一個新范式。未來十年,智能科學計算將深入到科學研究和技術創新的各個方面。如何將AI算法與科學計
62、算高效融合,面臨前所未有的挑戰和機會。在基本層面,面臨新計算模式的計算框架和數學方法挑戰。新的計算框架和方法,首先需要明確給定的問題是可通過AI方法被有效地解決。即,計算數學方法及框架需要滿足可計算性、可學習性、可解釋性。與此相應,在未來十年,軟硬件基礎設施也必須以數學和AI研究為基礎,提供合適的實施、評估和測試體系。在數據層面,通過AI方法加速科學、工程和制造需要大量不同的數據源。一,當前,不同領域科學問題來自儀器、模擬、傳感器網絡、衛星、科學文獻和研究成果的數據源,在數據可獲得和可共享性具備較大挑戰。二、利用AI方法產生有效的從物理原理出發和符合物理基本定律(比如對稱性和守恒定律)的數據。
63、這個挑戰,需要領域科學家、AI專家、數學家、計算機科學家廣泛的協同設計工作來跨越。2)AI使能存儲智能化存儲系統需要承載的業務訴求也越來越多樣和復雜,既需要應對不斷變化的多樣化業務負載,又需要簡化系統管理運維。未來的存儲系統需要基于AI實現主動管理和響應其內外部環境、持續學習、感知負載自適應響應、自動優化系統等智能化功能,獲得資源分配、成本、性能、可靠性、易用性、功耗等綜合收益,同時運維方式也需要基于AI從傳統的人工運維向免人工智能運維逐步演進。目前AI技術應用在存儲系統的索引管理、自動調優、資源分配等方向已經取得一些進展,但仍需在以下四個方面進行突破:負載域:從系統性能維度對IO 負載進行建
64、模,分解出影響系統模塊性能的關鍵指標及因素,精確評估系統性能和模擬用戶真實業務場景;數據域:感知數據布局、感知數據生命周期和感知數據內容上下文等信息,提升數據訪問性能、降低系統后臺垃圾回收資源消耗和提升數據縮減率;系統域:捕捉歷史規律和模式、高效安置和調度計算任務、進行運行時優化,優化系統參數和資源配置、降低系統能耗、保證系統性能波動可控且不影響可靠性;運行域:實現免人工運維、自動故障根因分析、系統亞健康檢測自動預防與修復。綜合自頂向下的負載建模和自底向上的系統自學習技術使能存儲智能化,實現具備性能自動調優、服務質量自動化控制、數據智能感知、規則與策略自學習、智能調度、低功耗控制、極簡規劃和配
65、置、系統問題提前預測、故計算 203024障根因自動分析的智能存儲系統將成為重要的研究方向。多維協同多種計算、存儲等設備分布在云、邊、端不同的位置,將這些設備橫向及縱向進行協同與協作,實現優勢互補,形成立體計算。解決業務體驗不好、算力分布不均、算力利用率低、信息孤島等一系列的問題與挑戰。通過多維感知與數據建模技術,物理世界被鏡像、計算、增強,形成孿生的數字世界;利用光場全息渲染、AI內容生成等技術,實現數字世界到物理世界的精確映射。結合時間與空間、虛擬與現實的多維協同,實現物理世界與數字世界的無縫融合。立體計算1)邊緣計算未來是萬物互聯的智能世界,隨著5G技術的成熟與應用,邊緣計算開始在ICT
66、行業廣泛部署,預期2030年全球市場規模將從100億美元增長到數千億美元,市場潛力巨大,影響邊緣計算大規模應用的主要問題與挑戰包括:邊緣智能、邊緣算力網絡、邊緣安全、邊緣標準與開放生態等。邊緣智能:制造、電力、城市、交通、金融等垂直行業的智能化升級與改造,是邊緣計算在這些行業規模應用的重要驅動因素,將帶來爆發式的增長。需提供增量學習、遷移學習、硬件親和的模型壓縮、推理調度部署等AI基礎能力開發套件,來解決跨行業的智能化共性問題;以及面向制造行業的復雜背景、弱對比、小樣本、弱監督等應用特征提供開發套件,來解決智能制造的共性問題,其它行業依次類推。進而形成一整套功能完備的應用使能SDK(Softw
67、are Development Kit,軟件開發工具包)。邊緣算力網絡:邊緣設備因未來業務發展多樣化的訴求,逐漸向小型化、移動化、低功耗的方向發展,算力、存儲、帶寬、時延等越來越成為瓶頸。全息及多維感知類業務對算力提出至少100倍于當前能力的要求,對存儲提出100倍乃至1000倍于當前能力的要求,對網絡帶寬的訴求高達到10Tbit/s級別;智能制造、智慧電力、智能交通等行業基于自身的業務特點提出了毫秒級時延及確定性時延的要求。為了滿足邊緣加速、卸載和突破性能瓶頸的訴求,要求進行計算、存儲、網絡的協同與超融合,以及多樣算力的有效利用,對邊緣軟、硬件架構帶來新的挑戰。邊緣安全:邊緣設備在物理位置上
68、通常離計算 203025攻擊者比較近,所處環境復雜,更容易遭到來自物理硬件接口、南北向業務接口、北向管理接口等的攻擊。數據往往是用戶的核心資產,丟失或被竊取可能使用戶遭受重大損失。預計2030年將有80%的數據在邊緣進行處理,需加強在邊緣進行數據采集、存儲、處理、傳輸過程中的安全與隱私保護;嚴格保護邊緣應用、模型等核心資產的安全與隱私;避免因數據隱私保護形成數據孤島,導致數據與AI算法在醫療、金融、工業等領域的潛在價值無法充分發揮。邊緣標準與開放生態:面向不同行業應用的邊緣設備在軟硬件形態、算力、功能、接口等方面差異巨大,各廠商提供的私有軟、硬件方案及接口協議,相互之間難以兼容互通,很大程度上
69、影響了邊緣計算的推廣與普及。需要將邊緣計算系統與軟硬件框架,及相關的接口與協議標準化,并建立對應的測試驗收標準,以促進邊緣設備、軟件與協議的兼容互通。同時面向各個行業建設開放生態,吸引更多廠商與合作伙伴的投入來共融共建。2)多設備協作螞蟻、蜜蜂等生物群體通過個體協作產生集體智能,多設備協作技術的目標正是尋求類似突破以提升多設備所形成系統解決問題的能力、整體性能、魯棒性等。多設備協作技術存在任務分擔、結果共享、智能體等多種模式。任務分擔模式是設備之間通過分擔執行整個任務的子任務而相互協作;結果共享模式是設備通過共享部分結果相互協作,各設備在任何時刻進行的處理取決于當時該設備自身擁有或從其他設備收
70、到的數據和知識;智能體模式是每個設備在獨立性和自主性基礎上的相互協作。多設備協作技術面臨多設備之間的合作與沖突消解、全局最優化、交互協作一致性等挑戰。合作與沖突消解:多設備協作過程中可能導致死鎖或活鎖,死鎖使得多個設備無法進行各自的下一步工作,活鎖使得多個設備不斷工作卻無任何進展,如何在交互過程中避免死鎖或活鎖,協調的機制和算法是系統的核心挑戰。全局最優化:多設備間根據局部信息的協作難以達到協作的全局最優,采用全局視野的協作往往意味著通信量大,會給系統帶來沉重的負擔。如何高質量、高效率、高可靠、高安全取得全局環境的態勢估計以此進行多設備的協同規劃和協調,決定了多設備協作的效率與效果。交互協作一
71、致性:各設備通過網絡通信獲取其他設備信息,并以此調整自身的狀態,實際系統中由于多設備間的通信連接不可靠或通信存在限制,如何解決由通信不確定性帶來的協作一致性問題,決定了多設備協作系統的魯棒性。計算 203026多設備協作技術強調多個設備之間的緊密群體協作,協作系統將從簡單的合作與連接逐漸發展成獨立自主的群體智能系統。3)端邊云協同智能制造、智能城市、智能巡檢、智能交通等AI和新興數據密集型應用在快速發展,低時延響應、節約帶寬成本、保護數據隱私安全等應用體驗驅動計算向端邊云協同發展,要實現一體化的計算架構,面臨如下挑戰。任務協同:如何進行合理的計算任務劃分將應用分割為多個子任務,并且進行子任務在
72、端邊云的部署與調度,比如子任務在端、邊、云何處執行,何時執行,以及計算子任務跨云、跨集群、跨節點如何遷移均充滿挑戰。智能協同:“云端訓練、邊緣推理”的模式正在走向端邊云“合作式”的訓練和推理,如何解決協同訓練的精度和收斂速度問題,如何解決協同推理時延和準確率問題,如何解決端邊云協同智能中存在的數據孤島問題、小樣本問題、數據異構問題、安全隱私問題、通信成本問題、端/邊設備的資源受限問題等。數據協同:數據是智能的基礎,數據的接入、聚合、交互、處理面臨著多樣化和異構的挑戰。網絡協同:隨著端邊云計算網絡的規模越來越大,大量設備及子網的接入帶來設備、網絡、業務管理的巨大挑戰,如何確保聯接的實時性可靠性是
73、必須要解決的問題。安全可信挑戰:邊緣側設備和產生的數據接入云端的安全和隱私如何保證,云端如何抵御來自邊緣側的攻擊,云端下發到邊緣側的數據如何保證安全等。數字孿生1)統一數字孿生平臺成趨勢在智慧工廠、智慧城市、虛擬社交媒體等各行業數字化浪潮之下,缺乏一套能夠創建富有個性化數字孿生系統的統一平臺。該平臺需重點關注三維模型的數據格式、開發工具等的統一,能夠提供多樣性算力及存儲空間以滿足大量數據建模的需要。2)多維感知與數字建模技術 未來的物理世界將會有一個孿生的數字世界,數字世界和物理世界無縫的銜接、協同,以提升產品設計、產品制造、醫學分析、工程計算 203027建設等領域的效率。物理世界到數字孿生
74、的映射過程將面臨感知多維化、三維建模、光場采集數據存儲等多方面的挑戰。感知多維化:物理世界里影像、視頻、聲音、溫度、濕度、力學等各種數據經采集、存儲后數據量非常龐大。更多維數據的獲取、處理與融合,需要高分辨率的感知、定位、成像和環境重構能力,形成的數據量更加龐大。這些海量數據的篩選、預處理、建模、仿真等過程都依賴于強大的算力,以及人工智能、認知科學、控制科學、材料科學等多學科的深度融合。三維建模算力需求增加100倍:根據不同角度根據不同角度的圖片與視頻流,以及陣列相機、深度相機等采集的海量數據進行三維建模需要強大的算力。使用100+路攝像機陣列采集的高精度數據的數據量,比傳統2D圖像數據量增加
75、100倍以上,分辨率提升到8K,單路算力提高4倍,所需建模算力也增加100倍以上。管理多維海量數據,并將之轉化為三維模型面臨巨大挑戰。同時消費市場可通過手機3D相機獲取影像的深度信息,并根據深度信息在手機端完成中低精度的建模,3D相機通常是雙目、結構光或者ToF(Time of Flight,飛行時間)相機。需要提供一套統一、高效、經濟的三維建模軟硬件系統,來同時滿足高階與消費級建模的訴求,和促進各行業的數字化轉型及數字孿生產業的繁榮?;贏I技術的數字建模材質生成:未來,基于AI影像辨識技術、智能生成算法及強大的AI算力,自動辨識圖片中材質的金屬性、粗糙度、反射率、折射率、表面法向量等物理特
76、性,并協同三維模型生成現實生活中的材質。面向未來,需要建立一套統一、開放的材質描述語言,從而實現不同行業3D圖形數據的交換。光場數據增長百倍壓縮技術成關鍵:光場相機陣列采集的圖片與視頻流數據增長100倍,基于光場數據合成三維視頻流,以及渲染的光線著色等,數據的存儲與處理都存在巨大瓶頸,光場數據的快速壓縮與存儲相關的技術突破將成為后續渲染與成像的關鍵。3)光場全息渲染技術具有真實世界感官體驗的數字孿生顯示系統,需要在視覺、互動技術上進行突破。目前多數產品在渲染質量、逼真度、渲染時延上還不能滿足要求。實時光線追蹤、零時延傳輸是達成現實級逼真渲染效果的關鍵技術,直接影響用戶體驗。高階渲染光線追蹤相比
77、傳統渲染算力需求增加10 x以上,以存代算技術可有效緩解算力需求的矛盾,同時可降低時延,但需要更大的存儲空間?;谠频墓鈭鋈秩炯夹g將成為未來的重要技術方向。高階渲染技術,分辨率提升64X:光場全息渲染的主流技術從光柵化渲染,逐漸向光線追蹤等高階渲染技術發展。在游戲、XR(Extended Reality,擴展現實)等場景,要實現逼近現實的體驗,達到雙目16K分辨率、120FPS幀率、8ms時延,強交互場景對時延要求標準更高達5ms,算力需求提升64倍以上,需要突破三維建模、材質生成、光線存儲等關鍵技術。同時依賴跨端邊云計算集群的渲染、AI、視頻流化的融合算力,以及面向高階渲染的內容制作軟件
78、的突破,從而實現近實時、高性能的整體渲染解決方案?;贏I技術的內容生成:基于AI技術實現3D模型構建、材質自動生成、超分、降噪等?;贕AN、NLP(Natural Language Processing,自然語言處理)與NLG(Natural Language Generation,自然語言生成)等AI技術,實現逼真的數字人3D成像、表情與真實的語言對話,讓世界各國的人們可以完成高效的溝通和交流。AI內容生成還可應用于工業設計、XR內容創作、影視特效制作等。4)億級用戶虛實協同與交互億級用戶在數字世界與物理世界的協同、計算 203028聯動和同步,對算力、存儲、網絡挑戰極大,大量的狀態查詢
79、與消息傳送,如何滿足人和物兩兩之間交互時延小于510ms,單用戶數百Mbps帶寬、單用戶數十Tflops算力,網絡與端云協同,億級用戶數據實時處理與傳輸,將面臨巨大挑戰。物理層突破學術界、工業界都在尋求物理層突破,通過探索模擬計算、非硅基計算、新型存儲器以及優化芯片工程技術,在未來繼續提升計算能效和存儲密度。例如:量子計算在數據表達和并行計算能力上具有指數級優勢,模擬光計算在特定計算中展現出低能耗和高性能;二維材料和碳納米管具有載流子遷移率高、溝道短的特點,有望成為替代硅基的新材料;鐵電、相變材料和器件結構取得較大突破,存儲密度和讀寫性能大幅提升,多層多維的光存儲在冷數據長期保存上有較大潛力;
80、未來還有DNA存儲等有待突破。這些物理層關鍵技術的不斷突破,將對計算和存儲領域帶來革命性改變。模擬計算量子計算:量子計算是未來高性能計算的必爭之地量子計算目前處于高速工程化的階段,預計未來五年將出現超過1000比特的量子芯片。目前量子計算處于含噪聲的中等尺度量子(NISQ)時代,基于精確計算的經典計算機與高性能量子計算機,構建混合計算架構是最具可行性的技術方向。其中量子化學模擬、量子組合優化算法及量子機器學習三大方向是最具商業價值的落地場景。量子化學模擬能為藥物研發與新型材料研發提供新算力;量子組合優化算法把組合優化問題編碼為量子計算過程,能更快更好的解決物流調度、行程規劃及網絡流量分配問題;
81、量子機器學習將作為人工智能計算加速的新路線。未來十年重點是實現基于NISQ的專用量子計算機,需要不斷提升單量子芯片的物理比特規模,增強相干時間和保真度,并通過量子芯片的互聯提升系統的擴展能力,獲得解決復雜問題的算力;同時增強量子計算的容錯設計,提升系統可靠性,結合應用場景不斷優化量子算法,降低線路深度和復雜度,完善量子軟件棧,逐步推動NISQ量子計算走向商用。但要實現一臺通用量子計算機,道路更加漫長、更加充滿挑戰。模擬光計算:模擬光計算將在部分復雜計算中展現優勢光的傳播速度快、能耗低,其干涉、散射、反射等物理現象背后,都有對應的數學模型,通過對光信號的調制、控制、探測,可完成某些特定的計算任務
82、。同時光作為玻色子天然具有波分復用、模分復用、OAM(Orbital 計算 203029Angular Momentum,軌道角動量)復用等特性,通過模擬光計算實現多維度并行,是未來光計算發展的重要方向,有望在卷積計算、伊辛模型求解、蓄水池計算等領域率先突破,并成為光信號處理、組合優化、序列比對、AI加速等場景的利器。光計算要實現規模應用,首先需要解決有源器件、無源器件在芯片上的異質集成問題,提升光信號耦合效率、控制插損和噪聲,滿足特定應用場景的計算精度要求。另外,光計算的驅動電路也需要進一步與光芯片集成,降低功耗和面積。光計算和電計算各有優勢,光電混合的計算架構是未來發展的重要方向。非硅基計
83、算二維材料:二維材料有望成為延續摩爾定律的終極材料二維材料晶體管具備溝道短、遷移率高、可2D/3D異質集成的優勢,有望作為晶體管溝道材料延續摩爾定律至1nm節點。此外具有超低介電常數的二維材料,也可以用作集成電路的互連隔離材料。二維材料有望首先在光電、傳感等領域應用,最終在大規模集成電路和系統中實現應用。當前二維材料及其器件仍處于基礎研究階段,需要從材料、器件、工藝等層面突破。未來五年,首先需要解決工業級二維材料晶圓制備的產業化良率問題;其次要不斷改善電極和器件結構,提升二維晶體管器件綜合性能;在此基礎上,未來十年有望大規模集成電路產業實現應用。碳材料晶體管:碳基電子學可能是未來最有希望延續摩
84、爾定律的技術碳納米管具有超高的載流子遷移率、原子級的厚度,具有高性能、低功耗的巨大優勢。在尺寸極端縮減的情況下,碳管晶體管能效比硅基晶體管提升約10倍,35年內有望在生物傳感、射頻電路實現商用。未來五年還要繼續改進碳管材料的制備工藝,降低表面污染和雜質,提升材料純度和碳管排列的一致性;優化器件接觸電阻和界面態,提升注入效率;配套EDA(Electronic Design Automation,電子設計自動化)工具的開發;通過小規模的集成電路驗證碳基半導體端到端的成熟度,有望在柔性電路領域初步得到應用。展望未來十年,當碳基半導體器件的尺寸能夠微縮到與硅基先進工藝相當水平時,在高性能、高集成度的應
85、用場景中,將迎來規模應用的機會。新型存儲傳統存儲以磁介質為主,新型存儲全閃存將成為主流,預計未來將有72%的企業存儲基于全閃存。全閃存不僅用于主存儲(primary)存儲,還將延伸到輔助存儲(secondary)存儲,預計,企業將會有82%的業務數據存在備份需求。圍繞著數據全生命周期的熱溫冷差異,未來介質也將向高速高性能和海量低成本兩個方向演進。1)新型內存型介質技術計算 203030當前熱數據存儲在SSD中,搬移到DRAM中處理,SSD時延與DRAM相差1000倍,而DRAM受物理特性的限制,密度和電壓都已無法繼續擴展,所以SSD和DRAM都無法完全滿足熱數據存儲的需求。目前業界已經涌現了許
86、多新型內存型介質技術,如PCM、MRAM、ReRAM、FeRAM(Ferroelectric Random-Access Memory,鐵電式隨機存取內存)等。這些介質在性能、容量、成本、壽命、能耗、可擴展性等各方面都將優于DRAM,支持字節級訪問和持久化,不需要再進行數據搬移,將成為熱數據存儲的主流介質,但面臨如下技術挑戰:容量的挑戰:到2030年,熱數據總量將相當于當前SSD存儲數據的總量,熱數據介質的容量密度至少需要擴大十倍左右達到當前SSD的1Tb/die,還要支持按需擴展,不受處理器、內存接口、網絡時延和帶寬的限制。而FeRAM、ReRAM和MRAM等介質則面臨著結構和材料等方面的挑
87、戰。能耗的挑戰:在“碳中和”的背景下,作為海量熱數據的存儲介質,面臨功耗的巨大挑戰。PCM、ReRAM等基于電阻的數據存儲技術,數據寫入電壓更高,功耗更大。ReRAM和MRAM的單位bit功耗是FeRAM的10倍,而PCM更是高達100倍,FeRAM類低工作電壓介質潛力更大。2)高密NAND Flash介質技術未來大部分熱數據需要從溫數據中產生,溫數據成為熱數據最大的“蓄水池”,所以溫數據介質需要兼顧性能、容量和低成本。NAND作為溫數據的主存儲介質取代HDD(Hard Disk Drive,硬盤驅動器),向Cell多值(1個存儲單元存儲多個bit)和3D堆疊方向演進;在保持性能和壽命與當前Q
88、LC(Quad-Level Cell,四層式存儲單元)相當的前提下,實現容量擴展和成本下降是最大的挑戰:Cell多值的性能和壽命挑戰:Cell每多存儲一個比特,表示數據的電壓級數將增加一倍,讀寫性能和壽命下降數倍。3D堆疊的工藝挑戰:預計2030年堆疊層數將從當前的百層量級達到千層量級,介質硅通孔寬深比將達到120比1(或提升1倍),帶來巨大的加工難度。3)光存儲技術未來冷數據長期存儲規模將從1.2ZB增至26.5ZB,同時存儲壽命需要提升510倍。以中國國家檔案館為例,關鍵檔案數據的存儲壽命要從100年提升到500年,數據規模將從100PB增長到450PB。傳統的硬盤和磁帶將無法滿足需求,隨
89、著對石英玻璃、有機玻璃等透明體材料讀寫原理及編解碼算法的研究,光存儲將成為海量冷數據的主流存儲介質。挑戰如下:1、介質壽命要提升十倍,且在壽命周期內能應對各種復雜惡劣環境。2、與藍光相比,容量要達到10倍,成本下降5倍,性能提升10倍。計算 203031計算 2030 倡議附錄計算在過去的半個多世紀中加速了科學進步和經濟發展,已經深深融入了人類社會的方方面面,是全人類的共同財富,也是未來智能世界的基石。面向2030年,計算將更加開放和安全,每一個人、每一個組織都能夠平等的參與未來計算產業的構建和創新,共享計算技術創造的價值。讓我們共同努力,開創計算新時代!參考1Zettabyte(ZB),Yo
90、ttabyte(YB):數據存儲容量單位,1ZB=1021Byte,1YB=1024Byte2華為預測,2030年通用算力(FP32)3.3ZFLOPS,對比2020年增長10倍,AI算力(FP16)105ZFLOPS,對比2020年增長 500倍;FLOPS:每秒浮點運算次數;EFLOPS:一個EFLOPS(exaFLOPS)等于每秒一百億億(1018)次的浮點運算;ZFLOPS:一個ZFLOPS(zettaFLOPS)等于每秒十萬億億(1021)次的浮點運算3參考中國工程院院士李德毅在首屆中國智能教育大會上的講話,20184中國關于加快煤礦智能化發展的指導意見2020.035歐洲核子研究中
91、心CERN,https:/home.cern/science/computing6QM/MM:組合量子力學/分子力學方法,在QM/MM方法中,一部分體系使用量子力學(QM,quantum mechanics)方法進行處理(非常耗時),另一部分體系使用基于力場的標準分子力學(MM,molecular mechanics)方法進行處理7Summit,美國橡樹嶺國家實驗室超級計算機,算力148.6P FLOPS,2021世界排名第二8Roland R.Netz,William A.Eaton,Estimating computational limits on theoretical descrip
92、tions of biological cells,PNAS 20219戈登貝爾獎,由國際計算機協會(ACM)頒發,旨在獎勵時代前沿的并行計算研究成果,特別是高性能計算創新應用的杰出成就10Weile Jia,Han Wang,Mohan Chen,Denghui Lu,Lin Lin,Roberto Car,Weinan E,Linfeng Zhang,Pushing the limit of molecular dynamics with ab initio accuracy to 100 million atoms with machine learning,202011DevOps,敏
93、捷開發和開發運維一體化12Forrester分析師約翰金德維格在2010年提出零信任安全架構計算 203032縮略語縮略語英文全稱中文全稱3D3 Dimensions三維AIArtificial Intelligence人工智能APIApplication Programming Interface應用程序接口ARAugmented Reality增強現實BPBack Propagation反向傳播CDUCoolant Distribution Unit冷量分配器CERNEuropean Organization for Nuclear Research歐洲核子研究組織CPUCentral P
94、rocessing Unit中央處理單元CSPCloud computing Service Provider云算力提供商D2WDie-to-Wafer芯片到晶圓DCData Center數據中心DNADeoxyribonucleic Acid脫氧核糖核酸DPUData Processing Unit數據處理單元DRAMDynamic Random Access Memory動態隨機存取存儲器EDAElectronic Design Automation電子設計自動化EFLOPSexa Floating-Point Operations Per Second每秒浮點運算百億億次EICElect
95、ronic Integrated Circuit電子集成電路FeRAMFerroelectric Random-Access Memory鐵電式隨機存取內存FPGAField Programmable Gate Array現場可編程門陣列GANGenerative Adversarial Network生成式對抗網絡HDDHard Disk Drive硬式磁盤驅動器HL-LHCHigh Luminosity-Large Hadron Collider高光度大型強子對撞機HPCHigh-Performance Computing高性能計算ICTInformation and Communicat
96、ions Technology信息和通信技術IOInput/Output輸入輸出KAKiloampere千安培MMMolecular Mechanics分子力學MRMixed Reality混合現實MRAMMagnetoresistive Random-Access Memory磁性隨機存儲器NISQNoisy Intermediate-Scale Quantum嘈雜中型量子計算 203033NLGNatural Language Generation自然語言生成NLPNatural Language Processing自然語言處理O2OOnline to Offline線上到線下OAMOr
97、bital Angular Momentum軌道角動量OEOptical Engine光引擎PCMPhase Change Memory相變存儲器PBPetabyte 拍字節,千萬億字節PICPhotonic Integrated Circuit光子集成電路PIMProcessing-In-Memory內存內處理PUEPower Usage Effectiveness能源利用效率QLCQuad-Level Cell四層式存儲單元QMQuantum Mechanic量子力學REERich Execution Environment富執行環境ReRAMResistive Random-Access
98、 Memory可變電阻式內存SDKSoftware Development Kit軟件開發工具包SRAMStatic Random-Access Memory靜態隨機存取存儲器SSDSolid State Drives固態硬盤TEETrusted Execution Environment可信執行環境TIMThermal Interface Material熱界面材料ToFTime of Flight飛行時間TSVThrough Silicon Via硅通孔UPSUninterruptible Power Supply不間斷電源VRVirtual Reality虛擬現實W2WWafer to
99、Wafer晶圓片對晶圓片Wafer LevelWafer Level晶圓級WLCWafer Level Chip晶圓級芯片xPUx Processing Unit泛指各種處理器XRExtended Reality擴展現實YBYottabyte堯字節,一億億億字節ZBZettabyte澤字節,十萬億億字節ZTThermoelectric Figure of Merit熱電優值計算 203034致謝計算2030編寫過程中得到了來自華為內外部多方的大力支持,300多位來自華為的專家和社會各界知名學者參與了材料的討論、交流,貢獻思想、共同暢想了2030年計算產業的發展方向和技術特征,在此對所有參與技術
100、交流和討論的學者們致以誠摯謝意?。▽W者名單按照姓名字母排序,不分前后)Andr Brinkmann(美因茨大學,教授)Bill McColl(前英國牛津大學教授)陳文光(清華大學,教授)馮丹(華中科技大學,長江學者特聘教授)馮曉兵(中科院計算所,研究員)甘霖(清華大學,副研究員)管海兵(上海交通大學,長江學者特聘教授)過敏意(上海交通大學,教授,IEEE Fellow,歐洲科學院院士)Jarosaw Duda(雅蓋隆大學,助理教授,ANS壓縮算法發明人)賈偉樂(中科院計算所,副研究員)金海(華中科技大學,長江學者特聘教授,IEEE Fellow)金鐘(中科院計算機網絡信息中心,研究員)繆向水(
101、華中科技大學,長江學者特聘教授)Onur Mutlu(蘇黎世理工大學,教授,ACM&IEEE Fellow)潘毅(中科院深圳理工大學,教授,美國醫學與生物工程院院士,烏克蘭國家工程院外籍院士,英國皇家公共衛生院院士)舒繼武(清華大學,長江學者特聘教授,IEEE Fellow)孫家昶(中科院軟件所,研究員)田臣(南京大學,副教授)田永鴻(北京大學,教授)王金橋(中科院自動化所,研究員)吳飛(浙江大學,教授)謝長生(華中科技大學,教授)薛?。ㄇ迦A大學,副教授)楊廣文(清華大學,教授)鄭緯民(清華大學,教授,中國工程院院士)免責聲明本文檔可能含有預測信息,包括但不限于有關未來的財務、運營、產品系列、新技術等信息。由于實踐中存在很多不確定因素,可能導致實際結果與預測信息有很大的差別。因此,本文檔信息僅供參考,不構成任何要約或承諾,華為不對您在本文檔基礎上做出的任何行為承擔責任。華為可能不經通知修改上述信息,恕不另行通知。版權所有 華為技術有限公司 2021。保留一切權利。非經華為技術有限公司書面同意,任何單位和個人不得擅自摘抄、復制本手冊內容的部分或全部,并不得以任何形式傳播。商標聲明 ,是華為技術有限公司商標或者注冊商標,在本手冊中以及本手冊描述的產品中,出現的其它商標,產品名稱,服務名稱以及公司名稱,由其各自的所有人擁有。