《量子信息網絡產業聯盟:2024量子人工智能技術白皮書(139頁).pdf》由會員分享,可在線閱讀,更多相關《量子信息網絡產業聯盟:2024量子人工智能技術白皮書(139頁).pdf(139頁珍藏版)》請在三個皮匠報告上搜索。
1、量子人工智能技術白皮書 1 一、緒論(一一)人工智能人工智能 1.人工智能概述人工智能概述 人工智能是機器,特別是計算機系統對人類智能過程的模擬。這些過程包括學習、推理和自我糾正。人工智能的特定應用包括專家系統、語音識別和計算機視覺等。人工智能是由美國計算機科學家約翰麥卡錫于1956年在達特茅斯會議上創造出來的。近年來它獲得各大媒體與公眾的持續關注,部分原因在于大數據,或者現在進行的業務收集數據的速度、規模和種類的增加。人工智能可以執行諸如比人類更有效地識別數據中的模式等任務,使企業能夠從數據中獲得更多洞察力。人工智能的發展大致經歷了三個重要階段:1)1950-1970 年代:即人工智能的“邏
2、輯推理”時代。1956 年夏天,美國達特茅斯學院舉行了歷史上第一次人工智能研討會,被認為是人工智能誕生的標志。在會上,麥卡錫首次提出了“人工智能”概念,紐厄爾和西蒙則展示了編寫的邏輯理論機器。人們當時認為只要機器具有邏輯推理能力就可以實現人工智能,但后來發現這樣還是遠遠達不到智能化水平。2)1970-1990 年代:即人工智能的“知識工程”時代。專家系統的出現使人工智能研究出現新高潮。DENDRAL 化學質譜分析系統、MYCIN 疾病診斷和治療系統、PROSPECTIOR 探礦系統、Hearsay-II語音理解系統等專家系統的研究和開發,將人工智能引向了實用化。量子人工智能技術白皮書 2 人們
3、當時認為要讓機器學習知識,才能讓機器變得智能化,但后來發現將總結好的知識灌輸給計算機十分困難。3)2000 年至今:即人工智能的“數據挖掘”時代。隨著各種機器學習算法的提出和應用,特別是深度學習技術的發展,人們希望機器能夠通過大量數據分析,從而自動學習出知識并實現智能化水平。這一時期,隨著計算機硬件水平的提升,大數據分析技術的發展,機器采集、存儲、處理數據的水平有了大幅提高。特別是深度學習技術對知識的理解比之前淺層學習有了很大的進步,Alpha Go 和中韓圍棋高手過招大幅領先就是目前人工智能的高水平代表之一。人工智能可以通過多種方式進行分類,這里列舉兩種分類的方法,第一種將人工智能系統分類為
4、弱人工智能或強人工智能。弱人工智能,也稱為窄人工智能,是為特定任務設計和訓練的人工智能系統。虛擬個人助理,如 Apple 的 Siri,是一種弱人工智能的形式。強人工智能,也稱為人工智能,是一種具有廣泛的人類認知能力的人工智能系統,因此當提出一項不熟悉的任務時,它具有足夠的智能來尋找解決方案,也就是是否能夠通過由數學家阿蘭圖靈于 1950 年開發的圖靈測試,判斷計算機是否能真像人一樣思考,盡管該方法存在爭議;第二種是來自密歇根州立大學綜合生物學和計算機科學與工程助理教授 Arend Hintze 的分類方法。他將人工智能分為四類,從現有的人工智能系統類型到尚不存在的有感知系統。2.傳統人工智能
5、特點傳統人工智能特點 人工智能(Artificial Intelligence,以下簡稱 AI)的四大特點如下:量子人工智能技術白皮書 3 1)自我學習和自我進化:AI系統能夠自我學習和自我進化,不斷提高自身的智能水平。2)處理和分析數據的能力:AI系統能夠通過數據的分析和處理,提取出有用的信息和模式,并做出預測和決策。3)自動化和智能化的任務:AI系統能夠執行各種自動化和智能化的任務,如語音識別、機器翻譯、自動駕駛等。4)與人交互的能力:AI系統能夠與人進行交互,如通過語音、圖像等方式與人類進行對話,從而不斷學習和適應人類的語言和文化。(二二)量子信息技術與人工智能的融合量子信息技術與人工智
6、能的融合 量子信息技術和人工智能都是當今最前沿的技術領域之一,它們在各自的領域內都有非常強的影響力和應用前景。近年來,越來越多的研究者開始將量子計算和人工智能進行深度融合,旨在實現更快速、更準確和更高效的計算和決策。1.量子信息技術概述量子信息技術概述 量子信息技術是量子物理與信息科學交叉的新生學科,其物理基礎是量子力學。而量子力學則是在 1920 年由愛因斯坦等科學家首次創立。自從問世以來,量子科學已經先后孕育出原子彈、激光、核磁共振等新技術,成為20世紀最重要的科學發現之一。進入21世紀,量子科技革命的第二次浪潮即將來臨。第二次量子科技革命將催生量子計算、量子通信和量子測量等一批新興技術,
7、將極大地改變和提升人類獲取、傳輸和處理信息的方式和能力。其中,量子通信是較為重要的安全技術,它是利用量子態作為信息載體來進行信量子人工智能技術白皮書 4 息交互的通信技術,利用單個光量子不可分割和量子不可克隆原理的性質,在原理上確保非授權方不能復制與竊取量子信道內傳遞的信息,以此保證信息傳輸安全。量子信息技術的三大基本原理:量子比特、量子疊加、量子糾纏。量子比特是量子計算機的最小儲存信息單位,一個量子比特可以表示 0 也可以表示 1,更可以表示 0 和 1 的疊加,即可處在 0 和 1兩種狀態按照任意比例的疊加,因此,量子比特包含的信息量遠超過只能表示 0 和 1 的經典比特。量子信息技術研究
8、已成為當前世界科技研究的一大熱點。國際社會紛紛加大研發力度和投入,力爭搶占技術制高點。中國近年來對量子信息技術的重視和支持力度也逐漸加大,習近平總書記在2018 年強調“以人工智能、量子信息、移動通信、物聯網、區塊鏈為代表的新一代信息技術加速突破應用”,進一步肯定了量子信息技術的戰略地位。2.量子信息技術與人工智能雙向賦能量子信息技術與人工智能雙向賦能 以量子計算為例,作為量子信息技術的關鍵核心技術,量子計算與人工智能的結合,能夠在未來有效提升算力供給能力,從而進一步推動人工智能的發展和應用?,F在的人工智能系統使用的是成百上千個 GPU 來提升計算能力。這使得處理學習或者智能的能力得到比較大的
9、增強。然而這套系統也需要龐大的硬件機柜和相配套的硬件機房,較大的人工智能硬件系統需要將近半個足球場的占地空間。當量子芯片中的量子比特達到一定數量后,計算能力將完全滿量子人工智能技術白皮書 5 足人工智能的算力需求。實現人工智能,原來需要一千臺或者一萬臺計算機的規模,使用量子計算機可能就只需要一臺,也就是說人工智能將不再依賴于大型服務器集群,或者龐大的云計算中心。在人工智能領域,量子計算的優勢主要表現在其可以通過量子并行性和量子態疊加等優勢來處理復雜的計算問題,從而提高機器學習算法的訓練速度和準確度;通過量子搜索、量子優化等方法,提高優化算法的效率和精度,從而加速解決各種優化問題;通過量子隱形傳
10、態和量子密鑰分發等技術,保障數據的安全傳輸和存儲,進而保障數據的隱私和安全等。在量子計算領域,人工智能的優勢主要表現在以下兩個方面:一是改善量子計算中的算法。量子計算需要開發新的算法和數據結構來適應量子系統的特點。人工智能技術可以幫助優化和改進量子算法的設計和實現,從而提高量子計算的效率和準確度。二是改善量子計算中的控制。量子計算需要高精度的控制和測量,而這些控制和測量通常會受到各種噪聲和誤差的影響。人工智能技術可以幫助改善量子計算中的控制和測量,從而提高量子計算的穩定性和可靠性。因此,量子計算和人工智能的深度融合可以帶來巨大的優勢和潛力,將有助于推動計算機科學和技術的發展。二、量子人工智能概
11、述(一一)量子人工智能量子人工智能 1.量子人工智能的定義量子人工智能的定義 量子人工智能技術白皮書 6 量子人工智能(Quantum Artificial Intelligence,QAI)是一種基于量子計算的人工智能技術。它利用量子計算機的特殊性質,如量子疊加和量子糾纏,來加速機器學習和優化算法,從而實現更高效、更準確的人工智能應用。2.量子人工智能的主要應用量子人工智能的主要應用 利用量子人工智能上述自身的這些性質,量子人工智能可以設計出一些特殊的算法,來解決傳統人工智能難以處理的問題。例如,量子人工智能可以用量子神經網絡(Quantum Neural Network,簡稱QNN)來模擬
12、復雜的非線性函數,從而提高人工神經網絡的表達能力和學習效率。量子人工智能也可以用量子優化算法(Quantum Optimization Algorithm,簡稱 QOA)來尋找最優解或近似最優解,從而解決組合優化、約束滿足、機器學習等領域的難題。在現實生活中量子人工智能也有著廣泛的應用前景,它可以在各個領域提供更好的解決方案和服務。以下是一些量子人工智能的應用探索發展方向示例:1)醫療健康:量子人工智能可以幫助醫生進行更精確的診斷和治療,例如利用量子機器學習來分析醫療數據,發現潛在的疾病風險和治療方案;利用量子優化算法來設計新型的藥物和疫苗;利用量子神經網絡來模擬生物分子的結構和功能。2)金融
13、服務:量子人工智能可以幫助金融機構進行更高效的風險管理和投資決策,例如利用量子機器學習來預測市場走勢和價格波動;利用量子優化算法來優化資產組合和交易策略;利用量子神經網絡來模擬復雜的金融模型和場景。量子人工智能技術白皮書 7 3)智慧城市:量子人工智能可以幫助城市管理者進行更智能的規劃和運營,例如利用量子機器學習來分析城市數據,提升公共服務和安全水平;利用量子優化算法來優化交通網絡和能源分配;利用量子神經網絡來模擬城市環境和社會行為??傊?,量子人工智能是一種基于量子計算的人工智能技術,它可以利用量子計算機的特殊性質來加速機器學習和優化算法,從而實現更高效、更準確的人工智能應用。隨著量子計算機的
14、發展和應用,量子人工智能將成為未來人工智能領域的重要發展方向。(二二)量子人工智能技術現狀及趨勢量子人工智能技術現狀及趨勢 1.全球量子人工智能技術投資狀況全球量子人工智能技術投資狀況 全球量子人工智能技術的投融資狀況非?;钴S,而且呈現出多元化和不斷增長的特點。這個領域在國內也受到了高度關注,投資機構對于其前景也十分看好。隨著量子人工智能技術的不斷發展,未來有理由相信該領域的前景更加廣闊。2021 年,NORDIC QUANTUM COMPUTING GROUP 獲得 875萬美元的種子輪融資,由英特爾、M Waldau 和 Start ENGINE 的超級天使基金等多家機構和個人共同投資;Q
15、uantistry 完成 175 萬美元的種子融資,由 Gray Ghost Ventures、SEIF and Joseph Heiderich 等多家機構和個人共同投資;QC WARE 獲得 2500 萬美元 B 輪融資,該輪融資由 Koch Industries 投資部門 Koch Disruptive Technologies 和世界領先的聚合物公司之一 Covestro 共同領投,三星風投和回歸投資者花旗、D.E.Shaw 集團和 Pegasus Tech Ventures 跟投。2022 年,Quantistry 宣布完成了 500 萬美元的超額認購種子擴展量子人工智能技術白皮書
16、8 融資,由 Redline Capital 領投,現有投資者 Gray Ghost Ventures 跟投;Quantum Machines完成了5000萬美元的B輪融資,由Red Dot Capital Partners 領投,Exor、Claridge Israel、Samsung NEXT、Valor Equity Partners、Atreides Management LP 參投,TLV Partners、Battery Ventures、Altshuler Shaham 以及其他現有投資者跟投,迄今為止,Quantum Machines 籌集的總資金達到了 7300 萬美元;Za
17、pata Computing 完成了一輪 3800 萬美元的 B 輪融資,投資方包括霍尼韋爾(Honeywell)等知名公司。2.全球量子人工智能技術政策全球量子人工智能技術政策 全球量子人工智能技術的政策布局正不斷加強。以下是一些主要國家和地區在量子人工智能技術領域的政策情況。美國政府自 2018 年開始連續發布了多項戰略性文件,包括國家量子倡議法案、量子網絡基礎設施法案、量子網絡基礎設施和勞動力發展法案等,以提高量子科技在全國科研領域中的地位,推動量子科技的發展。此外,美國政府還與多個私營公司合作,共同推動量子人工智能技術的發展。我國近年來加強了量子科技領域的政策布局,發布了多項重要文件,
18、將量子科技列為未來發展的重點領域之一。同時也在人工智能領域布局和推動與量子計算等領域的融合發展,新一代人工智能發展規劃中明確指出,布局前沿基礎理論研究。針對可能引發人工智能范式變革的方向,前瞻布局高級機器學習、類腦智能計算、量子智能計算等跨領域基礎理論研究。量子智能計算理論重點突破量子加速的機器學習方法,建立高性能計算與量子算法混合模型,量子人工智能技術白皮書 9 形成高效、精確、自主的量子人工智能系統架構。歐洲議會于 2018 年通過了量子技術公約,旨在推動歐盟及其成員國在量子技術領域的協同發展。此外,歐盟還提出了“歐洲量子計劃”,旨在推動歐盟在量子技術領域的投資和研發,打造全球領先的量子技
19、術產業鏈。日本政府在 2017 年提出了量子計算機技術研究開發培育事業,旨在促進日本在量子計算機領域的研發和應用。此后,日本政府又提出了量子技術創新計劃,旨在推動日本在量子科技領域的創新和發展??傊?,全球主要國家和地區都在量子人工智能技術領域加強了政策布局,以推動該領域的發展和產業化的進程。3.全球量子人工智能技術發展趨勢全球量子人工智能技術發展趨勢 量子人工智能利用量子計算的高并行性,提高對大數據的處理、分析和挖掘能力,并且借鑒量子力學的原理,促進新型算法的產生,能夠提供全新的計算范式。量子人工智能也有望成為人工智能市場增長的重要驅動因素。因此,受到產學研用各方的高度關注,但是總體來講,量子
20、人工智能技術和產業整體還處于技術萌芽期。美國著名的咨詢公司 Gartner 將一項技術的發展進程分為五個階段:技術萌芽期、期望膨脹期、泡沫破裂低谷期、穩步爬升復蘇期和生產成熟期。量子人工智能目前主要集中在實驗室研發、算法和應用場景的探索,少數商業公司推出簡單的應用服務或案例演示,符合 Gartner 對技術萌芽期的定義。處于萌芽期的技術或服務在短期內會快速發展,在1-2年內進入期望膨脹期,但是距離成熟商用至少量子人工智能技術白皮書 10 需要 10 年的時間。雖然部分量子人工智能算法在含噪中等規模量子(NISQ)硬件上可以有效運行,但現階段還未成為人工智能領域的主流方案。量子人工智能的發展面臨
21、諸多挑戰。一是量子計算硬件路線尚未收斂,規模和性能無法滿足應用需求。量子處理器是執行量子人工智能算法的“核心引擎”,是制備、操作和測量量子比特與量子邏輯門的物理載體,也是現階段量子計算研究與應用的關鍵方向之一,超導、離子阱、硅基半導體、光量子和中性原子等技術路線呈現多元化發展和開放競爭態勢,尚未出現技術路線融合收斂趨勢。此外量子人工智能的加速優勢還體現在問題規模上,但是問題規模越大,量子線路的寬度和深度隨之增大,所需要的量子硬件資源(量子比特數目)越多,對量子比特性能(如保真度、相干時間)的要求也越高,當前的硬件水平無法滿足大規模應用需求。二是缺乏有效的數據編碼方法。目前絕大部分的數據都是經典
22、的,而運行量子人工智能算法需要將經典的數據編碼到量子比特上。學術界已經提出諸多中經典數據的量子表示方法,但是仍處于理論研究和實驗驗證的階段。如何高效、準確地進行經典數據的編碼仍是未來關注的熱點。三是缺乏面向NISQ的成熟算法。當前量子計算硬件處于從實驗樣機向工程化樣機轉化的關鍵階段,但是量子比特數目只有數百個,并且量子比特的相干時間和保真度還不夠理想,量子錯誤緩解和量子糾錯等技術尚不成熟。因此在設計量子人工智能算法時要充分考慮當前的硬件水平并且能體現量子加速優勢。目前尚沒有成熟的量子人工智能算法被廣泛應用于實際的生產生活中。量子人工智能技術白皮書 11 三、量子人工智能關鍵技術(一一)量子人工
23、智能平臺框架量子人工智能平臺框架 鑒于量子人工智能領域在未來發展的廣闊前景,在真正的容錯通用量子計算機落地前,國內外各家相關公司早已在其計算框架技術、軟件服務方面進行了布局,以利用先發優勢吸引和培養潛在用戶。各廠商等通過建立自己的量子人工智能及量子計算等平臺框架來提升行業影響力,打通自主研發的芯片和算法,實現軟硬協同、賦能百業。以量子機器學習平臺框架為例,其關鍵技術組成包括:訓練數據集管理、量子機器學習模型的定義與訓練框架、量子機器學習的訓練過程管理與部署、量子機器學習模型分析輔助工具、量子機器學習實例算法庫等。下面是一些國內外主流量子公司的量子人工智能相關的平臺框架技術。1.IBM Qisk
24、it IBM 的量子產品主要以 Qiskit 為核心構建。其中,Qiskit 部分的核心是由四部分組成,包括 Terra 線路編輯、Aer 計算仿真模塊、Ignis糾錯模塊以及AquaIDE模塊。Terra線路編輯模塊是在線路和脈沖級別上構成量子程序的基礎模塊,針對特定設備進行了優化,同時管理遠程量子設備上所執行的一批實驗。Aer計算仿真模塊可以在經典處理器在盡最多大程度模擬量子計算。Aer 是基于 QASM 制作。Ignis 糾錯模塊包括更好地表征錯誤,改善門控,以及在存在噪聲的情況下進行計算。AquaIDE 模塊可用于構建量子計算應用程序。Qiskit 機器學習包目前只包含樣本數據集。Qi
25、skit 有一些分類算量子人工智能技術白皮書 12 法,如 QSVM 和 VQC,數據可以用于實驗,還有 QGAN 算法。圖 1 Qiskit 梯度計算框架 除了 Qiskit 機器學習提供的模型外,還有 TorchConnector,允許用戶將所有的量子神經網絡直接集成到PyTorch開源機器學習庫中。Qiskit 內置梯度計算算法,不僅支持量子梯度也支持函數梯度計算,除了支持期望值的一階梯度也支持二階梯度(Hessians)計算,這包括了PyTorch在反向傳播過程中計算的總體梯度,同時也考慮到了量子神經網絡。Qiskit 靈活的設計還允許將來構建到其他包的連接器。2.Xanadu Pen
26、nyLane PennyLane 是 Xanadu 的開源量子計算軟件,是一個用于量子機器學習、量子化學和量子計算的開源軟件框架,能夠在真實量子計算機硬件上運行,廣泛用于量子機器學習、化學和優化。PennyLane 作為一個跨平臺的 Python 庫,它實現了一種新的范式:量子可微編程,能夠與機器學習工具無縫集成。支持類似于訓練人工神經網絡的方式來訓練量子機器學習模型。PennyLane還提供一整套功能、模擬器、硬件和社區主導的資源,使所有級別的用戶都能輕松構建、優化和部署量子經典應用程序。量子人工智能技術白皮書 13 圖 2 PennyLane 量子機器學習框架示意圖 該框架主要特點有,代碼
27、在一次編寫后,可在任何地方運行。程序設計中,可以自由切換模擬器和量子計算機硬件類型,不需要對程序進行其他更改;將高性能計算和 GPU 與 Xanadu、Amazon Braket、Google、IBM、Rigetti 等公司的量子硬件無縫結合,輕松地從量子機器學習模型的快速迭代設計過渡到硬件測試;內置量子電路的自動微分技術,PennyLane框架知道如何區分量子設備是模擬器還是量子計算硬件,自動為作業選擇最佳算法;支持量子硬件上的機器學習,將量子硬件無縫連接到 PyTorch、TensorFlow、JAX 和NumPy,構建起豐富靈活的量子-經典模型;靈活性強,從量子優化器到量子化學算法,在構
28、建算法時,如果需要額外的工具時,隨手可得;集成度高,從量子優化器到量子化學算法所需的工具應有盡有。3.圖靈量子圖靈量子 DeepQuantum 圖靈量子提出 DeepQuantum 計算框架,以芯片和算法為核心實現軟硬協同,基于 Qumode 實現光量子計算模擬,與基于 Qubit 的量子計算模擬相結合,將使得 DeepQuantum 在業內具有特色。圖靈量量子人工智能技術白皮書 14 子致力于開發一個完善的計算框架,為云平臺、量子 AI 教育產品、量子計算比賽、POC 開發以及內部算法應用的開發等提供技術支撐,也更需要一個高效好用的計算框架,賦能算法開發,以在更多生物醫藥、金融科技等應用場景
29、中找到潛在的量子增強應用。圖靈量子 DeepQuantum 計算框架同時包含基于 Qubit 的量子計算模擬和基于 Qumode 的光量子計算模擬,并且涵蓋量子神經網絡、VQE、高斯玻色采樣等應用和演示模塊。DeepQuantum 底層基于張量網絡技術(Tensor Network)進行優化,框架計算效率和可模擬規模具有一定優勢。圖 3 DeepQuantum 量子機器學習計算框架 DeepQuantum 加入目前最先進的張量網絡技術,復現量子計算領域的研究亮點,并與與圖靈量子公司研發的芯片打通,支持通過云平臺調用底層硬件計算資源,未來可通過硬件賦能上層算法應用。量子人工智能技術白皮書 15
30、DeepQuantum 還部署到量子智算中心,探索展示具有價值或潛力的應用演示。未來,圖靈量子進一步打造 DeepQuantum 生態,持續提升在行業內的影響力,以優質社區吸引各類人才,拓展量子計算生態,推動實現技術應用賦能。4.百度百度 Paddle Quantum 量槳是百度基于飛槳開發的量子機器學習平臺。量槳的主要特點包括:輕松上手,豐富的在線學習資源(近 50 篇教程案例),可以通過模板高效搭建量子神經網絡;功能豐富,提供多種優化工具和 GPU 模式,通過量易伏可以連接真實的量子計算機,并且支持多種噪聲模型的模擬;特色工具集,提供組合優化和量子化學等前沿領域的計算工具箱,分布式量子信息
31、處理模組 LOCCNet,基于測量的量子計算模塊,并且包含自研多種量子機器學習算法?;诎俣茸约旱娘w槳平臺,能夠連接真實的量子計算機,教程功能模塊比較豐富。但也存在模擬器性能等若干提升方向,以及平臺生態活躍性和吸引力的營造。5.華為華為 MindQuantum MindQuantum 是基于 MindSpore 的新一代量子計算領域套件,支持多種量子神經網絡的訓練和推理。MindQuantum聚焦于NISQ階段的算法實現與落地。結合 HiQ 高性能量子計算模擬器和昇思MindSpore并行自動微分能力,MindQuantum有著極簡的開發模式和極致的性能體驗,能夠高效處理量子機器學習、量子化學
32、模擬和量子組合優化等問題,為廣大科研人員、教師和學生提供快速設計和量子人工智能技術白皮書 16 驗證量子算法的高效平臺,讓量子計算觸手可及。MindSpore Quantum 作為一個通用的量子計算框架,支持全量子和經典量子混合計算,可以在經典模擬器和量子芯片上運行。圖 4 是 MindQuantum 的架構圖,通過量子模擬器算子來對量子體系進行模擬,可以完成前向傳播和梯度計算的功能。在此基礎之上,還有量子算法庫,如量子神經網絡、量子化學模擬的 VQE 和量子優化算法 QAOA 等??蚣艿纳蠈訛榱孔討?,基于 MindQuantum的量子算法應用到機器學習、化學模擬和運籌優化等計算任務。圖 4
33、 MindQuantum 框架圖 6.騰訊騰訊 TensorCircuit 騰訊 TensorCircuit 提供高性能量子線路和量子算法模擬框架,其軟件原型開發和開源開始于 2020 年 4 月。Tensorcircuit 面向 NISQ時代,克服了傳統量子模擬軟件的缺陷。為了實現大規模量子比特和高效率量子模擬,加入了很多代表性能的特性,如基于高效的張量網絡模擬引擎、支持自動微分、即時編譯、GPU 加速和矢量化并行。因此,相較于Google、IBM和Xandau等國際主流公司量子框架量子人工智能技術白皮書 17 方案,TensorCircuit在多種常見任務上報告了10到106倍的加速。同時
34、,TensorCircuit 在特定問題上實現支持包含數百個量子比特的線路精確模擬,是主流態模擬器所支持的最大模擬量子比特數的二十倍以上。一個具體例子是,TensorCircuit可在單GPU上跑通完整的600量子比特一維 VQE 工作流(橫場伊辛模型,七層階梯狀雙比特門)。對于該 600 比特系統,單步計算能量和全部線路梯度的耗時約 18s。TensorCircuit 支持 TensorFlow、PyTorch 和 JAX 三大最主流的機器學習庫作為后端。TensorCircuit 基于 PyTorch 的 vmap 無法滿足它全部需求的實際,擴展為借助其他兩種后端實現相關計算。整體的編程風
35、格類似 JAX 的函數式編程理念。圖 5 TensorCircuit 的產品特色 目前 TensorCircuit 按照“統一量子編程”這一愿景正在持續進行開發和功能迭代,適用于量子機器學習(QML)相關任務的快速實現、算法研究和工業級部署,為量子機器學習的學術研究和應用探索能提供可靠高效的平臺。針對目前最流行的三種大模型機器學習架構:Transformer、擴散模型和圖神經網絡,國際上已經有相關科研工作嘗試使用 TensorCircuit 作為基礎工具實現了量子版本的開發和實現,形成了一定的學術研究影響力。量子人工智能技術白皮書 18 7.本源量子本源量子 VQNet VQNet 是本源量子
36、開發的新一代量子與經典統一的機器學習框架,該機器學習框架首次將量子與經典統一,支持量子機器學習和經典機器學習模型的構建與訓練、經典量子混合運算,可連接超導量子計算機本源悟源,將支撐圖像處理、信號處理、自然語言處理等更多應用場景落地。VQNet 集經典機器學習模型和量子機器學習模型于一體,可以讓開發人員更便捷構建、運行和優化經典和量子機器學習算法??梢酝ㄟ^本源量子計算云調用本源悟源量子計算機,加速量子機器學習模型中的量子線路計算。同時,VQNet 不僅可以支持量子機器學習模型的訓練,也支持經典神經網絡模型、量子與經典神經網絡混合模型等更多更復雜的模型的構建。這項突破將量子與經典統一,讓此框架更加
37、實用。此外,VQNet 將有效助力圖像處理、信號處理、自然語言處理更多應用場景落地。圖 6 本源量子 VQNet 主頁面(二二)量子神經元量子神經元 1.神經元神經元 量子人工智能技術白皮書 19 神經元是神經系統中的基本功能單位,也稱為神經細胞。它們是大腦主要組成部分,負責接收、處理和傳遞神經信號,以支持生物體的神經功能和信息處理。神經元通過電化學過程來傳遞信號。當一個神經元受到足夠的刺激時,它會產生電信號,該信號會沿著軸突傳播到其他神經元的樹突,從而在神經網絡中傳遞信息。神經元之間的連接和信號傳遞是神經系統功能的基礎,它們協同工作以實現感覺、思維、運動控制和其他神經活動。感知器,也叫感知機
38、,是受到神經元啟發的數學模型。它具有n個輸入節點(神經元),其值為xk=1,1,其中k=1,n,這些輸入節點連接到單個輸出神經元y,連接的重要性用權重wk1,1)表示,所有輸入的加權求和表示為:h(w,x)=nk=1wkxk 輸出 y 由激活函數確定:y=1,if h(w,x)b1,else 其中b是一個閾值。Rosenblatt 于 1958 年引入了感知器,對神經科學和人工智能至關重要。然而,人們發現感知器只能對線性可分函數進行分類。這一挑戰在20世紀80年代通過多層感知器或人工神經網絡得到解決。最近,人們對結合量子物理和感知器開發量子神經網絡產生興趣。2.基于相位估計的量子神經元基于相位
39、估計的量子神經元 上面已經介紹了神經元,以及它在經典計算機上的模型感知機。量子人工智能技術白皮書 20 神經網絡使用感知機作為其基本的計算單元,這些感知機模擬了神經元從相鄰神經元接收信號,然后根據信號強度產生激活的現象。作為線性分類器,它們在機器學習的基礎概念中占據了重要位置。在量子機器學習中,人們試圖基于量子信息理論在量子計算機上實現神經元,即量子神經元。受量子相位估計技術的啟發,科學上提出了一個量子感知機模型。該量子感知機實現了 step function 激活,它的計算復雜度是 O(nlog2 n)。雖然比經典神經元相比 O(n)稍復雜一些,但是它可以處理非線性可分的數據,比如擬合 XO
40、R 函數。該量子感知器使用相位估計,歸一化輸入h(w,x)=0,1)被轉化為量子相位,然后使用量子傅立葉變換解碼相位信息。簡單回顧相位估計算法的作用:12t 2t1j=0e2ij|j|y1,yt 其中,=0.y1yt,這是一個二進制的小數。為了使用 Qubit 編碼感知機,把-1 映射成 0。感知機是二進制的,感知機的n個輸入可以寫成一個矢量 x=(x1,x2,.,xn),可以進一步被量子態|x=|x1,xn 表示。有時候人們會把量子態|x=|x1,xn 理解為一個正整數的二進制展開,即|x=|x1,xn表示 x112+xn12n=x。量子人工智能技術白皮書 21 圖 7 基于相位估計的量子神
41、經元 相位估計的量子感知機線路分為三個階段:1)將歸一化的網絡輸入 h(w,x)=0,1)寫入量子狀態|x=|x1,xn 的相位;2)應用具有 t 精度的相位估計算法;3)此過程將返回一個量子態|y =|y1,yt,測量 y1 的值,1 表示激活。注意,對于任意大于等于 12 的 ,y1=1;對于任意小于 12 的,y1=0。因此,量子感知機實現了非線性映射 h(w,x)y1。下面將完整的描述基于相位估計的量子感知機的線路。如上圖所示,假定初始狀態為|0,0|x1,xn。該量子態包含兩個寄存器,第一個寄存器由 t 個量子比特構成,第二個寄存器由 n 個量子比特組成。后者編碼了所有輸入神經元的二
42、進制狀態(注意,-1 值由|0 態表示)。對 第 一 個 寄 存 器 作 用Hadamard變 換 產 生 了 疊 加 態 12tj=02t1|j|x1,xn,其中|j 表示整數 j 的二進制展開對應的量子態的簡寫,即|j=|j1,jt。量子人工智能技術白皮書 22 對第二個寄存器作用 U(w),得到 U(w)|x1,xn=e2i|x1,xn 其中 U(w)等于 U(w)=P(2w1)P(2w2)P(2wn)其中 P(2wk)是 P(2wk)=100e2iwk 有 P(2wk)|xk=e2iwkxk|xk 如下,使用 DeepQuantum 來編程實現一個基于相位估計的量子神經元。要使用量子線
43、路實現以下感知機函數,考慮只有一個輸入神經元 x:h(w,x)=wx 輸出 y 由激活函數確定:y=1,if h(w,x)1/20,else 閾值是 1/2?;谙辔还烙嫷牧孔痈兄獧C是一種非確定性的實現方式,所以在上面的實驗中,同一組 x 和 w,經典感知機激活了,但量子感知機卻沒有激活。好消息是通過增加 t,來提高激活的概率,具體可以參考。3.基于基于 RUS 線路的量子神經元線路的量子神經元 量子人工智能技術白皮書 23 圖 8 基于相位估計的量子神經元 圖 8 是最基本的量子神經元線路,一個 qubit 是一個 neuron。(a)經典神經元。每一個二進制輸入 x1,.,xn 都被乘以一
44、個權重 wi,最終會被偏置b,得到激活前的加權輸入信號 =w1x1+.+wnxn+b。激活后的輸出信號是 a=(),其中 是非線性激活函數。(b)量子神經元。這里使用 Bloch 球面來表示一個量子比特。輸入比特串被影射成計算基失態|x1,.,|xn。激活前的加權輸入信號 被編碼在 ancilla 量子比特的振幅上。激活后的信號被編碼在 output 量子比特的振幅上。輸出量子比特要比非常接近|1,要么非常接近|0,取決于 /4 或者 /4 。(c)重量子人工智能技術白皮書 24 復直到成功線路(Repeat-until-success,RUS)。RUS 線路根據 的取值,產生非線性激活效應,
45、q()。值得注意的是,這里在ancilla 比特上使用旋轉門Ry(2),通過控制 Y 門讓 ancilla 比特和output 比特發生相互作用,測量 ancilla(如果沒有測到|0,就重復之前的所有操作直到成功),便可以實現對輸出比特的非線性激活。若測到|0,則輸出比特最終的狀態是 Ry(2q()|0。(d)非線性函數。q(x)=arctan(tan2 x),q2(x)=q(q(x)=arctan(tan4 x),qk(x)=arctan(tan2k x)。(e)和(c)等價,只是更加清晰。Ry(2)=cos|0+sin|1。人們可能會好奇,為什么圖 8(b)中輸出比特最終的狀態是 Ry(
46、2qk()|0,這是因為可以遞歸調用RUS線路,產生多次激活,q()q(q().qk()。這樣做的目的是增加非線性。本節介紹的基于 RUS 線路的量子神經元可以實現類似 sigmoid的激活函數qk(x),但是激活是非確定性,那么成功的概率是多少呢,或者說平均來講要重復多少次該線路才能完成激活。相關研究給出了估計,如下。定理:假設有一個理想的激活函數g(x),如果x /4,g(x)=0,其他情況下,g(x)=/2 ;對于一個量子神經元來說,它的輸入角度是,用k次迭代來實現激活函數qk,要求|qk()g()|,輸出是Ry(2qk()|0,平均的運行時間為:O(n/)2.075(1/)3.15)其
47、中,n 是輸入神經元的個數,是權重的精度。量子人工智能技術白皮書 25 (三三)參數化量子線路的神經網絡參數化量子線路的神經網絡 近年來,人工神經網絡在各領域都得到了廣泛應用,展現出了強大的能力。與此同時,量子計算技術也在迅猛發展,近期量子處理器已經具備較為穩定的計算能力,全球多家量子計算機公司也能提供各種各樣的量子計算實驗平臺。在各方面技術的推動下,量子神經網絡這一交叉領域又重新獲取各界學者的關注。早期的量子神經網絡大多基于量子計算的相關物理過程提出,沒有對量子比特、量子線路等具體量子處理器結構進行描述,更沒有統一的框架。近期的“量子神經網絡”具有更寬泛的含義,多指代通過量子線路或者量子系統
48、實現的具有網絡化結構、參數可訓練的計算模型,因此參數化量子線路可以被視為機器學習模型?;旌狭孔?經典系統能使現有的量子設備充分發揮作用,在這種混合框架下,本節圍繞著 NISQ時代的量子線路模型展開,詳細介紹參數化量子線路如何像人工神經網絡一樣學習。1.NISQ 時代的量子線路學習時代的量子線路學習 自從 HHL 算法給出了在量子計算機上實施基本矩陣運算的方法,很多基于量子計算機的機器學習算法被提出,如量子支持向量機、量子神經元等。這些基于 HHL 算法的核心是相位估計算法,而相位估計算法需要高深度量子線路,這在 NISQ 時代是比較困難的?;旌狭孔?經典框架下的低深度量子線路模型使 NISQ
49、時代的量子設備能充分發揮作用,變分量子求解器(VQE)、量子近似優化算法(QAOA)等都是混合算法的代表,這些混合算法(混合量子-經典算法)的核心思想是將問題分成兩部分,分別由經典計算機和量子人工智能技術白皮書 26 量子計算機處理。圖 9 混合計算架構 圖 9 展示了混合框架的學習方法。整體方法包含了三個部分:人類、經典計算機、量子計算機。人類理解問題、選擇合適的模型、將信息“傳達”進模型,經典計算機對數據進行預處理、并且選擇參數化量子線路的參數集合,量子硬件準備量子態、實施量子態的演化以及測量。測量結果又被經典計算機處理,最終輸出預測值。為了提升預測值的準確性,經典計算機通過一些優化算法來
50、進行模型中的參數更新。這一整個迭代過程是由經典計算機和量子計算機協同進行的,也就是“混合”的含義。其中基于量子線路的模型是近期量子神經網絡算法的基本模塊,可以通過調節線路中門的參數來調節門的操作。這里是一個簡單參數化線路的例子,包含兩個參數化的量子邏輯門操作。首先是一個單量子比特的旋轉門操作,旋轉角度是可變參數;然后是一個兩量子比特的控制旋轉門操作,旋轉門的旋轉角度也是可變參數。量子人工智能技術白皮書 27 2.量子線路的基本學習方法量子線路的基本學習方法 為了使混合算法適用于機器學習甚至深度學習,科學家們提出了一種通用的混合框架學習方法,這種方法為量子深度學習提供了重要指導。在監督學習中,有
51、輸入為 xi ,對應的標簽為 f(xi)。算法的輸出為 yi=y(xi,),通過更新參數 使得輸出 yi=y(xi,)與標簽 f(xi)靠近。量子計算機來進行關于輸出 yi=y(xi,)的計算,而經典計算機用來進行參數的更新。學習的目標是最小化代價函數,即通過調整 使標簽與輸出的距離最小。在無監督學習中,只有輸入數據,沒有標簽,這時代價函數就不包含標簽數據。這種量子線路學習方法(稱之為 Quantum Circuit Learning,QCL)主要包含五個步驟:1)將輸入數據 xi 進行數據的量子態編碼,得到|in(xi);2)將變分量子線路 U()作用在編碼量子態上,編碼量子態進行演化后產生
52、輸出量子態 U()|in(xi);3)對輸出量子態 U()|in(xi)進行可觀測量 O 期望值的測量,對測量結果進行某種變換 F(按需)得到輸出 yi=y(xi,),其中 y(xi,)=F(O(xi);4)不 斷 迭 代,更 新 參 數 以 最 小 化 代 價 函 數 L(f(xi),y(xi,);5)評估獨立于訓練數據集的測試數據集的代價函數。下面將對前四點進行討論,第五點“訓練-驗證-測試”的思想與經典深度學習思想完全相同,不再討論。量子人工智能技術白皮書 28 3.量子數據編碼量子數據編碼 數據表示是深度學習中很重要的部分,對于經典深度學習而言,問題的關鍵是如何將數據以數值形式表示從而
53、使用經典算法來解決問題。對于量子深度學習而言,問題的關鍵是如何將數據以適應量子系統的形式表示,從而用量子算法解決問題。這個過程被稱為數據編碼(也被稱為數據嵌入,數據上傳)、量子態編碼。這部分對于量子算法來說至關重要,因為它直接影響到計算能力。假設有一個包含有 M 個樣本的經典數據集 X ,且每個樣本包含 N 個特征:X=x1,xm,xM 其中 m=1,M ,xm 是N維向量。數據編碼的目的是將這組數據轉化成在量子系統中的表示,接下來將介紹三種常見方式。1)基態編碼基態編碼 基態編碼是一種非常直觀的編碼方式,簡單來講,它把一個長度為 N 的二進制字符串轉化為一個有 N 個量子比特的量子態。例如,
54、x=8,它的二進制表示為1000 ,那么它的基態編碼為|1000 。一般地,對于一個N比特的字符串x=(x1,x2,xN),則對應的 N 量子比特的量子態為|x=|x1,x2,xN ,其中 xn 0,1,n=1,N。對于上述所示數據集 X,當每一個樣本是一個 N 比特字符串時:xm=(x1,x2,xN),xn 0,1,n=1,N ,可以使用基態編碼,編碼為量子態|xm=|x1,x2,xN。將整個數據集 X 進行基態編碼有如下表示:量子人工智能技術白皮書 29|X=1M Mm=1|xm 2)振幅編碼振幅編碼 振幅編碼將數據編碼到量子態的振幅中,它將一個 N 維的數據 x 進行歸一化,編碼到量子態
55、|的振幅中:|x=Ni=1xi|i 其中 N=2n,xi 是歸一化后的 x 的第 i 個元素,|i 是第 i 個計算基。對于上述所示數據集 X,可以將所有的 M 個 N 維樣本拼接到一個向量中:=(x1,xm,xM)其中 xm=(x1m,xnm,xNm),那么振幅向量為:l2norm=1 2 因此將數據集 X 進行振幅編碼有如下表示:|X=MNi=1i|i 其中 i 是振幅向量中的元素,|i 是計算基。n 個量子比特的系統可以編碼 2n 個振幅,也就是說,編碼 M N 個數字需要 n log2(MN)個量子比特。舉一個具體的例子:假設將數據集 X=x1=(1,2),x2=(0,3)進行振幅編碼
56、,經過拼接以及歸一化后得到振幅向量:量子人工智能技術白皮書 30 l2norm=114(1,2,0,3)那么編碼后的量子態為:|X=114(|00+2|01+3|11)3)角度編碼角度編碼 角度編碼將數據的 N 個特征編碼到 n 個量子比特的 N 個參數化量子門的旋轉角中,N n,例如將 x=(x1,xN)進行角度編碼:|x=i=1Ncos(xi)|0+sin(xi)|1 這里可以將角度編碼具體到某個量子門來實現(這里用 Ry 門舉例),首先回顧一下 Ry 門的矩陣表達式:Ry()=exp(i2Y)=cos(/2)sin(/2)sin(/2)cos(/2)那么將 x=(x1,xN)通過 Ry
57、門進行角度編碼后有:|x=i=1NRy(xi)|0 上述表達式可以這樣理解,將 N 個初始量子比特設置為|0 ,每一個量子比特經過相應的旋轉門 Ry(xi)作用后,得到的系統的態即為角度編碼后的態|x???慮 數 據 集 X=x1=(1,2,5,6),x2=(0,3,3,1),x3=(1,1,2,3),對它進行角度編碼,每個樣本可以使用四個量子比特來進行角度編碼。注意:這里 encode 只能針對一條一維的數據,如果要進行 batch 運算,則可以用 for 循環等方法。4.變分量子線路變分量子線路 量子人工智能技術白皮書 31 混合量子-經典算法就是用經典優化器來訓練包含量子線路的模型,熟知
58、的混合算法有 Variational Quantum Eigensolver(VQE),Quantum reservoir computing(QRC)等,它們與本章講述的近期通用量子線路學習(QCL)有著一定區別。QRC 和 QCL 的輸出可以定義為 y(xi)=wO ,w 為權重向量。變分量子本征求解器(VQE)的任務是通過調節線路的參數 直接最小化量子線路的輸出,即最小化 wfixedO()。量子儲備池計算(QRC)的任務是通過調節線性權重 w 最小化輸出與標簽的“距離”,即最小化 f(x)wO(x)。量子線路學習(QCL)的任務是通過調節線路的參數 最小化輸出與標簽的某種代價函數,即最
59、小化 L(f(x),wO(x,)。三者示意圖如圖 10 所示。圖 10 變分量子線路 變分量子算法就是用經典優化器來訓練參數化的量子線路。對于經典深度學習算法,模型通常是一個在經典計算機上運行的神經網絡;對于變分量子算法,模型是一個在量子計算機(或模擬器)上運行的參數化量子線路。變分量子算法中的參數可優化的量子線量子人工智能技術白皮書 32 路,也稱作變分量子線路。變分量子線路和經典神經網絡都可以被看作是由可調參數控制的連接的計算單元層,這也是現在廣泛地將變分量子線路稱為“量子神經網絡”的重要原因。這里有一個簡單的例子:對數據 x1=(1,2,5,6)使用兩個量子比特進行角度編碼(如上一個代碼
60、塊所示),然后使之通過量子變分線路。運行以下代碼,從輸出的圖片看出,前面參數固定的線路為編碼線路,后面參數隨機的線路為變分線路。數據通過量子編碼表示成量子態矢量后,輸入到變分量子線路(酉矩陣)中進行變化,這一過程為量子態的演化,數學過程即為簡單的矩陣乘法。不可避免地,變分量子線路面臨著一些挑戰,比如非線性的實現、梯度計算等等。非線性激活函數是神經網絡成功的關鍵因素,但是量子線路中門的操作是酉變換,是線性的。因此,如何在量子線路中實現高效且可靠的非線性操作仍然是一個活躍的研究領域,需要進一步的研究和創新。注意,前面提到的角度編碼也是引入了非線性。在量子設備上,計算過程中無法獲取中間某點的量子態。
61、雖然可以通過測量輔助量子比特來提取有限信息,但任何試圖觀測系統狀態的嘗試都會破壞其量子特性。因此,很難在量子設備上實現一種真正類似于反向傳播的線路學習算法,因為它依賴計算過程中存儲的網絡中間狀態。5.參數化量子線路的輸出參數化量子線路的輸出 量子人工智能技術白皮書 33 數據依次經過編碼線路、變分線路后,通常伴隨著量子測量。通過對指定量子比特進行多次量子測量,得到經典數據,此數據可看作線路的輸出并可以繼續傳遞到后面的網絡進行下一次運算。例如,在全量子(沒有任何經典神經網絡拼接,稱之為混合算法中的全量子模型)的量子分類器中,量子線路的輸出即為預測值,用來與真實標簽計算損失函數;在混合模型中(與全
62、量子模型相對應,混合算法中的混合模型是指模型中既有量子神經網絡又有經典神經網絡,稱為混合量子-經典模型),量子線路的輸出可以送入下一級經典神經網絡中繼續參與計算。量子線路的輸出通常為測量的期望值。這是因為每次測量可能會得到不同的結果,需要用一個統計學量去表示大量的測量結果,這個統計學量就是期望。期望是多次重復測量得到的理論平均值。相關內容可回顧第二章內容。期望值作為經典數據可以被經典計算機處理。在進行量子測量時,觀測量的選擇影響著測量結果。在實踐中,一般選擇 pauli-Z 算子作為觀測量。那么自然地,可以繼續在上述所示變分線路的最后進行量子測量。6.參數化量子線路的梯度參數化量子線路的梯度
63、在經典深度學習中,梯度下降是常用的優化策略。在量子深度學習中,為了發揮基于梯度下降的優化策略的潛力,獲取量子計算的梯度是至關重要的,盡管有基于非梯度的方法被提出,如 Nelder-Mead方法、COBYLA方法等,但為了保證收斂性和當今機器學習軟件工具的可用性,基于梯度的方法受到更廣泛的關注。傳統的計算梯度的常見方法包括有限差分法、自動微分法等。但這些方法并不適用于近期 QCL 的學習:一是由于在 NISQ 時代,量子人工智能技術白皮書 34 有限差分法有著很高的錯誤;二是自動微分法(基于鏈式法則原理)是現在的神經網絡最常用高效的準確計算方法,這種方法需要儲存和重新使用中間導數。但是量子線路中
64、的中間量子態是不能被測量的,測量會破壞整體計算(測量通常是最后進行的,得到輸出),所以自動微分法并不適用于量子線路的梯度計算。這里要強調一點,自動微分法仍然可以在更大的框架下使用。由于傳統梯度計算的局限性,參數位移法和其衍生方法被提出,成為近期計算量子線路梯度的代表方法。參數位移法,即通過運行兩次結構相同但是參數不同的線路得到期望值來計算梯度的方法。下圖為混合算法中使用參數位移法計算梯度的過程。圖 11 參數位移法 參數位移法提供了一種在近期量子設備上可操作的計算梯度的簡單方法,并在量子機器學習中發揮重要作用。參數位移法的規則如下:ddf()=rf(+4r)f(4r)其中 為對應量子門的參數,
65、f()為參數為 時線路的輸量子人工智能技術白皮書 35 出期望值,+4r 和 4r 為兩次位移后的參數,r 為對應量子門生成元的特征值之差的一半。等式左側即為線路輸出對于選定量子門參數的導數(即梯度),從等式右側可以看出,只要確定了量子門,這個梯度就可以解析地計算出來。這里提到的參數位移法則是有一定的使用條件的,量子門的生成元只有兩個不同的特征值,任何其他情況此法則都不適用。為了將基于參數位移思想的梯度計算方法拓展到更廣泛更通用的情況,不再局限于上述條件,多種多樣的有趣方法被提出,比如基于門分解的方法和引入輔助量子比特的方法等,這些方法各有巧思,但都有著一定的局限性,至今量子線路的梯度計算方法
66、仍然有著巨大的探索空間。(四四)量子卷積神經網絡量子卷積神經網絡 1.混合量子經典模型混合量子經典模型 混合量子-經典系統能使現有的量子設備充分發揮作用。因此本節將圍繞如何構建混合量子-經典卷積神經網絡,混合量子-經典卷積神經網絡的種類,然后介紹基于量子模擬的模型架構與實驗效果,以及2023年最新的一些混合量子-經典卷積模型的應用介紹,模型架構進展介紹。此處介紹的混合量子-經典卷積神經網絡與經典卷積神經網絡(CNN)的區別在于,混合量子-經典卷積神經網絡將經典 CNN 中的某一層經典卷積或者全部經典卷積替換為量子卷積,經典 CNN 的激活函數、損失函數、優化器都是經典算法。同時設計量子卷積時需
67、要遵守一些經典卷積應該有的屬性,如量子卷積需要根據上下層量子人工智能技術白皮書 36 網絡的輸入維度和輸出維度進行特征提取,量子卷積層可以堆疊在任意層之上,量子卷積層數量以及里面的參數都可操控,量子卷積層的梯度可計算、可更新。結合參數化量子線路,結果發現可以用來設計量子卷積。目前已有的混合量子-經典卷積模型中的量子卷積有兩種:隨機量子線路和參數化量子線路。1)基于隨機量子線路的混合模型架構基于隨機量子線路的混合模型架構 隨機量子線路其基本思想是隨機生成包含不同量子邏輯門的線路結構,一般包括以下幾個步驟:(1)確定量子線路包含的量子比特數量,即確定希爾伯特空間的維數。(2)從預定義的量子邏輯門集
68、中隨機選擇一系列量子邏輯門,通常包括阿達瑪門、CNOT 門等單量子比特邏輯門和雙量子比特邏輯門。(3)隨機確定這些量子邏輯門之間的連接方式,即確定每個門作用的量子比特。門的作用順序也是隨機生成的。對于參數化門,如旋轉門,隨機生成門參數,如旋轉角度。重復上述步驟,生成長度為 L 的隨機量子線路。經過上述步驟,可以得到一個隨機的、難以在經典計算機上進行精確模擬的量子線路。隨機量子線路可以創建高維度的量子疊加態,顯示出強烈的量子特性。它們在量子模擬、量子機器學習等領域有重要應用。下面介紹一種使用隨機參數化量子線路替代經典卷積的混合模型架構,也是混合量子-卷積神經網絡模型的開山之作,該工作使用量子人工
69、智能技術白皮書 37 圖像基準數據集 MNIST,基于 QxBranch 量子計算機模擬系統?;旌夏P图軜嬋缦聢D所示:圖 12 混合量子卷積神經網絡 圖 12(A)首先使用 x 個 n*n 個 qubits 的量子線路替代經典 x 個n*n 的卷積核進行卷積操作輸出 x 個 feature map,并對 x 個 feature map 進行池化,然后經過 y 個經典卷積核操作后再池化,最后經過 2個全連接層輸出;圖 12(B)首先對原始中 n*n 的 2 維數據展開成一個一維長度為 n*n 的向量,利用角度編碼方法將這個向量編碼到 n*n 個 qubits 的量子線路上,然后經過圖中隨機參數化
70、量子線路結構的操作后,分別對每一個 qubit 進行測量,輸出對應原始數據 n*n 位置的 feature map 值,直到量子卷積掃描完整個原始數據。上圖中Random quantum circuit 部分,設計的量子線路結構示意圖如下:量子人工智能技術白皮書 38 圖 13 隨機量子線路 該工作對比的經典 CNN 模型架構是:CONV1-POOL1-CONV2-POOL2-FC1-FC2,混合模型將 CONV1 替換為 Quanv1,其余部分與經典 CNN 模型保持一致。在原論文的實驗結果中表明 Quanv1 中隨著量子卷積個數的增加,預測準確率逐漸增加,且量子卷積個數從1增加到 5 時,
71、預測準確率急劇增加,但是從 25 增加到 50 時,預測準確率似乎呈現出一種飽和的效應:圖 14 模型準確率隨卷積層數的變化 2)基于參數化量子線路的混合模型架構基于參數化量子線路的混合模型架構 結構式參數化量子線路替代經典卷積的混合模型架構研究工作量子人工智能技術白皮書 39 較多,此處選擇部分文獻中對結構式參數化量子線路做講解。文獻不僅提出了一個新的混合模型架構,還提出了一個自動計算混合量子-經典損失函數的梯度框架。該工作使用圖俄羅斯方塊數據集,展示了該混合模型在分類問題中的良好的效果?;旌夏P图軜嬋缦聢D所示:圖 15 另一種混合量子卷積神經網絡 2.全量子模型全量子模型 全量子卷積神經網
72、絡(Quantum Convolutional Neural Networks,QCNN)是近年來提出的一種量子機器學習模型。QCNN 參考了經典卷積神經網絡的思想,使用對數數量級的參數來處理指數數量級的輸入量子態。早期的 QCNN 設計中,利用了多尺度糾纏重整化(Multi-scale Entanglement Renormalization Ansatz,MERA)方法和量子糾錯技術。量子人工智能技術白皮書 40 這使得 QCNN 的參數量只有對數級別,因此模型可以高效訓練和實現。QCNN可以看作是MERA的逆過程,輸入量子態經過層層的“去糾纏”線路,最終到達簡單的末態。池化層中加入了量子
73、糾錯功能,使 QCNN 對局部擾動具有魯棒性。后續的其它工作在此基礎上對QCNN 的結構進行不同的設計,使用不同的量子門,引入不同非線性等。圖 16 全量子卷積神經網絡 理論分析表明,QCNN 不存在貧瘠高原問題,參數梯度不會隨系統大小指數衰減,因此是可以有效訓練的。目前 QCNN 已被成功應用于量子相位識別、量子糾錯編碼優化等問題。隨著量子計算設備的發展,QCNN 有望成為量子機器學習一個有價值的方向。量子人工智能技術白皮書 41 1)QCNN 與與 CNN 的聯系的聯系 圖 17 卷積核 卷積神經網絡(CNN)通過卷積和池化操作提取輸入數據的多尺度特征表示,實現了出色的圖像和語音識別效果。
74、卷積層通過應用卷積核于輸入特征圖,執行局部區域的加權求和運算以提取空間信息,具有平移不變性;池化層可以有效減少特征圖尺寸的大小,進而減少計算量,同時引入非線性提高了模型的表達能力。經過多層卷積和池化,CNN 形成層次化的特征提取和表達。量子卷積神經網絡(QCNN)從 CNN 獲得啟發,使用類似的網絡結構處理輸入的量子態。QCNN 的卷積層以平移不變的方式在有限深度內應用單一的準局部酉算子(Quasi-local Unitary);池化層則通過對部分量子位特進行測量,并將測量結果應用于附近的量子位的酉旋轉,實現了系統的壓縮同時也引入了非線性。QCNN 的參數量只有經典卷積的對數級別,實現了指數級
75、量子態的高效處理。QCNN 與量子糾錯碼和張量網絡等理論相關,可應用于量子相識別等任務。量子人工智能技術白皮書 42 2)QCNN 與與 MERA 的聯系的聯系 圖 18 QCNN 與 MERA 的聯系 在上面提到過,QCNN 的結構與 MERA 張量網絡有著緊密的聯系,下面將具體介紹它們之間的關系以及 MERA 張量網絡的基本介紹。MERA(多尺度糾纏重整化線路)是一種張量網絡結構,可以高效地表示某些量子多體系統的波函數。MERA 的基本思想是,先從簡單的非糾纏態開始,然后通過引入不同尺度的等距層(Isometry Layers)和酉層(Unitary Layers)逐步生成目標復雜的量子波
76、函數。酉層在現有自由度間施加準局部的酉變換,起到重整化的作用。等距層則引入新的自由度,通常初始化為簡單的非糾纏態。MERA 的這種層級結構使它可以用對數級的計算復雜度來表示指數級自由度的量子系統。此外,MERA 還可以直觀地反映出量子系統的多尺度量子人工智能技術白皮書 43 結構和長程相關性質。它非常適合表示量子臨界態,并可以計算相關函數等物理量。QCNN 的線路結構與 MERA 非常相似,都是以一種層級結構的方式對輸入量子態進行操作。二者主要區別在于,MERA 由低層向高層生成目標波函數,而 QCNN 則從高層輸入量子態開始,逐步處理到輸出層。因此,對于一個可由 MERA 表示的目標波函數,
77、總存在一個對應 QCNN 線路,該線路就是 MERA 的逆過程。這為 QCNN 線路的設計提供了重要啟發。與 MERA 不同,QCNN 在每一層還增加了量子糾錯的機制。在 QCNN 的池化層中,會通過測量識別出輸入態與目標波函數的偏差,然后引入酉變換對余下的量子比特進行“錯誤修正”。這使得 QCNN 不僅能夠表示目標波函數,也能夠處理偏離目標波函數的輸入量子態。QCNN 線路結合了 MERA 的層級結構和量子誤差校正的能力,因此功能更為強大,可以用于量子態分類、編碼等任務。3)全量子卷積線路結構全量子卷積線路結構 上文中,重點介紹了 QCNN 的由來和它的一些重要性質,接下來將著重具體介紹如何
78、構建一個量子化的卷積層和池化層,并分析其和經典卷積與池化之間的區別和聯系。卷積層是量子卷積神經網絡(QCNN)的核心組成部分,其結構受經典卷積神經網絡的啟發。QCNN 中的卷積層由參數化的量子線路模塊組成,這些模塊以平移不變的方式作用在相鄰的量子比特對上,起到特征提取的作用。具體來說,卷積層中的每個量子線路模塊含有一系列旋轉門和控制門,模塊內門的參數通過訓練進行優化。在同一卷積層中,這些量子線路模塊完全相同,即具有平移不變性,量子人工智能技術白皮書 44 如圖 19 中的每個 U1,其都具有相同的線路結構和參數。卷積層提取輸入量子態的局部特征,然后通過后續的池化層減小量子系統的大小。在量子卷積
79、神經網絡(QCNN)中,卷積層的參數數量與系統規模無關,這大幅減少了需要進行優化的參數量。此外,卷積層可看作在輸入量子態的相鄰區塊間建立量子糾纏,從而產生全局的特征表示。下圖展示了不同線路設計下的 QCNN 卷積層:圖 19 不同的 QCNN 卷積層 量子卷積層與經典卷積層的聯系:(1)都具備平移不變性。即輸入發生平移,輸出保持不變。這使得二者都可以提取輸入的平移不變特征。(2)都以局部操作的方式對輸入進行變換,實現對輸入的特征提取。量子卷積層在相鄰量子比特對上作用參數化門線路,經典卷積層用卷積核在輸入特征圖的局部區域內作卷積。量子人工智能技術白皮書 45 (3)參數量與系統大小無關。二者的層
80、內參數量都是常數級的,與輸入量子態、特征圖的大小無關。這使得參數量容易優化。量子卷積層與經典卷積層的區別:(1)量子卷積層可生成任意的酉變換,而經典卷積核只能實現線性變換。量子卷積層的表達能力更強。(2)量子卷積層通過量子糾纏可建立全局的特征關聯,而經典卷積核只能提取局部特征。(3)量子卷積層作用于全部輸入量子比特,可利用量子糾纏實現非局部操作。經典卷積核的感受野是局部的。綜上,量子卷積層吸收了經典卷積層的一些重要概念,如平移不變性、局部操作等,但更強大,可建立非局部糾纏,引入量子全局特征。這也是其在一些量子學習任務上的優勢所在。圖 20 經典池化線路 量子人工智能技術白皮書 46 圖 21
81、量子池化線路 量子卷積神經網絡(QCNN)中的池化層主要作用是壓縮系統的大小,并盡量保留前層特征信息,這可以減少后續線路的復雜度和參數量。除了前文中提到的通過測量的方式實現池化層之外,也有文獻提出了其它方法實現池化層,這里總結如下:測量操作:通過對部分量子比特進行測量來實現系統的壓縮。這種方法可以引入非線性,并從量子糾錯的視角進行優化設計,適合 NISQ 設備。但是需要多次測量以獲取輸出統計量。偏跡壓縮:通過偏跡運算,從一個多量子比特系統中提取出部分量子比特的信息,將量子狀態降維到一個更小的 Hilbert 空間。這種方法在保留某些局部量子信息的同時,會失去一部分全局信息。這個操作在實際的量子
82、計算實現中可能具有挑戰性。量子態丟棄:首先在兩個或更多的量子比特之間施加通用的雙量子比特酉算子以實現糾纏。然后,從每對量子比特中選擇一個進行忽略,使其在后續的量子線路中不再接受任何操作,包括測量。這種操作等效于從 Hilbert 空間中丟棄了這些量子比特。這種方法在實現上相對靈活,并能通過糾纏操作盡量保留重要的量子信息??傊?,量子池化層的目的是對量子線路進行壓縮以減小參數量,量子人工智能技術白皮書 47 不同實現方式在保留信息量、實現難度、訓練方法上各有取舍。當前更多研究側重于簡單的測量或丟棄操作,這可能是更實際的選擇。隨著量子硬件的發展,期待看到更復雜和智能的量子池化層的設計。量子池化層和經
83、典池化層之間的聯系:(1)都能實現降維,提煉重要特征。量子池化層通過對部分量子比特進行操作并可能進行測量來實現壓縮,而經典池化層通過下采樣或其他統計方法來合并特征,從而實現壓縮。(2)參數的影響是有限的。在特定的量子池化層實現中,如使用非參數化的量子門,參數數量與系統大小無關。對于經典池化(如最大池化或平均池化),通常沒有需要學習的參數。量子池化層和經典池化層之間的區別:(1)引入非線性的方式不同。量子池化層通過量子門和量子測量來引入量子非線性,而經典池化層,尤其是最大池化,也是非線性的,但這種非線性是通過取最大值或平均值等統計操作來實現的。(2)對特征的處理不同。量子池化層除了進行壓縮外,還
84、可能通過參數化的量子門來旋轉余下的量子比特,以進一步處理特征;而經典池化層通常僅通過合并特征來進行簡化,進一步的特征處理通常由后續的層完成。(3)感受野的不同。量子池化層的操作受到量子糾纏的影響,因此作用于更廣泛的輸入量子比特;而經典池化層通常只在局部區域內進行特征合并,盡管通過串聯多個池化層可以逐步擴大其感受野。綜上,量子池化層在實現類似的降維功能時,具有量子非線性、信息保留及參數優化訓練等特性,這可能使其優于經典池化層。量子人工智能技術白皮書 48 總體而言,量子卷積神經網絡(QCNN)是一種受經典卷積神經網絡啟發的高效可訓練的量子神經網絡架構。它采用類似 CNN 的層次結構,可以利用量子
85、效應求解某些經典方法難以解決的量子機器學習問題。QCNN 的參數數量僅與系統中的量子比特數的對數相關,使其可在NISQ設備上實現。它的淺層結構避免了深層量子神經網絡訓練困難的貧瘠高原(Barren Plateau)問題。QCNN 具有廣闊的應用前景,可以擴展到多分類任務,與經典神經網絡混合使用等。QCNN 通過特征提取與量子糾纏,展現出量子計算的優勢。(五五)量子循環神經網絡量子循環神經網絡 1.混合量子經典循環神經網絡混合量子經典循環神經網絡 1)搭建量子搭建量子 RNN 網絡網絡 首先將介紹如何構建混合量子經典循環神經網絡(Quantum Recurrent Neural Network,
86、QRNN),并通過數值試驗展示其效果?;旌狭孔咏浀溲h神經網絡是經典循環神經網絡(Recurrent Neural Network,RNN)的量子版本,主要區別在于混合量子經典循環神經網絡使用變分量子線路(Variational Quantum Circuit,VQC)替換了RNN 單元中的全連接層,同時保留了單元里原有的計算邏輯。在學習搭建量子 RNN 模型之前,首先需要了解其中最重要的一個模塊變分量子線路(Variational Quantum Circuit,VQC)。變分量子線路(VQC),也被稱為參數化量子線路(Parameterized Quantum Circuit,PQC)。一
87、個通用的 VQC,一般由三個部分組成:狀態制備、變分量子線路和測量。下圖中 U(x)表示狀態制備線路,它的作用是將經典數據 x 編碼為量子態。V()表示具有可調節參數 量子人工智能技術白皮書 49 的變分線路,可以通過梯度下降的方法進行優化。最后通過測量量子態,得到經典的輸出值。圖 22 變分量子線路(VQC)的通用架構 U(x)是將經典輸入數據 x 編碼為量子態的量子線路,V()是具有可調節或可學習參數 的變分線路。線路最后是對部分或全部量子比特的測量。一個用于 QRNN、QLSTM 和 QGRU 的 VQC 模塊,包括以下三個部分:編碼線路、變分線路和量子測量。2)編碼線路編碼線路 搭建神
88、經網絡后,編碼線路將經典數據值映射為量子振幅。量子線路先進行基態初始化,然后利用 Hadamard 門來制備無偏初始態。使用雙角編碼(two-angle encoding),用兩個角度編碼一個值,將每個數據值分別用兩個量子門(Ry 和 Rz)進行編碼。兩個量子門的旋轉角度分別為:f(xi)=arctan(xi)和 g(xi)=arctan(xi2),其中 xi是數據向量x的一個分量。編碼數據的量子態為:|x=Ni=1cos(f(xi)+/4)|0+exp(ig(xi)sin(f(xi)+/4)|1 其中 N 是向量 x的維數,/4 的角偏移是因為初始的 Hadamard門旋轉。量子人工智能技術
89、白皮書 50 3)變分線路變分線路 變分量子線路由幾個 CNOT 門和單量子比特旋轉門組成。CNOT門以循環的方式作用于每一對位置距離1和2 的量子比特,用于產生糾纏量子比特??蓪W習參數,和 控制單量子比特旋轉門,它們可以基于梯度下降算法進行迭代優化更新。該變分量子線路模塊可以重復多次,以增加變分參數的數量。4)量子測量量子測量 VQC 塊的末端是一個量子測量層,通過測量來計算每個量子態的期望值。在量子模擬軟件中,可以在經典計算機上進行數值計算,而在真實的量子計算機中,這些數值是通過重復測量進行統計估計得到的。5)量子量子 RNN 模型模型 量子 RNN 模型是重要模型之一。在講解量子 RNN
90、 模型前,先簡單回顧一下經典 RNN 模型的原理和結構。使用數學公式描述經典RNN 模型的計算單元:ht=tanh(xtWihT+bih+ht1WhhT+bhh)其中 Wih是作用在 xt上的隱藏層權重參數,bih是對應的隱藏層偏差參數,Whh是作用在ht1上的隱藏層權重參數,bhh是對應的隱藏層偏差參數,這里使用 tanh 函數作為激活函數。量子 RNN 模型(QRNN)是經典 RNN 模型的量子版本。主要區別在于經典神經網絡被VQC取代,使用數學公式描述QRNN模型的計算單元 ht=tanh(VQC(vt)量子人工智能技術白皮書 51 yt=NN(ht)其中輸入 vt是前一個時間步長的隱藏
91、狀態 ht1與當前輸入向量 xt的級聯,NN是經典神經網絡層。6)量子量子 LSTM 模型模型 量子 LSTM 模型是另一種重要模型。在講解 QLSTM 模型前,回顧一下經典 LSTM 模型的原理和結構。經典 LSTM 模型類似 RNN,使用數學公式描述 LSTM 的計算單元:it=(Wiixt+bii+Whiht1+bhi)ft=(Wifxt+bif+Whfht1+bhf)gt=tanh(Wigxt+big+Whght1+bhg)ot=(Wioxt+bio+Whoht1+bho)ct=ft ct1+it gt ht=ot tanh(ct)其中 Wii,Whi,Wif,Whf,Wig,Whg,
92、Wio,Who是權重參數,bii,bhi,bif,bhf,big,bhg,bio,bho是偏差參數,it是輸入門,ft是遺忘門,gt是候選記憶細胞,ot是輸出門,ct是記憶細胞。量子 LSTM 模型(Quantum Long-Short Memory,QLSTM)是QRNN 的改進版本。QLSTM 中有兩個部分,即隱藏狀態ht和內部狀態ct。使用數學公式描述 QLSTM 模型的計算單元:ft=(VQC1(vt)it=(VQC2(vt)gt=tanh(VQC3(vt)ct=ft ct1+it gt ot=(VQC4(vt)量子人工智能技術白皮書 52 ht=VQC5(ot tanh(ct)y t
93、=VQC6(ot tanh(ct)yt=NN(y t)其中輸入 vt是前一個時間步長的隱藏狀態ht1與當前輸入向量xt的級聯,it是輸入門,ft是遺忘門,gt是候選記憶細胞,ot是輸出門,ct是記憶細胞,NN是經典神經網絡層。7)量子量子 GRU 模型模型 量子GRU模型也是重要模型之一。在講解QGRU模型前,先簡單回顧一下經典 GRU 模型的原理和結構。經典 GRU 模型類似 RNN,使用數學公式描述 GRU 的計算單元:rt=(Wirxt+bir+Whrh(t1)+bhr)zt=(Wizxt+biz+Whzh(t1)+bhz)nt=tanh(Winxt+bin+rt(Whnh(t1)+bh
94、n)ht=(1 zt)nt+zt h(t1)其中 Wir,Whr,Wiz,Whz,Win,Whn是權重參數,bir,bhr,biz,bhz,bin,bhn是偏差參數,rt是重置門,zt是更新門,nt是候選隱藏狀態。量子 GRU 模型(Quantum Gated Recurrent Unit,QGRU)是一種類似于 QLSTM 門控機制的 QRNN。與 QLSTM 相比,QGRU 的參數更少,體系結構更簡單。使用數學公式描述 QGRU 模型的計算單元:rt=(VQC1(vt)zt=(VQC2(vt)ot=cat(xt,rt Ht1)量子人工智能技術白皮書 53 nt=tanh(VQC3(ot)h
95、t=(1 zt)nt+zt ht1 yt=NN(ht)其中輸入 vt是前一個時間步長的隱藏狀態ht1與當前輸入向量xt的級聯,rt是重置門,zt是更新門,nt是候選隱藏狀態,NN是經典神經網絡層。8)基于基于 QRNN 的儲備池計算的儲備池計算 本部分將介紹如何構建基于 QRNN 的儲備池計算(QRNN-Based Reservoir Computing,QRNN-RC),并展示 QRNN-RC 模型的代碼實現和實驗測試的結果。在介紹 QRNN-RC 之前,需要先了解什么是儲備池計算(Reservoir Computing)。在用梯度反向傳播訓練RNN網絡的過程中,可能會出現一些問題,如梯度消
96、失和梯度爆炸,這可能會使訓練無法收斂。即使訓練收斂了,收斂的計算成本也很高,速度也很慢。為了解決這些問題,儲備池計算(Reservoir Computing)出現了。儲備池計算(Reservoir Computing)是將大型的、非線性的、隨機連接的固定循環網絡與具有可訓練參數的線性輸出層分離的網絡結構,一個 Reservoir Computing 由三個部分組成:輸入層,中間層和輸出層,Reservoir computing 中間層的矩陣是隨機生成的且生成后就保持不變,真正需要訓練的只有輸出層,這也使它的迭代速度比傳統的方法快很多。如圖所示,Reservoir Computing 可以用數學
97、公式描述:xk=f(Winsk+Wxk1)yk=Woutxkout 量子人工智能技術白皮書 54 其中 sk和xk分別是輸入信號和儲層狀態。W、Win、Wout分別對應儲層內部權值、輸入節點與儲層節點之間的權值、儲層節點與輸出節點之間的權值。只有Wout需要訓練,其他權值隨機初始化。圖 23 儲備池計算結構圖 基于 QRNN 的儲備池計算(QRNN-RC),簡單來說,就是在訓練過程中不訓練更新 QRNN 中的權重,只訓練最后輸出的層的參數。2.全量子循環神經網絡全量子循環神經網絡 在本節中將介紹全量子循環神經網絡的原理以及如何構建全量子循環神經網絡。全量子循環神經網絡(Quantum Recu
98、rrent Neural Network,QRNN)是一類只使用參數化量子線路進行訓練的神經網絡類型,它有許多不同的網絡模型變體,接下來,將介紹現階段的一些全量子循環神經網絡。在對比中,可以發現這些網絡結構的一些共性。最后,還將重點介紹兩種可以在光學設備上實現的全量子循環神經網絡。第一種較早提出的全量子循環神經網絡,主要將量子線路分為兩個部分。第一個部分是輸入和輸出線路,這一部分的量子線路用量子人工智能技術白皮書 55 于編碼輸入時間步的數據,并輸出當前時間步的結果。第二個部分是存儲信息線路,這一部分的量子線路用于存儲歷史信息。QRNN的每一個時間步由編碼、演化和測量三部分組成,輸入和輸出線路
99、完成編碼后,將通過一個參數化的酉線路 U()與存儲信息線路發生相互作用,并將存儲信息線路的信息傳遞到輸入和輸出線路之中,完成演化操作后,再測量輸入和輸出線路得到當前時間步的預測結果。重新初始化輸入和輸出線路,開始下一個時間步。存儲信息線路在整個算法中從未被測量過,因此它們保留了過去的信息。訓練網絡時,只需要利用梯度下降法,訓練酉線路 U()中的值即可。圖 24 全量子循環神經網絡 第二種網絡是一種更一般的全量子循環神經網絡,對應有前饋QNN 的記憶信息的迭代、每個時間步的輸入、每個時間步的輸出。這種方案可以較為自由的設置量子比特的個數和網絡的連接結構。第三種網絡是交錯全量子循環神經網絡(sta
100、ggered Quantum Recurrent Neural Network,sQRNN),這是第一種 QRNN 的網絡模量子人工智能技術白皮書 56 型變體,是一種交錯的 QRNN 結構。如圖所示,交錯全量子循環神經網絡結構與第一種全量子循環神經網絡結構較為類似,也是由兩個部分的量子線路組成,一部分是輸入和輸出線路,用于編碼輸入時間步的數據,并輸出當前時間步的結果。另一部分是存儲信息線路,用于存儲歷史信息。不同的地方在于,sQRNN 通過交錯的方式堆疊量子循環塊(Quantum Recurrent Blocks,QRB),這種方法可以大大降低算法對量子器件相干時間的要求。原先的網絡結構分配
101、給輸入輸出線路和存儲信息線路的量子比特是固定的,也就是說,在實現這種網絡結構時,存儲信息線路的量子比特需要一直工作。因此,原先的網絡結構要求量子器件具有較長的相干時間,而相干時間是量子比特的核心指標之一,很難大幅度提高。而在 sQNN 網絡模型中 QRB 以交錯方式排列,量子比特依次分配給存儲信息線路,這使得每個量子比特都可以在幾個時間步驟后重新初始化為|0態。sQRNN 通過采用這種輪班工作策略,大大降低了量子硬件的相干時間要求,更易于在現有的量子設備上使用。圖 25 交錯全量子循環神經網絡 第四種網絡是量子離散映射循環神經網絡(Quantum-Discrete-Mapbased Recur
102、rent Neural Network,QDM-RNN,它也是第一種QRNN 的網絡模型變體。QDM-RNN 同樣由輸入輸出線路和存儲信量子人工智能技術白皮書 57 息線路組成,但不同的是,當每一時間步經過編碼層線路和參數化酉算子 U()演化后,會再用不同的可觀測集合Om和Ox分別測量輸入輸出線路和存儲信息線路,以獲得經典信息,再在下一時間步將測得的存儲信息輸入存儲信息線路。這一設計使得 QDM-RNN 的線路深度不會隨著時間序列的長度而增加,從而可以避免量子線路過深的問題,大大降低算法對量子器件相干時間的要求,這使得它更容易在現有的量子器件上實現。圖 26 量子離散映射的通用架構 在這里,還
103、將介紹兩種可以在量子光子硬件上實現的全量子循環神經網絡。1)連續變量量子循環神經網絡(連續變量量子循環神經網絡(Continuous-Variable Quantum RNN,CV-QRNN)通用 CV 量子計算需要一組單量子模門和一個受控的雙量子模門,它們可以生成所有可能的高斯運算和單量子模非線性變換。在光量子線路中,量子模態是通過在電磁場中攜帶編碼信息的光子模態來實現的。所有高斯門都可以由簡單的線性設備(如分束器、相移器和壓縮器)構建。非線性通常通過交叉 Kerr 相互作用實現,也可以通過測量實現。CV-QRNN 的實現將涉及位移門:D():=expa a 量子人工智能技術白皮書 58 其
104、中 是一個復位移參數,a(a)分別是一個湮滅(產生)算子。壓縮門:S(r):=expr2(a 2+a 2)其中 r 是一個復壓縮參數。相位門 R():=expia a 其中 (0,2)。分束門:B():=exp(a b a b)其中 (0,/2),a 和b(a 和b)分別是兩個相互作用量子比特的湮滅(產生)算符。用 I(,)表示任意多端口干涉儀,它可以由上述門組成。CV-QRNN 的結構表明,首先制備量子線路的初始態|0n,單量子層 L通過位移門 D(x)將經典數據 x編碼到量子網絡中,然后所有 n=n1+n2個量子線路在多端口干涉儀I(1,1)后接壓縮門S(r1,2),之后接另一個干涉儀I(
105、2,2)和位移門D(1,2)。最后對n2個量子線路進行測量并重置為初始態,同時將n1個量子線路傳遞到下一次迭代的輸入之中。整個網絡中=1,1,r1,r2,2,2,1,2,表示所有可訓練參數。CV-QRNN 架構可以用現有的量子光學硬件實現,其中產生相干的光源和基本元件(分束器、相移器和壓縮器),已經在光子芯片中得以實現,這些硬件可以在室溫下工作,其特點是損耗非常低,故而該方案值得進一步關注。量子人工智能技術白皮書 59 圖 27 連續變量 QRNN 2)量子光循環神經網絡(量子光循環神經網絡(Quantum Optical Recurrent Neural Network,QORNN)QORN
106、N 模型如圖所示,它包含一個 m 模線路 S,通常由分束器、相移器和壓縮器組成。這樣的線路可以用辛矩陣來描述,因此,一般把它稱為辛線路。S 的左(右)側的 mio量子線路是 QORNN 的輸入(輸出),存儲信息線路 mmem從左到右使用延遲線連接,延遲線長度相同,稱它為“存儲模式”。為了執行時間序列任務,將經典信息編碼為量子態后輸入到 QORNN 的輸入端。輸入的時間間隔等于數據通過S操作和延遲線傳播的時間。存儲信息線路賦予了QORNN一定的記憶容量,輸出狀態依賴于多個過去的輸入狀態。通過訓練線路 S 的參數,QORNN 可以學習處理和預測時間序列數據。2023年,Robbe De Prins
107、 等人演示了利用現有光量子器件實現 QORNN 的一些相關實驗,期待該模型領域的進一步發展。量子人工智能技術白皮書 60 圖 28 量子光循環神經網絡 總結上述的這些全量子循環神經網絡模型,可以發現一些共性。全量子循環神經網絡都可以分為兩個部分,一個部分是輸入輸出線路,這部分的量子線路用于編碼輸入數據,并輸出當前時間步的結果,另一個部分是存儲信息線路,這部分的量子線路用于存儲歷史信息,一般不會進行測量。另外,全量子循環神經網絡的每一個時間步都由編碼、演化和測量三部分組成,其中演化部分的線路參數可以通過訓練迭代更新。(六六)量子生成模型量子生成模型 1.量子線路玻恩機量子線路玻恩機 量子線路玻恩
108、機(QCBM)是一種具有生成能力的無監督變分量子算法。QCBM 利用量子力學的概率性質(即波函數)來表示數據集的概率分布。QCBM 的優點包括其高表達能力和直接從量子線路中采樣的能力。1)生成機器學習生成機器學習 監督學習:機器學習中,有幾個分支,監督、無監督以及其它。量子人工智能技術白皮書 61 監督機器學習是最常見的,這種模型基本上是訓練計算機如何回答是或否的問題。假如有一個模型,給它一些數據,比如,以貓、狗的圖像給模型進行訓練。之后,再給它一個從未見過的新圖像讓模型判斷這是貓還是狗。這就是最常見的機器學習技術。無監督學習:在有監督的機器學習中,數據有類似狗和貓的標簽。在無監督的情況下,情
109、況并非如此。計算機不能分析出這是狗還是貓,但可以以某種方式尋找到一些模式并分析出一些事情,比如,不知道這些東西是什么,但這兩者具有明顯不同。這種學習方式試圖通過觀察數據來理解數據,而不是僅僅回答問題。生成模型的區別:生成機器學習是無監督機器學習的一個非常流行的分支。量子計算機比經典計算機更適合用來研究生成模型(這主要用到了量子測量原理)。常見的經典生成模型與對應的量子生成模型如下所示:表 1 經典與量子生成模型區別 經典生成模型 量子生成模型 生成對抗網絡 量子生成對抗網絡 受限波爾茲曼機 量子波爾茲曼機 變分自動編碼器 量子線路玻恩機 2)量子線路玻恩機量子線路玻恩機 量子線路玻恩機(Qua
110、ntum Circuit Born Machines,QCBM)是一類生成模型,它依賴于參數化的量子線路來生成符合特定概率分布的樣本。在這個模型中,量子線路接收一個初始輸入態,通常是|0 的乘積態,并施加一系列依賴于可調參數的酉門(Unitary gates)。隨后,該線路在計算基上進行測量以得到比特串樣本。訓練的核心目標是通過調整量子線路的參數,使得輸出分布盡可能接量子人工智能技術白皮書 62 近給定的目標分布,而這個目標分布通常由經典數據集所定義。QCBM 的靈感來源于量子物理學中的 Born 規則,該規則表明觀測到某一結果的概率與相應的量子態振幅的平方成正比。QCBM 是一種隱式的生成模
111、型,意味著它能夠生成樣本而不顯式提供其概率分布,這在訓練過程中帶來了一定的挑戰,因為傳統的最大似然方法在這里無法應用。為了解決這個問題,可以采用一個可微分的損失函數來度量輸出和目標分布之間的差異,例如最大均值差異(Maximum Mean Discrepancy,MMD)或 Wasserstein 距離。損失函數的梯度可通過參數位移規則(Parameter-shift rule)在量子計算機上估算,而這一規則得益于量子線路的酉結構。隨后,可以利用經典的優化算法,通過梯度信息來更新量子線路的參數。QCBM 展示了在模擬難以通過經典方式模擬的離散分布方面的潛力,并為展現生成模型的量子優勢提供了一種
112、可能的路徑。通過合理的訓練和優化,QCBM 有望在處理復雜分布和高維數據生成任務上展現出超越經典模型的能力。2.量子生成對抗網絡量子生成對抗網絡 隨著深度學習的不斷進步,生成對抗網絡(GAN)已證明在處理生成任務方面具有顯著的潛力。它能夠精準捕捉訓練數據集的分布特征,并創造出新的樣本。然而,傳統的 GAN 面臨多個挑戰:1)模式崩塌:生成器傾向于僅生成某些類型的樣本,未能全面捕捉訓練集的多樣性。2)離散數據生成困難:傳統 GAN 在表達離散值梯度上存在挑戰。量子人工智能技術白皮書 63 3)訓練不穩定性:生成器和判別器的損失值經常出現劇烈波動。4)計算資源需求高:需要大量的計算資源和時間投入。
113、5)梯度消失問題:當生成數據分布與真實數據分布差異較大時,容易遇到梯度消失的問題。近年來,量子計算作為一種新興的計算范式,顯示出在解決某些復雜問題上擁有指數級的速度優勢。因此,研究者開始探索將量子計算引入機器學習模型中,進而誕生了以量子線路為基礎的量子生成對抗網絡(QuGAN)。QuGAN 利用量子比特的疊加和量子糾纏特性,實現了生成器和判別器的高效優化。這種新的計算架構有望緩解經典 GAN 的一些困境。1)量子生成對抗網絡結構量子生成對抗網絡結構 量子生成對抗網絡主要分為兩類,全量子生成對抗網絡和混合量子-經典生成對抗網絡。2)全量子生成對抗網絡結構全量子生成對抗網絡結構 全量子生成對抗網絡
114、的生成器和判別器均為量子結構,而真實數據可以是量子的,也可以是經典的。3)量子真實數據情景量子真實數據情景 量子真實數據情景中,若真實數據由密度矩陣 描述的狀態集合表示,生成器則產生密度矩陣 描述的狀態集合。判別器的目標是準確區分 與。4)經典真實數據情景經典真實數據情景 經典真實數據情景中,經典數據在輸入到量子判別器和量子生量子人工智能技術白皮書 64 成器前需進行量子態編碼,量子生成器的潛在空間仍為量子態的集合。以下圖示展示了量子生成對抗網絡算法框架(利用量子生成器和量子判別器生成經典數據):圖 29 量子生成對抗網絡 在功能方面,通過測量量子生成器的最終態可以產生經典的離散數據,但無法直
115、接生成經典的連續數據。與此相反,經典 GAN 無法擬合離散數據,因為其框架要求生成器必須是可微分的,而生成離散數據不滿足這一條件,從而無法直接應用梯度下降方法來更新參數。然而,量子生成器的輸出對應于測量結果的離散分布。作為經典 GAN 的補充,能生成離散數據的 QGAN 和其他已知的 GAN 變體與量子力學機制的結合,無疑具有極高的研究價值。5)混合量子混合量子-經典對抗生成網絡結構經典對抗生成網絡結構 混合量子-經典對抗生成網絡的結構一般有兩種:經典生成器與量子判別器和量子生成器與經典判別器。真實數據同樣可以是量子的,也可以是經典的。由于經典 GAN 面臨訓練不穩定的問題,因此在經典 GAN
116、 的發展過程中,不少人提出了各種 GAN 的變體和不同量子人工智能技術白皮書 65 的損失函數優化策略。在優化 QGAN 時,可以借鑒經典 GAN 的一些優化策略,同時也需要關注量子硬件的限制、量子態的編碼方式,以及設計適合參數化量子線路結構的策略。經典 GAN 優化策略如下:(1)損失函數優化:損失函數的設計需要考慮量子態之間的距離度量和判別器的區分能力,有時為了避免梯度消失和模式崩潰,也可以在損失函數中添加梯度懲罰項。(2)超參數優化:如學習率衰減,自適應學習率,可以幫助模型更好的收斂。(3)生成器和判別器網絡結構優化:這部分的優化對應 QGAN的參數化量子線路結構的設計與優化。(4)量子
117、硬件限制:QGAN 的實現受到量子硬件的物理限制,如噪聲、邏輯門的準確性等。算法的優化需要考慮如何在實際硬件上實現和訓練 QGAN。量子生成器本質上是生成模型,在量子線路結構選型時將表達能力作為最主要的評價指標;而量子判別器本質上是分類模型,需要探索數據之間的關系,在量子線路結構選型時將糾纏能力作為最主要的評價指標。下圖總結了不同的 QGAN,最后一列 Application 中可以看出QGAN 的優化也與具體應用領域的需求和特定任務的優化密切相關。量子人工智能技術白皮書 66 圖 30 量子生成對抗網絡匯總 6)量子條件生成對抗網絡量子條件生成對抗網絡 在經典 CGAN 算法的啟示下,提出量
118、子條件生成對抗網絡算法的全量子方案 QCGAN,該算法的整體流程如圖所示。圖 31 量子條件生成對抗網絡 量子數據集通過量子設備生成,可以直接作為參數化量子線路(PQC)的輸入;經典數據集則需要編碼成量子態輸入到判別器中。在數據準備階段,還需要根據生成任務的目標和數據特征引入合適的條件約束,并設計線路將經典條件信息也編碼為量子態。量子人工智能技術白皮書 67 與經典 GAN 的優化思路相類似的,QCGAN 同時將條件變量添加到判別器和生成器的輸入中負責約束訓練過程。相應的在線路中添加處理條件變量的寄存器,通過使用多量子比特受控門使條件變量寄存器與數據寄存器發生糾纏,從而引導數據寄存器的學習過程
119、。(七七)量子機器學習量子機器學習 近些年,隨著量子信息處理技術的提升,研究者開始關注將量子計算(QC)與機器學習(ML)結合的潛能。量子計算機有助于發現經典計算難以覺察的模式,并產生復雜的分布。這種特質推動了量子機器學習模型的發展。量子機器學習(QML)的兩大核心方法包括:一是量子線性代數與優化。相比傳統方法,某些情況下提供指數級加速。盡管存在數據加載的“輸入問題”瓶頸,但量子線性代數算法仍為機器學習帶來了加速機會。二是量子神經網絡。相較于經典神經網絡,量子神經網絡的訓練速度更快,且需少量樣本。專門設計的量子處理器如量子退火機和光子線路,特別適合實現量子神經網絡,而這些處理器相對于通用量子計
120、算機更為實用。機器學習的核心是檢測數據中的模式。經典機器學習,例如神經網絡,可以很好地模擬大部分模式,但某些復雜模式對經典方法來說是挑戰,而量子系統可生成與經典物理學不符的概率分布和關聯性。這意味著量子機器學習在特征空間內具有更大的操作潛力,可能解決經典機器學習無法應對的問題。盡管量子算法理論上有加速潛力,但實際實施的挑戰仍使得其與經典機器學習之間的優越性待定。這是當前的重要研究方向。量子人工智能技術白皮書 68 1.機器學習與量子機器學習機器學習與量子機器學習 經典機器學習包括有監督學習、無監督學習和強化學習。有監督學習通過標簽學習模式;無監督學習則在無標簽數據中尋找模式;而強化學習則是在與
121、環境交互中學習最佳策略,例如 AlphaGo 的棋局學習。大多數機器學習算法都在高維空間上執行矩陣操作,這與量子計算的數學特性相似。因此,量子計算與機器學習的結合是尋求更有效算法的方向。目前,已經有一些展現了量子加速的算法,如量子基本線性代數子程序(qBLAS),它在某些方面相比經典算法展現出指數級加速。2.量子機器學習算法量子機器學習算法 1)基于線性代數的量子機器學習基于線性代數的量子機器學習 量子主成分分析:通常,為了揭示未知量子態的屬性,給定多個處于該狀態的系統的副本,會對不同的可觀察量進行測量,并統計分析結果。對于非稀疏但低秩的量子狀態,以經典形式揭示特征向量及其相應的特征值的規模隨
122、系統維度呈超線性增長。在這里,展示了如何使用多個具有密度矩陣 的量子系統來構建幺正變換 eit 。因此,可以對未知的低秩密度矩陣進行量子主成分分析,以量子形式揭示對應于大特征值的特征向量,其速度比任何現有的算法都要快得多,具有數據分析、態層析和狀態區分等應用。量子支持向量機和和核方法:最簡單的有監督機器學習算法例子是線性支持向量機和感知器。這些方法試圖在數據集中的兩個數據類別之間找到一個最優的分隔超平面,使得在很高的概率下,一量子人工智能技術白皮書 69 個類的所有訓練樣本只出現在超平面的一側。當超平面和數據之間的邊緣被最大化時,便得到了最穩健的數據分類器。這里“權重”在訓練中學到的是超平面的
123、參數。SVM 的最大優勢之一在于它通過核函數向非線性超平面進行泛化。與其經典對應物一樣,量子支持向量機是一個典型的量子機器學習算法示例。首個量子支持向量機在2000 年初被討論,它使用 Grover 搜索的一個變種來進行函數最小化。因此,從 N 個向量中找到 s 個支持向量需要 N/s 次迭代。最近,一個利用 qBLAS 的最小二乘量子支持向量機被開發出來。數據輸入可以來自各種不同的來源。如從 qRAM 訪問經典數據或一個量子子程序準備的量子態。一旦數據被提供給量子計算設備,它們就會使用量子相位估計和矩陣求逆算法(HHL 算法)進行處理。構建最優分隔超平面并驗證一個向量位于超平面的一側或另一側
124、所需的所有操作,原則上可以在poly(logN)的時間內完成,其中N是為準備超平面向量所需的矩陣的維度。這種量子支持機器的方法已經在核磁共振測試臺上實驗性地展示,用于手寫數字識別任務。2)量子量子 Transformer 注意力機制和 Transformer 是目前 AI 大模型的基礎,量子機器學習方面還沒有公認的量子注意力機制與量子 Transformer,但有一些研究和探索。Quantum Self-Attention Neural Networks for Text Classification 將 高 斯 投 影 量 子 自 注 意 力(Gaussian projected quant
125、um self-attention,簡稱 GPQSA)引入到量子神經網絡中,提出了一種新穎簡單的網絡架構,即 QSANN,并且在真實的文本數據集上進行了分類的任務。研究結果表明,QSANN 是有效且可拓展的,量子人工智能技術白皮書 70 能夠適應NISQ設備且對量子噪聲具有一定的魯棒性。上文已闡述了量子計算的基礎知識、文本分類問題以及自注意力機制。因此,下文將重點介紹關于 QSANN 的模型架構和實現上。從經典 Transformer 到量子 Transformer,最直接的做法就是將經典自注意力機制中的線性變換用 PQC 來代替。不過,這個想法不夠新穎,而且實踐表明這樣的模型計算量過大,難以
126、訓練,之前的研究人員在 GPU 上用 IMDB 數據集做訓練,也需要花大約 100 個小時才能訓練一輪。而Quantum Vision Transformers這個工作也是把重心放在了用量子注意力機制去代替經典的注意力機制,通過用PQC 來讀取數據以及構建正交神經層,作者們提出了兩個版本的量子 Transformer 來處理視覺任務,即 Quantum Orthogonal Transformer 和Quantum Compound Transformer。論文中進行了大量的實驗,與最好的經典 Transformer 以及其他基準相比,這種架構的量子Transformer 展現了類似的甚至更好
127、的表現。并且在計算復雜度方面,這里的量子注意力層被證明是比經典算法更具優勢的。3)量子強化學習量子強化學習 強化學習(RL)是除了監督和無監督學習之外的第三種范式。量子強化學習(QRL)算法也是量子機器學習的重要分支。將 QRL理解為利用量子資源(無論是在模擬和/或實驗中)來解決特定任務的量子輔助方法。將所有 QRL 算法組織成幾個模塊,按照所謂的量子化程度遞增。第一個模塊涵蓋了稱之為量子啟發的 RL 算法。第二個模塊涵蓋了使用 PQCs(VQCs)作為函數逼近器的 QRL 算法。在許多情況量子人工智能技術白皮書 71 下,通過簡單地用適當的 VQC 替換標準神經網絡函數逼近器就可以獲得相應的
128、算法。我們為這一類別中的大多數論文提供了詳細的總結,因為人們相信變分量子算法盡管受到現今NISQ硬件的限制,但仍具有獲得量子優勢的潛力。第三個模塊基于所謂的投影模擬和使用 Boltzmann 機器作為函數逼近器的 QRL 的實現。這是一類使用量子算法作為子程序的方法。相應的硬件要求可能只與通用的、容錯的和糾錯的量子處理單元(QPUs)兼容。最后一個模塊的算法將RL 的所有組件都量子化處理。下圖顯示了 QRL 算法的概覽。圖 32 量子強化學習算法匯總 4)量子聚類量子聚類 聚類算法是一種無監督學習算法,通過對無標記訓練樣本的學習揭示數據內在性質以及規律,其目的是簇內樣本相似度大,簇間樣本的相似
129、性要小。常見的聚類方法主要包括 K-means 算法、層次聚類、密度聚類、譜聚類等算法,在實際應用中,需要結合數據集的大小、簇數量、數據分布情況等因素選擇合適的聚類算法。目前相較于利用變分量子算法實現聚類算法,對通用量子聚類算法的研究顯得更加成熟,但受量子資源的限制,這類算法在近期量子設備上很難實現。2019 年,Khan 等人探索了 K-means 聚類算法量子人工智能技術白皮書 72 的量子實現,并提出了量子干涉、負旋轉、相消干涉三種優化策略以在NISQ計算機上實現更小深度的K-means算法量子線路。經過在IBMQX2機器上對典型數據集的實現進行比較,結果表明NISQ計算機能夠以與經典計
130、算機相同的精度解決 K-means 聚類問題。2022 年,Pablo Bermejo 等人基于變分量子線路實現了數據聚類,該算法的思想是將聚類問題轉化為一個優化問題,將問題的解編碼為目標哈密頓量的基態,同時借助 VQE 算法進行解決。作者使用真實的數據集進行基準測試,實驗數值結果表明此算法具有良好的性能,允許將數據劃分為許多簇。5)量子降維量子降維 機器學習經常需要處理大量的數據,這些數據維度很高,并且存在一些與解決問題無相關性或者相關性很小的數據,需要降維操作來降低后續計算復雜度。常用的降維操作包括主成分分析、線性判別分析。2014年,Lloyd等人提出了量子主成分分析算法,求解密度矩陣的
131、大特征值對應的特征向量。當密度矩陣是低秩矩陣時,該量子算法的復雜度對數依賴于矩陣維度。2016 年,Cong 等人實現了量子線性判別分析降維算法。與經典算法相比,該算法在原始數據集的維度上具有指數級的加速。2019 年,Yu 等人提出了一種基于主成分分析的量子數據降維算法。該算法當低維空間維數是訓練數據維度的對數時,相對經典算法有指數加速效果。2020 年,Pan 等人提出了一個改進的最優投影的量子算法,該算法平方依賴于迭代次數。2021 年,Yu 等人提出了一個線性判別分析的量子降維算法,該算法量子人工智能技術白皮書 73 具有顯著的加速效果。2022 年,Pan 等人提出了保鄰域嵌入的量子
132、算法,該算法包含三個子算法,分別對應經典算法的三個步驟,并通過量子可訪問數據結構連接各個子算法的輸入和輸出,減少了量子態重復制備的次數。另外,該算法把一般特征問題轉化到譜回歸的框架下進行求解,從而獲得了良好的加速效果。2022 年,Mahmud 等人提出了一種利用量子小波變換和改進的 Grover 搜索算法,在具有高空間分辨率和高維度特征的數據集中進行時間有效的降維和動態模式識別。該量子算法比經典的降維和搜索方法在更短的時間內產生結果。6)量子回歸量子回歸 回歸算法是一種預測性的建模技術,是一種有監督學習,主要研究自變量和因變量之間的關系,目前回歸算法主要包括線性回歸、嶺回歸、支持向量回歸等研
133、究內容。相比于分類算法,回歸算法預測的結果是連續的,而分類算法預測的結果是離散的。2012 年,Wiebe 等人首次提出量子線性回歸算法。當數據矩陣稀疏且具有很低的條件數時,該算法相對經典算法具有指數加速效果。2016 年,Schuld 提出利用線性回歸預測新數據的量子算法,當輸入矩陣為低秩矩陣時,相對經典算法有指數加速效果。2017 年,Wang 等人提出了基于標準黑盒模型的量子線性回歸算法,該算法在數據的個數上具有指數加速效果。同年,Yu 等人提出了能夠高效處理非稀疏數據矩陣以及高效確定嶺回歸參數的量子嶺回歸算法,該算法具有顯著的加速效果。2019 年,Yu 等人設計了基于量子線性回歸的量
134、子視覺追蹤算法,當矩陣條件數較低時,該算法具有指數加量子人工智能技術白皮書 74 速的優勢。2022 年,Hou 等人提出了一種量子偏最小二乘(QPLS)回歸算法,相比經典算法,QPLS 算法在自變量維度、因變量維度和變量個數上實現了指數級的加速。同年,Chakraborty 等人利用塊編碼和量子奇異值變換框架,設計了一個具有一般l2-正則化的量子最小二乘算法。該算法對條件數實現了指數加速,同時對精度有指數加速。(八八)量子深度學習量子深度學習 基于以上量子機器學習基本內容,接下來會介紹一些更加開放性的內容,主要涉及了量子注意力機制與量子 Transformer。注意力機制和 Transfor
135、mer 是目前 AI 大模型的基礎,量子機器學習方面還沒有公認的量子注意力機制與量子 Transformer,但有一些研究和探索。這里按時間順序列舉了三個基于不同量子自注意力機制的模型以及兩個啟發式的量子 Transformer。1.Quantum Self-Attention Neural Network Quantum Self-Attention Neural Networks for Text Classification將高斯投影量子自注意力(Gaussian projected quantum self-attention,簡稱 GPQSA)引入到量子神經網絡中,提出了一種新穎簡單
136、的網絡架構,即 QSANN,并且在真實的文本數據集上進行了分類的任務。研究結果表明,QSANN 是有效且可拓展的,能夠適應 NISQ 設備且對量子噪聲具有一定的魯棒性。下面將注意力放在在 QSANN 模型架構和實現上。QSANN 的核心單元被稱為量子自注意力層(quantum self-量子人工智能技術白皮書 75 attention layer,簡稱 QSAL)。下圖展示了 QSAL 的整體圖像。圖 33 高斯投影量子自注意力 在經典的注意力機制中,由 queries 和 keys 計算得到權重,再結合values得到最終的輸出,受其啟發,QSAL中也有類似的對應。對于第 l 層 QSAL
137、的經典輸入數據 ysl1,先利用一個量子線路 Uenc 進行編碼,即|s=Uenc(ysl1)|0n 下標 s 代表一個數據樣本中的輸入向量,比如一段文本中的各個詞。然后使用另外三個參數化量子線路Uq 、Uk 、Uv 來得到對應的 query、key 和 value。具體來說,query 和key 是對|s 演化后的末態做 Pauli-Z1 測量得到的結果,即 Zqs=s|Uq(q)Z1Uq(q)|s Zks=s|Uk(k)Z1Uk(k)|s 而 value 部分的測量輸出被寫成一個 d 維向量 os=P1s P2s Pds 其 中 Pjs=s|Uv(v)PjUv(v)|s ,而 每 個 Pj
138、量子人工智能技術白皮書 76 I,X,Y,Zn 則代表一個 Pauli 可觀測量。于是就有了第 l 層QSAL 的輸出 ysl=ysl1+Sj=1 s,j oj 上式中的 s,j 是第 s 個和第 j 個輸入向量之間的歸一化的量子自注意力系數,即 s,j=e(ZqsZkj)2 s,j=s,jSm=1s,m 由于這個過程通過測量將量子態投影到經典數據表示,又利用了高斯函數,因此稱之為高斯投影量子自注意力。選擇高斯函數的原因主要是它包含了無限維的特征空間,并且在經典機器學習中已經被充分研究了。了解了 QSAL,QSANN 就很容易理解了,其整體架構如下圖所示。圖 34 QSANN 算法架構 輸入數
139、據經過 L 層 QSAL 后,對輸出的所有特征向量做一次平均,再經過一個全連接層以及Sigmoid函數,即可得到分類的預測結果。最后,盡管 QSANN 在理論上能夠應用于 NISQ 設備,還是存在一些問題可以改進。量子人工智能技術白皮書 77 具體來說,QSANN 中的自注意力分數需要使用經典計算機才能得到,那么量子計算機在整個流程中能否承擔更多任務?這是值得商榷的。除此以外,這個模型還依賴于大量的測量才能把量子數據轉為經典數據。這些都是值得進一步思考的。下面要介紹的第二種量子自注意力機制(QSAM)來自A Natural NISQ Model of Quantum Self-Attentio
140、n Mechanism。通過對經典自注意力機制進行形式上的推廣,并充分發揮量子線路對數據進行特征映射與融合的能力,這里的 QSAM 顯得非常簡潔、直接,僅僅需要在這個框架中設計編碼線路與變分線路。實驗結果表明,與此前的同類模型相比,QSAM 以更低的模型復雜度、更少的訓練參數取得了更好的分類精度。同時,QSAM 對不同的量子噪聲均表現出了魯棒性。作為一個完全量子而非量子經典混合的模型,QSAM 更加適合在 NISQ 設備上實現。首先,直接給出經典自注意力機制在形式上的推廣,即 atti=Nj=1g(Qi,Kj)Vj,其中 g()根據不同的自注意力機制,既可以代表點積操作,又可以代表一個神經網絡
141、。于是在 QNN 中,可以在數據編碼的時候將 Qi、Kj 和 Vj 放在一起,然后再用 PQC 來近似 g()以及算術運算。根據這個想法,就能構建 QSAM 的量子線路,如下圖所示。量子人工智能技術白皮書 78 圖 35 QSAM 這里有兩種 QSAM 的架構,(a)中是基礎架構,被稱為 QSAMb,(b)中優化過的版本,被稱為 QSAMo。QSAMb 由編碼線路 Ue 開始,然后就是三個變分線路 U1、U2 和 U3。具體來說,U1 的輸出對應于點積自注意力機制中的 QiKjTVj ,后續的 U2 對應于求和,而 U3 則是對注意力向量又做了一次特征變換。為了簡化線路結構,前一層量子線路的輸
142、出中只有 n1 、n2 和 n3 個量子比特會作為后續 U1、U2 和 U3 的輸入。注意到 QSAMb 中進入每個 U1 的后兩個編碼線路總是相同的,去除這些冗余信息后,就得到了 QSAMo。最后,通過測量即可得到模型的輸出結果。2.Quantum Vision Transformers 從經典 Transformer 到量子 Transformer,最直接的做法就是將經典自注意力機制中的線性變換用 PQC 來代替。不過,這個想法不夠量子人工智能技術白皮書 79 新穎,而且實踐表明這樣的模型計算量過大,難以訓練,之前的研究人員在 GPU 上用 IMDB 數據集做訓練,也需要花大約100個小時
143、才能訓練一輪。而Quantum Vision Transformers這個工作也是把重心放在了用量子注意力機制去代替經典的注意力機制,通過用PQC 來讀取數據以及構建正交神經層,提出了兩個版本的量子Transformer 來處理視覺任務,即 Quantum Orthogonal Transformer 和Quantum Compound Transformer。大量的實驗表明,與最好的經典 Transformer 以及其他基準相比,這種架構的量子 Transformer 展現了類似的甚至更好的表現。并且在計算復雜度方面,這里的量子注意力層被證明是比經典算法更具優勢的。首先,給出經典注意力機制的
144、數學表達式以方便后續與量子版本進行對照,即 Aij=xiTWxj Aij=softmaxj(Aij)yi=jAijVxj 這里做了一個簡化,就是把 query 和 key 的變換矩陣合并成了 W 。接著來看如何將向量和矩陣形式的數據讀取到量子線路中,即所謂的 quantum data loader。這里的核心是一元振幅編碼(unary amplitude encoding)以及可重構分束器(Reconfigurable Beam Splitter,簡稱 RBS)。一元振幅編碼就是指將一個向量x=(x1,xd)編碼為|x=1xi=1dxi|ei ,其中|ei 是只有第 i 位(從左到右)的量子比
145、特為1其余均為0的量量子人工智能技術白皮書 80 子態。RBS 門的定義如下:RBS()=(10000cos sin 00sin cos 00001)RBS 門有一個重要的特性,就是保持 hamming 權重不變,即保持基矢中 0 和 1 的數量不變。于是,一元振幅編碼的基矢在 RBS門的作用下是完全封閉的。有了上面的這些鋪墊后,就可以正式來介紹量子 Transformer。首先,利用前面介紹的讀取數據的線路以及量子正交層,可以得到一個可訓練的計算矩陣-向量乘法的線路,如下圖所示。這個線路的輸出就是編碼 Vxi 的量子態,這個向量可以由量子態層析測量的方法得到。圖 36 可訓練計算矩陣-向量乘
146、法的線路 然后是注意力系數 Aij 的計算,具體線路如下所示。與上面類似,只要再額外加入data loader的伴隨線路,那么末態測量第一個量子比特為 1 的概率就是|xiTWxj|2 。經過經典后處理,就可以得到 Aij,再與之前的 Vxj 結合,即為 yi=jAijVxj。這個基于量子線路 實 現 自 注 意 力 機 制 的 模 型 就 被 稱 為 Quantum Orthogonal Transformer。圖 37 注意力系數線路 用這個模型進行推理時,還可以進一步將 Aij (Aij )與 Vxj 結合的過程用量子線路來實現,其具體線路如下圖所示。量子人工智能技術白皮書 81 首先,
147、對于 Ai,經過第一個寄存器的 data loader 后的量子態為 jAij|ej|0 之后,與之前矩陣數據的 data loader 類似,把每一行的 xj 讀取到第一個寄存器的|ej 所對應的子空間,即有 jAij|ej|xj 在第二個寄存器上作用量子正交層 V 后,由于 Vxj 的第 k 個元素可以寫為 qVkqxjq,因此就有 jAij|ej|Vxj=jAij|ejk(qVkqxjq)|ek=kjAij(qVkqxjq)|ej|ek 于是,對第二個寄存器做量子態層析測量就能得到 yi 了。圖 38 Quantum Compound Transformer 到 目 前 為 止,都 只
148、是 用 量 子 線 性 代 數 來 盡 量 復 現 經 典Transformer 的步驟。上面這些量子工具也可以用于構建更加啟發式的量子 Transformer,比如下圖所示的線路就是 Quantum Compound Transformer 的核心。具體來說,這個量子線路有兩個寄存器,分別有 n 個和 d 個量子比特。于是,利用矩陣的 data loader 就可以直接將完整的數據 X nd 讀取到線路中。之后,就是簡單地將量子正交層同時作用在兩個寄存器上。這里,兩個寄存器都是一元振幅編碼的,因此整量子人工智能技術白皮書 82 個態矢是由 hamming 權重為 2 的基矢組成的。需要注意,
149、基矢的數量并不是所有可能的(n+d2)個,而是對應于兩個寄存器上各有一個量子比特為 1 的情況,即 n d 個。不過,這個線路依然是在(n+d2)維的空間中計算矩陣-向量乘法,因此 X 需要通過填零的方式由 n d 維轉換為(n+d2)維。而(n+d2)(n+d2)的矩陣 V(2)被稱為 V 的二階復合矩陣。整個過程得到的量子態為|Y=|V(2)X。最后,通過后選擇以及量子態層析測量,就可以得到各個 yi 了。圖 39Quantum Compound Transformer 的核心(九九)量子強化學習量子強化學習 強化學習是機器學習中不同于監督學習與非監督學習的第三種學習范式。它的基本工作框架
150、,如圖 40 所示,是通過智能體(Agent)與環境(Environment)不斷交互自主學習最佳的執行策略(Policy),以實現累計期望獎勵(reward)最大。過去十年,隨著深度神經網絡技術的快速發展,出現了將強化學習與深度神經網絡結合的新的研究領域,即深度強化學習以解決在高維環境態空間中的決策問題。深度強化學習在游戲,下棋,機器人控制等領域的突出表現引起了大眾強烈的興趣和學術工業界的關注,例如 DeepMind 研發的智能下棋軟件 AlphaGo。最近,OpenAl 推出的大語言模型 ChatGPT 又在全世界范圍內引起了轟動,其中一項關鍵性技術便是基于人類反饋的強化量子人工智能技術白
151、皮書 83 學習。深度強化學習的出色表現使得不少人認為強化學習可能是未來通向通用人工智能的關鍵。圖 40 強化學習的基本工作框架 在機器學習快速發展的過去十年里,量子計算同樣取得了巨大的進步和成就,特別是 2019 年 Google 宣稱在擁有 56 個量子比特的芯片上實現了所謂的“量子霸權”更是掀起了全世界范圍內量子計算的研究高潮。由于量子計算是一種新型計算范式,其可能給帶來算力上的巨大飛躍,因而人們自然開始研究將量子計算與機器學習結合的量子機器學習。目前,量子計算的發展已經進入了所謂的 NISQ時代,即嘈雜中等尺度量子,意味著已經能夠設計制造包含上百個量子比特的量子芯片,但是對這些量子比特
152、的操作存在較大的錯誤率。由于容錯型量子計算需要上百萬達到一定計算錯誤閾值的物理量子比特,在可預期的未來都將處于NISQ階段。量子機器學習有望在NISQ階段幫助實現量子優勢的演示,因此成為目前的重點研究方向。近兩年,由于量子軟件與硬件平臺的逐步完善,將量子計算與強化學習結合的量子強化學習開始受到關注和大量研究,部分研究結果表明量子強化學習相比深度強化學習在完成相同任務中需要的訓練參數有望大大減少。在下文中,將主要聚焦于適用于目前 NISQ硬件的使用參數化量子線路(PQC)進行策略學習的量子強化學習,其量子人工智能技術白皮書 84 他相關的研究內容和進展可參考文獻。如圖 3-37 量子強化學習的基
153、本工作框架所示,目前量子強化學習的核心是使用適用于NISQ硬件的參數化量子線路來產生含參數的策略動作(a|s),并通過策略梯度下降來更新迭代線路參數以期望實現最優策略來使得累計期望獎勵最大。與基于策略學習的深度強化學習相比較,只是將用于函數近似器的深度神經網絡替換為參數化量子線路。量子強化學習中的關鍵在于如何選擇含參數的量子線路形式,這里面又涉及到如何編碼映射環境狀態s,如何設計參數化量子門操作,如何進行測量,最后如何將策略與量子線路測量結果聯系起來。目前最常用的含參數量子線路如圖 41量子強化學習中含參數量子線路的基本結構所示,其包括變分參數層,編碼層,糾纏層以及測量層。在實際工作中,前三個
154、層可能會重復多次以增強量子線路的表達能力。含參數的策略函數通常定義為可觀 測量的某種函數,一種常見的定義是 SOFTMAX 形式:(a|s)=eOas,eObs,b (1)其中=(,)。在定義好含參數策略函數形式后,就可以執行策略梯度算法來更新量子線路中的參數:+Elog(at|st)R(t)t=0 (2)其中R(t)為時刻 t 后的累積獎勵。類似于深度強化學習,原則上可以探索各種各樣的策略學習算法來使得訓練收斂性和穩定性更高,在目前的量子強化學習領域這些探索才剛剛開始。量子人工智能技術白皮書 85 圖 41 量子強化學習的基本工作框架 圖 42 量子強化學習中含參數量子線路的基本結構 基于N
155、ISQ芯片的量子強化學習是剛開始探索的領域,目前依然有大量的技術細節問題亟待解決,其中最重要的是要在真實量子硬件上探索其訓練效果并不斷進行技術迭代。在最近的一個工作中,在北京量子院的Quafu量子云平臺上首次展示了Cartpole訓練,這表明目前基于NISQ的量子強化學習有望依托于目前的量子計算云平臺得到進一步的快速發展。必須指明的是,部分研究表明量子強化學習相對于深度強化學習在訓練參數和訓練時間上都有明顯減少,這盡管令人感到興奮,但這些研究中的案例均比較簡單,更復雜場景的案例對比研究因而是下一個階段的重點。此外,目前討論中默認的環境均是經典環境,對于一般的量子環境,量子強化學習能否展現量子優
156、勢同樣是值得重點關注的研究方向。量子人工智能技術白皮書 86 (十十)量子搜索量子搜索 量子搜索算法有量子啟發式搜索算法、協同搜索算法、結構搜索算法等,本節重點介紹量子搜索算法中結構搜索算法。在中等規模含噪聲量子硬件的時代,變分量子算法被認為是最有希望較早展示有意義的量子優勢的一類算法。這類方法利用含參量子線路來優化相應的目標函數,有著與深度學習類似的基本架構,同時融合了量子線路表達能力和經典優化方案的優勢。與深度學習中神經網絡架構的設計類似,也面臨著如何選擇合適的量子線路結構的問題??焖僬业胶线m的量子線路結構,是有效利用現時量子硬件資源,加速量子計算商業化落地的關鍵一環。在量子的情況下,線路
157、結構的選擇和設計比神經網絡結構搜索更加復雜,除了表達能力的增強外,還需要關注量子噪聲魯棒性,量子假設由于貧瘠高原效應帶來的可訓練性損失,量子線路結構是否適合于量子硬件拓撲和原生量子門組等多種因素。因此考慮多方面因素的通用能力強的高效率量子結構自動化設計方案,是非常值得探索和研究的領域。這一通用能力,對于下一步量子硬件的能力探索和量子支撐的業務合作,都有著非常重要的技術支撐作用。國內騰訊量子實驗室等在國際上首次抽象和提出了量子結構搜索的概念,并極大推動了學術界在該方向的進一步發展,在該領域擁有較高的引用數和影響力。并進一步開展可微量子結構搜索的研究,利用參數化概率模型采樣不同線路結構并進行針對線
158、路參數和概率模型參數的雙重梯度下降,可以實現在保持線路幺正性的同時對指數大搜索空間的高效探索。量子人工智能技術白皮書 87 基于神經網絡預測器的搜索框架,繼之前的可微量子結構搜索工作之后,進一步探討了利用神經網絡來預測不同線路結構指標的可能性,并展示了完整的高通量篩選最優線路結構的完整的量子結構搜索工作流。研究表明,單純依靠變分量子線路的結構,而不進行完整的參數訓練,就可以得到有效的線路質量評估。此外,該研究團隊還將該工作流分別應用在量子機器學習和量子物理模擬的任務中,均表現的比傳統方法效果顯著提升,且具有很好的遷移能力,同樣的預測器可以向不同的體系大小和不同的子任務遷移。因此不同類型的量子線
159、路設計問題得到了高度的抽象和統一,使得該框架具有極強的普適性,不需進行額外修改就可以解決多個子領域的重要問題,達成了重要的線路結構設計平臺能力。更進一步的,同樣的方案也可以進行不含參線路的自動化組裝和設計,進一步擴展了線路結構搜索的應用范圍,可以支持在硬件上的量子編譯問題。這里兩種高效全新的深度學習方案來進行變分含參量子線路的結構設計,廣泛適用于機器學習、組合優化、量子模擬、量子糾錯、量子編譯等實際問題和應用。四、量子人工智能典型應用(一一)量子人工智能典型應用:通信網絡量子人工智能典型應用:通信網絡 表 2 量子機器學習在超可靠低延遲 6G 網絡中的應用 用例名稱 量子機器學習在超可靠低延遲
160、 6G 網絡中的應用 用例研究方 Kyung Hee University&Massachusetts Institute of Technology 用例提出時間 2023 應用問題需求 目沉浸式和任務關鍵的數據驅動應用程序,如虛擬現實或增強現實、觸覺互聯網、工業自動化和自主移動性,正在為第六代(6G)網絡中的超可靠低延遲通信(URLLC)創造前量子人工智能技術白皮書 88 所未有的挑戰。機器學習方法深度學習、強化學習和聯邦學習(FL),提供了新的范式來確保在大數據流上訓練的 6G URLLC。然而,傳統機器學習能力的限制使得實現嚴格的6G URLLC 要求具有挑戰性,因此需要量子機器學習提
161、供更高效的解決方案。本例中展示量子-經典混合計算用于小型URLLC 任務離載問題。實現方案 使用 QAOA 算法計算(4,2)-任務離載問題,以得到最小URLLC 目標值。使用 POWELL 優化器對經典優化器 Hc 和混合優化器 Hm 進行更新,以計算成本哈希函數 g 和 b。通過使用 2000 次實驗(運行),當電路層數等于 1、2、3、4、5時,找到兩個最優的離載路徑(總 URLLC 成本為 11)以及在所有 212 種可能的離載路徑中概率為 0.9 的最優離載路徑。通過再次使用 2000 次實驗,當電路層數等于 5 時,可以求出平均總 URLLC 成本和最優離載概率和所有 212 種離
162、載路徑中最優離載路徑的決策概率。(m,n,)-QNN 變分量子計算用于無線網絡中功率分配,其中m 表示量子 Keras 層的數量,n 和 分別表示每個量子 Keras層中的量子比特數和電路層數。使用具有學習率為 0.0005 和批量大小為 30 的量子-經典混合模型來通過學習網絡中功率分配的最佳策略優化總速率。生成一組信道矩陣以及最佳功率集的數據集來訓練混合模型。將訓練數據輸入卷積密集層以構成(m,n,)-量子電路的輸入。隨著量子比特數量 n 和電路層數 的增加,功率分配中的均方誤差(MSE)顯著降低,同時增強的學習率增加了由于這種量子加速而導致的總速率。應用優勢 相比于經典計算,利用量子-經
163、典混合算法可以加速此問題計算過程,快速準確地得到最佳方案。硬件要求 對硬件要求較高,采用量子模擬器運行。技術成熟度 受限于當前量子計算機的規模,該應用仍處于前期的演示階段,離規?;逃蒙杏幸欢尉嚯x,成熟度偏低。技術難點 當前 QNN 在通信領域已經開始有了一些應用,是量子機器學習算法中最先在通信領域應用的算法,但應用場景較少。另外,深度學習無法有效地優化大規模網絡結構、訓練復雜網絡、模擬網絡信息流,基于量子的深度學習有望能提升網絡優化質量和速度。應用前景 正在研究中的下一代通信網絡對算力要求極高,量子算法正是滿足 6G 網絡需求的選擇。信息來源 https:/ieeexplore.ieee.o
164、rg/abstract/document/10105165 量子人工智能技術白皮書 89 (二二)量子人工智能典型應用:信息安全量子人工智能典型應用:信息安全 1.密碼破譯密碼破譯 表 3 Shor 算法破解 RSA 加密系統 用例名稱 Shor 算法破解 RSA 加密系統 用例研究方 國內外研究機構與高校 用例提出時間 1995 年(Shor 算法發明后)應用問題需求 RSA 加密算法是目前使用最為廣泛的非對稱加密方法之一,可以通過對信息進行加密實現安全可靠的傳輸。在特殊場景下需要對加密信息進行破譯。由于 RSA 密碼破譯的本質是解決質數分解的問題,傳統計算機的算力無法在有限時間內實現時間復
165、雜度高的大數的質數分解,因此需要利用量子算法實現高時間復雜度的質數分解計算。實現方案 1995 年,美國貝爾實驗室的 Peter W.Shor 證明了利用量子計算能夠高效地進行大數因式分解。Shor 算法的核心是將大數因子分解轉化為量子傅里葉變換(QFT)在多項式步驟內完成求解函數的周期問題。由于在量子環境下能夠以極高的效率實現量子傅里葉變換,因此能夠實現求解大數因子分解。應用優勢 利用量子計算的并行性能夠解決傳統計算無法解決的大數因子分解問題。從理論上已經驗證了破解 RSA 加密系統的可行性。硬件要求 IBM-Q 提供 16 個量子位,約可以破解 17 位 RSA 密碼;2000 個量子位可
166、以在八個小時內破解 2048 位 RSA 密碼。技術成熟度 目前,利用 Shor 算法進行 RSA 密碼破譯的理論可行性已經得到證明。但由于當前量子計算硬件能夠實現的比特數有限、且存在較大噪聲,尚未實現大規模的實際應用。技術難點 破譯 RSA 密碼對量子硬件具有更高比特數和低噪聲要求,因此仍需進一步研發、優化量子硬件實現技術。應用前景 由于當前 RSA 是一種主流的加密技術,未來在量子計算軟硬件完善后,利用 Shor 算法破譯 RSA 密碼的方法可以廣泛用于國防等領域。信息來源 https:/quantum-journal.org/papers/q-2021-04-15-433/pdf/2.量
167、子同態加密協議量子同態加密協議 表 4 量子同態加密協議 用例名稱 量子同態加密協議 量子人工智能技術白皮書 90 用例研究方 國內外研究機構與高校 用例提出時間 2013 年 應用問題需求 量子加密利用微觀量子作為信息傳遞載體,基于量子特性進行編碼加密、實現信息的安全交互。利用量子的不同偏振狀態攜帶信息,在對量子態測量時會引起波函數坍塌的特性能夠讓通信雙方校驗檢測竊聽行為。為了進一步對量子加密進行增強,保證信息傳輸與處理的安全性,如何在信息不解密的前提下實現對加密信息進行處理成為量子加密的新需求。實現方案 同態加密能夠在分布式環境下為用戶提供有力的隱私保護,傳統的同態加密算法在云計算等領域都
168、已經實現了重要應用,保證了加密數據處理過程中的隱私安全。量子同態加密的根本方法是在量子計算的過程中引入同態加密原理。目前,學術界已經提出了多種量子同態加密方案。中國科學院大學研究人員在 2013 年提出了基于一次一密完美安全性的對稱量子同態加密方案;2015 年提出了基于通用量子線路的量子全同態加密方案。2016 年,電子科技大學研究人員基于三元量子邏輯電路提出四種對稱弱三元量子同態加密方案,其中有兩種單量子比特方案,一種兩量子比特方案和多量子比特方案。該方案可以集成到未來的遠程量子服務器結構中,從而在分布式計算環境中保護用戶私有量子信息的計算安全性。2017 年,中國科學技術大學研究人員首次
169、基于量子云平臺實現線性同態加密保護私有信息,利用量子云技術實現量子同態加密成為新方式。應用優勢 構造同態加密協議,能夠進一步保證計算過程中的數據隱私安全。尤其未來在云計算中能夠發揮安全保護的重要作用。硬件要求 利用現有的量子云計算平臺接入量子后端,已經開展了少數驗證試驗,但仍然需要更高位數、更加穩定的量子硬件系統支撐研究進一步開展。技術成熟度 目前量子同態加密算法理論的研究進展已經超越了試驗驗證進度,同態加密協議研究正在逐步推進。整體仍然處于理論探索和試驗驗證起步階段,距離商用仍然存在一定距離。技術難點 量子同態加密算法當前使用的復內積空間維度低,空間維度自由發展趨勢受限。算法落地受到硬件條件
170、限制,仍主要停留于理論研究。應用前景 未來量子同態加密在量子計算中具有重要應用價值,尤其在量子云計算方面能夠保障隱私數據的計算安全。量子人工智能技術白皮書 91 信息來源 https:/ https:/arxiv.org/pdf/1410.2435.pdf https:/ 00767 https:/arxiv.org/pdf/1612.02886.pdf(三三)量子人工智能典型應用:金融科技量子人工智能典型應用:金融科技 1.投資組合優化投資組合優化 表 5 證券投資組合優化 用例名稱 證券投資組合優化 用例研究方 本源量子 用例提出時間 2022 年 應用問題需求 投資組合優化問題是量化金融
171、中較為典型的一類問題。當投資組合優化問題規模較大以及亟待優化證券數目較多時,采用經典方法求解該問題需要消耗大量的計算資源。因此需要尋找效率更高的計算方法。實現方案 為了降低計算資源的消耗、提升計算速度,可以采用 Grover 適應性搜索算法和變分量子算法(VQA 算法)解決投資組合優化問題。實際問題中的投資組合優化是一個典型的二次規劃(QP)問題。研究團隊首先將 QP 問題轉化為 QUBO 問題,進而利用可以找到全局最優的 GAS 算法對問題進行優化。同時采用擬設 Hardware Efficient Ansatz 的變分量子算法對問題進行直接優化,緩解量子計算機噪聲并適應現有量子芯片的拓撲結
172、構。研究團隊用 Grover 適應性搜索算法對 4 只證券進行實證分析,僅通過86次查詢即搜索到問題的最優結果。對于采用擬設為 HEA 的 VQA,研究團隊對 6 只證券進行實證分析,對比經典二次規劃方法序列最小二乘規劃(SLSQP)算法,發現優化結果可以近似甚至優于該方法。應用優勢 相比于經典計算,利用量子算法可以加速組合優化算法的計算過程,快速準確地得到最佳方案。硬件要求 本用例使用本源量子虛擬機。技術成熟度 受限于當前量子計算機的規模,該應用仍處于前期的演示階段,離規?;逃蒙杏幸欢尉嚯x,成熟度偏低。技術難點 在數據量更大的場景下需要更強的算力,量子計算機需要更多的量子比特以及更可靠的糾
173、錯能力。應用前景 該算法可進一步應用于計算更為復雜資產的組合策略優化,在未來的資產管理領域發揮重要作用。量子人工智能技術白皮書 92 信息來源 https:/ 2.ATM 業務智能化決策業務智能化決策 表 6 量子計算在 ATM 業務智能化決策問題中的應用 用例名稱 量子計算在 ATM 業務智能化決策問題中的應用 用例研究方 量旋科技、華夏銀行 用例提出時間 2021 年 應用問題需求 2020 年,商業銀行 ATM 機具的使用率因受到移動支付的沖擊而出現了大量的撤機現象,全國范圍內 ATM 機具減少了 4萬余臺,在此背景下商業銀行需要精準地篩選出效能差、使用率低的機具設備,并進行撤機,以縮減
174、成本。實現方案 項目選取國內某股份制商業銀行 2243 臺 ATM 機具作為數據樣本,范圍覆蓋全國31個省、直轄市、自治區,型號包括取款機、存取款一體機和循環機。數據來源為 ATM 機具原始監控報表數據和流水日志,數據時間范圍跨度為兩年。為構建智能預測模型,本文選定特征參數,通過取均值、中位數、方差等統計學方法對報表數據進行計算加工,最終得出 4 個特征參數,包括故障次數、滿鈔時間、離柜率趨勢和日均繁忙時間。同時選定“撤機”與“不撤機”作為輸出標簽,該標簽為相關業務管理部門根據 ATM 機具所在地區綜合環境、成本、運行情況等要素,通過專家評分,最終給出的一套貼合業務實際的是否撤機標識。項目設計
175、了一個兩比特的量子神經網絡對是否撤機進行分類,最終準確率達到 75.57%,達到預期效果。應用優勢 通過將量子計算于神經網絡結合,能夠實現復雜建模,并對未來的發展趨勢進行預測。硬件要求 本用例使用量旋雙子座量子處理器。技術成熟度 目前對量子神經網絡的研究還集中于小規模的實現,距離實現大規模商用仍有距離,成熟度偏低。技術難點 為實現更大規模的量子神經網絡,需要在當前 NISQ 背景下實現更多的量子比特和更加穩定、準確度更高的量子硬件與算法。應用前景 未來可以在更大規模的量子計算機上實現量子神經網絡,對相關的問題進行處理和解決。信息來源 https:/ 3.銀行客戶流失預測銀行客戶流失預測 表 7
176、 銀行客戶流失預測 用例名稱 銀行客戶流失預測 量子人工智能技術白皮書 93 用例研究方 QC Ware、Ita Unibanco 用例提出時間 2022 年 應用問題需求 為更加準確地預測銀行用戶的穩定性,加強客戶維護及提供更優質服務,需要提前判斷用戶在未來短期內流失的可能性,為銀行業務的開展提供支撐。實現方案 QC Ware 利用 Ita Unibanco 提供的有效性長達兩年的匿名用戶數據和 180,000 個左右的數據點,基于行列式采樣技術,開發出了用于訓練客戶留存模型的量子算法,利用訓練的算法模型預測在未來三個月內客戶流失的情況。此外,QC Ware 還嘗試在經典計算機上實現這些量子
177、算法的量子嫁接,從而改進了 Ita Unibanco 的原有模型,并將捕獲的提款量增加了 2%,同時將其整體模型的精度從 71%提高到 77.5%。應用優勢 相比于傳統計算方式,量子計算能夠更加精確地對大規模數據進行運算處理,提升模型預測精確度。硬件要求 該用例暫未使用量子計算機運行,算法已經在經典計算機上實現。技術成熟度 已經實現算法原理設計和經典計算機的嫁接應用,但尚未在真實量子計算機運行,成熟度偏低。技術難點 依賴于量子計算機硬件實現,需要實現大規模量子比特運算和合理范圍內的噪聲控制。應用前景 能夠高效、準確地實現預測任務,未來具有廣泛應用前景。信息來源 https:/ 表 8 基于量子
178、生成對抗網絡的圖像生成 用例名稱 基于量子生成對抗網絡的圖像生成 用例研究方 中國科學技術大學 用例提出時間 2021 年 應用問題需求 生成對抗網絡(GAN)處于生成學習的前沿,已廣泛用于圖像處理、視頻處理和分子開發。盡管 GAN 取得了廣泛的成功,但巨大的計算開銷使它們接近摩爾定律的極限。例如,具有 1.58 億個參數的 BigGAN 經過 2 天的訓練,使用 1400萬個示例和 512TPU 生成 512512 像素圖像。最近,理論工作表明,量子生成模型可能比經典模型表現出指數優勢,引起了對量子 GAN 理論和實驗的廣泛研究興趣。實現方案 2021 年,中國科學技術大學潘建偉院士研究組在
179、超導量子處理器上通過實驗實現了真實世界手寫數字圖像的學習和生成。遵循 GAN 的常規,該方案中利用了生成器 G 和判別器量子人工智能技術白皮書 94 D之間的兩人極小極大游戲。實驗中采用12個量子比特組成的鏈式結構,最高可選擇 6 個相鄰比特。單比特門和受控 Z門的平均保真度分別為 0.9994 和 0.985。從光學識別的手寫數字數據集中選取兩個樣本,每個訓練樣例是一個 88 像素的圖像,M=64。實驗中設置 T=4,N=5,可訓練參數的總數為 100。結果標明,實驗量子 GAN 輸出與模擬量子 GAN相似質量的圖像,在當前的噪聲水平和系統大小下對噪聲不敏感。此外,利用灰度條形數據集展示了量
180、子 GAN 和基于多層感知器和卷積神經網絡架構的經典 GAN 之間的競爭性能,分別以Frchet距離得分為基準。實驗中還使用量子批處理 GAN 來完成灰度條形圖像生成任務,以驗證其生成能力。應用優勢 量子生成對抗網絡相對于經典生成對抗網絡具有指數加速的特征。該方案能夠完成具有高維特征的圖像生成,并可以利用量子疊加特性并行訓練多個示例。此外,量子 GAN 具有減少訓練參數的潛在優勢。硬件要求 實驗中采用了 12 比特量子計算芯片。技術成熟度 目前,利用量子 GAN 生成圖像的可行性已經得到證明,其性能與數值模擬的量子 GAN 網絡接近。但由于當前量子計算硬件能夠實現的比特數有限、且存在較大噪聲,
181、尚未實現大規模的實際應用。技術難點 該方案在處理大規模問題時需注意維持其可訓練性并避免貧瘠的高原??赡芊椒òㄔO計貧瘠高原免疫 ansatz,通過將大尺寸問題剪裁成多個小尺寸問題,以保證量子補丁 GAN的可訓練性。另外,提升量子 GAN 性能的一個基本原則是不斷提升量子處理器的質量,例如,更大數量的量子比特,更多樣化的連接性、更低的系統噪聲和更長的退相干時間。應用前景 由于 GAN 在圖像識別和處理方面的巨大潛力,未來在量子計算軟硬件完善后,量子 GAN 方法可以廣泛用于圖像識別、及其視覺、增強現實 AR、醫療等領域。信息來源 Physical Review Applied 16,024051
182、(2021)(五五)量子人工智能典型應用:生物制藥量子人工智能典型應用:生物制藥 1.模擬蛋白質折疊模擬蛋白質折疊 表 9 量子退火機上的粗粒度格點蛋白質折疊 用例名稱 量子退火機上的粗粒度格點蛋白質折疊 用例研究方 ProteinQure、University of KwaZulu-Natal 用例提出時間 2018 年 量子人工智能技術白皮書 95 應用問題需求 通過模擬蛋白質折疊過程,可以在各種不同異構蛋白質分子中找到最低能的結構。由于蛋白質的大分子特性,尋找好的蛋白質模擬方法這一直以來是個巨大的挑戰。利用格點模型模擬的方法是其中一個應用于蛋白質折疊和設計的方法,但計算格點模型蛋白質的異
183、構體基態能問題已被證實是一個 NP完全問題,在經典計算機的上的模擬規模被限制在100個氨基酸長度上,更大規模的蛋白質折疊模擬工具還有待開發。實現方案 研究人員把蛋白質折疊的結構預設在一個立方體格點上,通過編碼的方式,把蛋白質分子的“生長”路徑對應的鏈條生長方向編碼為二進制數據。根據蛋白質的化學特性構建出對應的哈密頓量和量子線路,隨后在量子退火機 D-Wave 2000Q 上運行。作為算例,求解一個包括 10 個氨基酸的蛋白質分子用了 0.377 秒。應用優勢 該研究建立了一個擁有更高復雜度格點的蛋白質折疊模型,并且可以在量子芯片/量子計算機上實現。這些模型可以擴展到其他類似的量子系統的模擬中。
184、硬件要求 基于量子退火算法的量子計算芯片 技術成熟度 目前該技術還處于科學探索的階段,在測試算例中還只包括了 8 個與 10 個氨基酸的蛋白質分子。技術難點 該方法要求大規模的量子退火機和更高精度的量子控制技術。應用前景 該方法將來擴大規模后能提供更大規模的蛋白質折疊模擬,從而在現在的蛋白質/大分子結構搜索中發揮作用。信息來源 https:/arxiv.org/abs/1811.00713v1 2.模擬氫鏈結合能和二氮烯異構化反應模擬氫鏈結合能和二氮烯異構化反應 表 10 模擬氫鏈結合能和二氮烯異構化反應 用例名稱 模擬氫鏈結合能和二氮烯異構化反應 用例研究方 谷歌 用例提出時間 2020 年
185、 應用問題需求 化學反應是實現分子合成的重要過程,而分子合成是化學材料研發的重要基礎?;瘜W反應的過程計算量大、復雜度高,經典的計算方法難以揭示化學反應的真實過程。需要一種效率更高、復雜度更低的方法解決分子合成的模擬問題。實現方案 氮氫反應是較為基礎的化學反應,本用例模擬了氫鏈的結合能和二氮烯的異構化反應。Hartree-Fock 運算方程近似于一個真實化學系統,因此成為了最常用于分子模擬的方法之一。變分量子特征值求解方法(VQE,Variational Quantum Eigensolver)作為一種目前最主要的量子算法之一,能夠有效地降低量子線路的深度,減小量子噪聲的影響。適合用于量子人工智
186、能技術白皮書 96 在近期含噪中等尺度的量子器件上實現量子計算。研究人員使用了噪聲魯棒的變分量子特征求解算法 VQE 對 Hartree-Fock 模型進行完善,模擬化學反應體系的基態能量。該模擬實驗在多達 12 個量子位上執行,涉及 72 個雙量子位門。分別求解了氫鏈的結合能(包括 H6、H8、H10、H12)和二氮烯的異構化機制。研究證明,量子模擬與傳統計算機上執行的模擬結果基本吻合,采用VQE和誤差降低策略結合的方式能夠實現化學模擬所需要的精度,可以確定量子模擬的有效性。應用優勢 發揮了量子計算的原貌計算優勢。相比于傳統的化學反應計算方式,量子計算能夠實現更大化學系統的復雜模擬。硬件要求
187、 本用例使用谷歌 Sycamore 量子處理器。技術成熟度 目前,利用量子計算對化學反應機理進行模擬預測的方式仍然停留在中等規模反應的實驗驗證階段,實現大規模商用仍有距離,成熟度偏低。技術難點 為準確模擬更大規模的化學分子反應,需要在當前 NISQ 背景下實現更多的量子比特和更加穩定、準確度更高的量子硬件與算法。應用前景 未來可以將量子模擬中等規?;瘜W反應機理的方法擴大應用到更大分子的化學作用中,來預測更加復雜的反應結果。在化學材料研發和制造過程中發揮重要作用。信息來源 https:/www.science.org/doi/full/10.1126/science.abb9811 3.利用量子
188、熵因果推斷做新藥的活性預測利用量子熵因果推斷做新藥的活性預測 表 11 利用量子熵因果推斷做新藥的活性預測 用例名稱 利用量子熵因果推斷做新藥的活性預測 用例研究方 Pennylane、Purdue University 用例提出時間 2022 年 應用問題需求 藥物研究與開發是一項周期長、耗資大、風險高、競爭激烈、利潤高的系統工程,一個新藥從概念產生、實驗室先導化合物的確定、優化、臨床試驗到最終上市,需要花費 10-15 年時間,研發費用高達數億美元以上。而提高藥物分子的活性預測可以減少新藥研制的實驗次數,縮短周期,節省成本。目前市場迫切需要高效的預測方法。實現方案 通過模擬分子哈密頓量來建
189、立量子和化學分子兩個領域之間的聯系,并通過因果推斷值來判斷藥物分子的活性。研究人員提出的算法框架可以在將觀測因果推理從量子領域引入化學分子領域方面發揮基礎作用。首先,研究人員通過 Hartree-Fock 方法模擬分子哈密頓量,然后通過經典和量子條件密度矩陣之間的空白,定義量子因量子人工智能技術白皮書 97 果模型。并使用貪婪算法,開發了一種可擴展的量子熵因果推斷算法。最后,利用分子對接軟件PyMOl模擬目標靶點與候選藥物之間的相互作用,計算兩者之間的親和力大小和因果關系。這可加速并提高藥物分子的活性判斷,以降低實際篩選化合物數目,同時提高先導化合物發現效率。虛擬篩選可快速從幾十至上百萬化合物
190、中,遴選出具有潛在成藥性的活性化合物,大大降低實驗篩選化合物數量,縮短研究周期,降低藥物研發的成本。應用優勢 因果推斷在人工智能和諸多交叉領域產生了卓越的影響,借助量子因果結構方程,將機器學習的魯棒性、泛化能力、可解釋性等特點推廣到生物制藥的藥物研發,這將有助于有效提升預測,快速準確地得到最佳方案。硬件要求 啟科量子模擬計算機 技術成熟度 該技術已建立了可擴展的量子熵因果推斷算法和藥物分子的能量狀態與量子哈密頓量的能量損耗關系,但在分子對接目標靶點與候選藥物之間的因果推斷的準確性方面尚未在實際的大規模數據中進行應用,成熟度較低。技術難點 數據來源于不同的實驗室,不同實驗室在實驗過程中可能會存在
191、誤差,導致數據的整合缺乏標準。由于數據本身就會存在系統誤差,導致數據精準度不高,從而影響到進一步的預測。應用前景 該算法可進一步應用于計算靶點發現、靶點預測和更為復雜藥物優化等方面,將在未來的藥物研發領域發揮重要作用。信息來源 https:/arxiv.org/abs/2102.11764 2102.11764 量子熵因果推斷(arxiv.org)4.分子對接分子對接 表 12 高斯玻色采樣(GBS)的分子對接 用例名稱 高斯玻色采樣(GBS)的分子對接 用例研究方 Xanadu,ProteinQure 用例提出時間 2022 年 應用問題需求 分子對接是一種用于基于結構的合理藥物發現的計算工
192、具。對接算法從藥物分子(配體)和目標大分子(受體)的非結合三維結構出發,預測兩者之間的非共價相互作用。這種算法的輸出是預測配體相對于受體結合位點的三維方向以及每個方向的各自得分。高性能的算法使分子對接可用于針對一個或多個蛋白質目標篩選大型化合物庫。然而,評估數十億的化合物需要準確和計算效率高的算法進行結合姿勢預測。目前已有獲得分子對接構型的既定算法,但在工業藥物設計中出現了一個挑戰,即必須針對一個藥物目標篩選大量的候量子人工智能技術白皮書 98 選分子。在這種情況下,需要一種快速預測對接配置的方法。實現方案 研究人將接觸點建模為配體和結合位點的標記距離圖的一對相互作用的頂點。然后用 GBS 生
193、成最大權重的“分子團”。接著用貪婪收縮找到最大的“分子團”。如下圖顯示:經過實驗,GBS 分子對接成功率能達到 70%,而經典隨機采樣的成功率大約在 35%。應用優勢 高斯玻色子采樣器等光子設備可以以非常高的速率運行,并有可能在更短的時間內提供解決方案。此外,通過對更好的隨機子圖進行采樣,GBS 可以作為一種技術來提高經典算法的性能,因為它提高了識別大加權“小團體”分子的成功率。這一特性也適用于其他的圖論應用。硬件要求 本用例未使用量子硬件進行實現。技術成熟度 底層技術目前已經成熟,但是在算法和應該層面目前處于快速迭代期。技術難點 該方法要求大規模高可靠實時能調用的量子隨機采樣設備。應用前景
194、該方法將來擴大規模后能夠加速小分子搜索,從而加快藥物研發。信息來源 arXiv:1902.00462v1(六六)量子人工智能典型應用:交通物流量子人工智能典型應用:交通物流 1.消除空中交通軌道沖突消除空中交通軌道沖突 表 13 消除空中交通管理的最佳軌跡沖突 用例名稱 消除空中交通管理的最佳軌跡沖突 量子人工智能技術白皮書 99 用例研究方 德國航空航天中心(DLR)用例提出時間 2020 年 應用問題需求 空中交通管制(ATC)的主要職能之一是確保在共享空域內安全飛行。其中涉及解決航班之間的潛在沖突,“沖突”是指違反在空域中建立的間隔規范。為航班預分配的空中交通網絡航線正在變得飽和,必須采
195、用新的方法來滿足未來幾十年不斷增長的空中交通需求。傳統的解決方案是沿風的最佳軌跡,實現燃料成本最小化。但由此將造成航線沖突,如何優化航線是長期以來的一個研究課題。實現方案 本研究利用量子退火來解決空中航線最優軌跡的沖突。首先將沖突解決問題表述為二次無約束二元優化(QUBO)問題,鑒于 QUBO 問題的離散性質,必須引入可調離散化。由于航班數量大,風向最優軌跡無法直接映射到 QUBO 模型中。為了克服這個限制,解決航線沖突問題的方案為僅修改部分風的最佳軌跡,從而延遲飛行分配。因此,風的最優軌跡可以在沖突解決問題的 QUBO 公式進行“硬編碼”,航班延誤是唯一需要優化的變量。研究人員提出了幾種不同
196、的 QUBO 映射,包括局部和全局軌跡偏差以及包含和排除策略。再使用 D-Wave 的嵌入算法,將幾個較小的問題實例嵌入到 D-Wave 2X 以及 D-Wave 2000Q 上。初步結果表明,在選擇合理的建模方式的前提下,在當前傳統計算中最具挑戰性的問題在退火時間內能夠以 99%的概率得到最優解。應用優勢 利用量子退火技術可以實現航線沖突等復雜方案問題的優化,化解經典計算所面臨的計算實際長、無法解決復雜問題的困境。硬件要求 D-Wave 2X 和 D-Wave 2000Q。技術成熟度 該技術已經在量子計算機實現驗證,但規模不大,技術成熟度中等。技術難點 未來如何實現更大規模計算和更高精確度。
197、應用前景 能夠高效地解決復雜方案優化問題,具備廣闊的應用前景。信息來源 https:/ieeexplore.ieee.org/abstract/document/8643733 2.量子計算流體力學量子計算流體力學 表 14 量子計算流體力學 用例名稱 量子計算流體力學 用例研究方 本源量子 量子人工智能技術白皮書 100 用例提出時間 2021 年 應用問題需求 計算流體力學(Computational Fluid Dynamics,CFD)是流體力學、數學和計算機科學多學科相融合的交叉學科,借由計算機的強大計算能力和離散化數學方法,數值求解流場信息,目前在航空航天、海洋工程、能源工程等領域
198、得到了廣泛應用,很大程度上降低了試驗成本,加快了工業設計流程。然而,傳統計算機在面對一些對計算精度要求苛刻、網格量巨大的情況時,也會感到“力不從心”,這嚴重阻礙了工業設計的效率。實現方案 傳統 CFD 的主要離散方法有:有限差分、有限元以及有限體積法等。其中有限體積法由于其良好的守恒性和網格適應性,常用于商業軟件及開源軟件中。但在上述方法中,往往避免不了由于網格數增加帶來的計算資源和計算時間的大幅消耗。為了解決上述問題,本源量子與中科大聯合研究團隊提出了可支持經典數據輸入和輸出的量子有限體積法,該方法運用量子線性求解器作為子過程,并結合自主設計的量子隨機存儲器(QRAM)和量子數據結構,將經典
199、算法的線性復雜度降低到亞線性。CFD 計算軟件“本源量禹”使用量子線性求解器代替了傳統的求解器,基于量子虛擬機運行(未來可直接對接真實量子計算機),從理論上可以實現對 CFD 仿真計算的亞線性加速。量子線性求解器包括 HHL 和 FOM-HHL 算法,為降低系數矩陣的條件數加速計算速度,提供了包括靜態稀疏近似逆等多種預處理器;本源量禹適用于不可壓縮流動和可壓縮流動的求解,定常和非定常流動的求解。應用優勢 可將經典算法的線性復雜度降低到亞線性,極大的提高 CFD 計算的速度和效率。硬件要求 本用例使用本源量子虛擬機。技術成熟度 受限于當前量子計算機的規模,該算法應用還處于前期的演示階段,規模性商
200、用尚有一段距離,成熟度偏低。技術難點 為了實現真正的商業應用,量子計算機需要更多的量子比特以及糾錯能力。應用前景 未來,在航空航天、熱能動力、環境工程等領域,可以進行更高效的數值仿真實驗。信息來源 本源量子提供案例(七七)量子人工智能典型應用:能源電力量子人工智能典型應用:能源電力 表 15 電力系統故障檢測 用例名稱 電力系統故障檢測 用例研究方 康奈爾大學 量子人工智能技術白皮書 101 用例提出時間 2021 年 應用問題需求 隨著能源電網變得越來越復雜和分散,并且太陽能和風能等可再生但間歇性能源的重要性不斷增加,能源網絡中高效且有效的故障檢測需求將繼續增長。如果能夠及早且準確地檢測到錯
201、誤,就可以減輕停電或電壓波動等關鍵問題的影響,并減少由級聯故障引起的大規模問題。實現方案 量子計算在電力系統故障檢測方面,所研究的電力系統是IEEE 30 節點測試系統,該系統由 41 條輸電線路、5 臺發電機和變壓器以及 30 個節點(連接多個其他組件的節點)組成。根據在每個節點記錄的電壓和電流時間序列數據,需要識別出 10 種不同類型的故障。該網絡(完全經典)由一個條件限制玻爾茲曼機(CRBM)層進行特征映射,然后由幾個下游神經網絡層進行分類。量子計算僅用于加速和改進 CRBM 層的訓練,作者使用 D-Wave 量子退火器作為設備,從 CRBM 的輸出分布中進行采樣來輔助訓練。應用優勢 該
202、方法與經典訓練的相同模型以及其他一些純經典故障檢測算法進行了比較。結果發現,與經典算法相比,量子輔助方法在速度和準確性方面表現更好。硬件要求 本用例未使用量子硬件進行實現。技術成熟度 目前,該應用仍停留在試驗驗證階段,實現大規模商用仍有距離,成熟度偏低。技術難點 需要更加穩定、準確度更高的量子算法。應用前景 未來可以用量子人工智能替代當前需要處理大規模數據的人工智能建模方案,提升預測效率和準確度,應用前景廣闊。信息來源 https:/ 1.淋巴結轉移階段預測淋巴結轉移階段預測 表 16 乳腺癌術前淋巴結轉移階段預測 用例名稱 乳腺癌術前淋巴結轉移階段預測 用例研究方 約翰保羅二世癌癥研究所 用
203、例提出時間 2021 年 量子人工智能技術白皮書 102 應用問題需求 通過對癌癥等復雜疾病的生物醫學表征數據進行計算分析,能夠對臨床決策提供科學的算法支持。特別是對于以乳腺癌為代表的早期腫瘤仍然可以通過治療和手術方式進行控制。因此需要研發出快速、準確的算法對病人的醫療數據進行分析預測,幫助制定更加科學的診療方法。實現方案 案例研究包括乳腺癌患者術前淋巴結轉移階段的預測,導致臨床和放射學檢查后的陰性診斷。用于建立基線的分類器的特點是輸入特征的順序排列的結果不變性,并且它利用了訓練過程中的分層。量子模擬高維特征空間中的支持向量機映射,通過編碼成量子比特產生,同時具有復雜性。利用特征選擇來研究與少
204、量特征相關的性能,從而在可行的時間內實現。在兩種分類系統類型的交叉驗證期間,在選定的最佳分類器中觀察到靈敏度和特異性的廣泛變化,根據兩種訓練方案之間的選擇,更容易檢測到負例或正例。即使量子啟發分類器電路的靈活結構保證了特征之間規則相互作用的進一步發展,臨床實踐仍遠未實現:這項初步研究僅旨在以簡化版本提供特定的樹張量網絡方案的概述僅采用產品狀態,并引入由特征選擇和分類器性能評估組成的典型機器學習過程。應用優勢 發揮了量子計算的高效計算優勢。相比于傳統的人工智能建模方式,量子計算能夠實現更加準確和快速的大規模數據預測。硬件要求 本用例未使用量子硬件進行實現。技術成熟度 目前,利用量子人工智能實現建
205、模預測的應用仍停留在試驗驗證階段,實現大規模商用仍有距離,成熟度偏低。技術難點 為實現大規模數據處理和建模,需要在當前 NISQ 背景下實現更多的量子比特和更加穩定、準確度更高的量子硬件與算法。應用前景 未來可以用量子人工智能替代當前需要處理大規模數據的人工智能建模方案,提升預測效率和準確度,應用前景廣闊。信息來源 https:/ 2.量子醫療圖像算法量子醫療圖像算法 表 17 量子醫療圖像算法 用例名稱 量子醫療圖像算法 用例研究方 麻省理工學院 用例提出時間 2020 年 應用問題需求 核磁共振圖像、斷層掃描圖像等醫療圖像需要通過重建算法進行處理優化。傳統的圖像重建算法通常利用目標圖像或函
206、數與其在頻域(傅立葉)域中的表示之間的關系。量子人工智能技術白皮書 103 實現方案 醫學成像的核心任務是從醫療設備(例如 CT、MRI 和 PET 掃描儀)收集的數據中重建圖像或功能。當數據作為量子態輸入時,研究人員提供了用于圖像重建的量子算法,其速度比經典算法指數加速。由于算法的輸出存儲在量子態中,重建圖像的單個像素可能無法以經典方式有效地訪問;研究人員同時提出了使用各種量子后處理算法從輸出中提取信息的各種方法。由于量子算法的輸入是波函數,因此可以開發新的實驗方法以使用更少的資源(例如時間或輻射)收集或構建此輸入波函數,并將結果狀態直接輸入到可以執行量子圖像的量子計算機中重建算法。應用優勢
207、 量子圖像重建算法更加高效,在多數情況下,只需要相對于圖像大?。ɑ蛳袼財盗浚┑亩鄬档臅r間。其次,用于圖像重建的量子算法對量子波函數(與經典采樣數據相反)執行操作,證明以量子力學方式收集輸入數據的可能性,使用可能更少的時間或更小的輻射劑量。硬件要求 本用例未使用量子硬件進行實現。技術成熟度 目前,醫療圖像的量子算法仍主要為理論研究,實現實際應用需要低噪聲、強算力的硬件支持。距實現大規模商用仍有距離,成熟度偏低。技術難點 需要在當前 NISQ 背景下實現更多的量子比特和更加穩定、準確度更高的量子硬件。應用前景 未來可以將量子醫學算法應用到更多臨床試驗中,探索更加高效、準確的圖象識別方案。為未來醫
208、學提供更加精確的圖像識別輔助,極大地提高未來的醫療水平。信息來源 https:/arxiv.org/pdf/2004.02036.pdf 3.醫療認知計算醫療認知計算 表 18 醫療認知計算 用例名稱 醫療認知計算 用例研究方 倫敦大學學院(UCL)、Siemens Healthineers 用例提出時間 2020 年 應用問題需求 醫療保健行業正在經歷數據爆炸式增長,同時醫療保健成本也在上升。需要醫療保健領域的認知計算正在將大數據與先進的機器學習、量子計算等技術結合使用,以幫助醫生及早發現疾病、改善治療效果并最終降低護理成本。實現方案 使用量子預訓練和自動編碼器進行圖像分類在醫學圖像分析領域
209、得到應用。在短期內量子設備上處理圖像的主要挑戰是數據大小,需要對大的、多維的且具有多個顏色通道的圖像進行分析。為避免進行大量手動預處理,研究人員提出了一量子人工智能技術白皮書 104 個框架解決在小型量子設備上處理大規模數據的問題。該框架不需要特定的數據集信息,適用于大尺寸灰度和 RGB 圖像,能夠擴展到更大的量子硬件架構。在該方案中,可以訓練經典的自動編碼器,將圖像數據壓縮到可以加載到量子設備上的大小。然后使用壓縮數據在 D-Wave 設備上訓練受限玻爾茲曼機(RBM),并使用 RBM 的權重初始化神經網絡以進行圖像分類。該方案已經在兩個 MNIST 數據集和兩個醫學成像數據集上得到證明。應
210、用優勢 通過對醫療圖像進行處理,并加載到量子計算機進行識別計算,能夠實現對大規模醫療影像數據的分析,相比經典計算具有更高效率和準確度。硬件要求 D-Wave 量子計算機。技術成熟度 該技術已經在多個數據集上實現驗證,尚未在實際的大規模數據中進行應用,且對量子計算機的準確度高度依賴,技術成熟度中等。技術難點 該技術的難點在于如何克服量子計算機的噪聲,以及如何實現更大規模數據的準確計算。應用前景 未來在實現數據的高精度運算前提下,該方案將在醫療診斷領域具有廣泛應用前景。信息來源 https:/ 1.元材料設計元材料設計 表 19 利用量子退火和因子分解機器的元材料設計 用例名稱 利用量子退火和因子
211、分解機器的元材料設計 用例研究方 東京大學和其他日本研究機構 用例提出時間 2020 年 應用問題需求 材料設計自動化近期已經成為一種趨勢。但在復雜材料設計中面對的是變量指數型增長組合優化問題挑戰,而且往往是經典算法無法有效處理的?,F有的經典算法使用的是如局部搜索、樹搜索和遺傳等算法,而這些算法求得的精度往往是次優。實現方案 為了突破解決這組合優化問題的算力障礙,該方案提出了使用機器學習里的因子分解機器(FM,Factorization Machine)和機器量子退火來有效解決此障礙。實現方案分成三個部分。第一步是對于量子退火所求得的材料組合,使用 FM 做回歸,以取得該組合的指標分數(FOM
212、,Figure Of Merit)。使量子人工智能技術白皮書 105 用 FM 能夠線下(不做耗時的仿真計算)反饋材料組合的回歸 FOM,讓量子退火算法能快速迭代尋找最優解。第二步是根據量子退火算法根據 FM 回歸所求得的最優組合,通過模擬仿真去計算出更高精度(但更耗時)的FOM。這結果會反饋回到 FM,更新 FM 模型,讓 FM 能逐漸提升回歸精度,更好地預測材料組合的 FOM。第三步是使用量子退火算法來對材料組合數學建模的二次無約 束 二 元 優 化(QUBO,Quadratic Unconstrained Binary Optimization)或等價的伊辛(Ising)模型求解。目標函
213、數正是第一步 FM 所能回歸的函數值。這三步迭代至收斂為止,或執行時間已超出閾值。此方案的實驗主要是聚焦在輻射天空冷卻(Radiative Sky Cooling)材料上。目標元材料結構包括了 Si02 和 SiC,嵌在聚甲基丙烯酸甲酯(PMMA)里(左圖)。組合優化問題在于每一層的 PMMA 是否要由 Si02 或 SiC 取代(中圖)。量子退火所求得的解會根據模擬仿真計算出排放功率(Emissivity power),再由此去推算出輻射天空冷卻值,也就是目標函數值(右圖)。應用優勢 巧妙結合了量子退火和機器學習后有效運用到解決材料設計所衍生的組合優化問題。硬件要求 本用例使用 D-Wave
214、 的量子退火求解器。技術成熟度 目前成熟度相對低。此技術在小規模實驗中有得到驗證,但放大規模后的效果有待觀察。技術難點 除了組合優化問題常遇到的局部最優解外,FM 模型的初始化非常關鍵。如果 FM 模型沒法有效初始化,回歸出來的目標函數值 FOM 沒法正確引導量子退火求解器收斂到最終高精度解。應用前景 預計此技術會繼續推進和完善,對于材料設計會有較大影響,能考慮到之前沒出現或研究過的材料組合,而且其特性會更貼近應用場景里所需屬性。信息來源 https:/link.aps.org/doi/10.1103/PhysRevResearch.2.013319 量子人工智能技術白皮書 106 2.電池材
215、料模擬電池材料模擬 表 20 模擬含鋰分子的偶極矩 用例名稱 模擬含鋰分子的偶極矩 用例研究方 IBM、戴姆勒(Daimler)用例提出時間 2020 年 應用問題需求 目前,電動汽車面臨的挑戰之一是電池的容量和充電速度,為了提升電池容量和充電速度、延長電池使用壽命、降低制造成本,需要研制更優的鋰電池電極材料。為了模擬分析鋰電池工作時所產生的復雜化學分子,利用量子計算能夠高效地解決復雜的分子模擬問題。實現方案 利用 IBM QValencia 上的 4 個量子位模擬了鋰硫電池在運行過程中可能形成的分子的基態能量和偶極矩,這些化學分子包括氫化鋰(LiH)、硫化氫(H2S)、硫化氫鋰(LiSH)和
216、所需產物硫化鋰(Li2S)。從而進一步分析建模各分子在電池中儲存和釋放電能的性能。首先,利用 Qiskit 破壞分子中的化學鍵,改變不同原子之間的原子距離。當分子鍵被拉伸時,分子系統用高度“糾纏”的狀態來描述。然后,利用 IBM Q Valencia 設備計算 LiH 的偶極矩,并模擬了其他三個分子的偶極矩,從而得到分子在鍵斷裂時跨不同原子的電子分布。在量子計算不可避免的嘈雜背景下,IBM 還研發了相應的誤差緩解技術。將 IBM 量子模擬器在經典計算機上的計算結果與量子計算機的模擬結果相對比,可以發現使用量子計算機已經能夠得到足夠精確的結果。應用優勢 相比傳統的材料研發方式,量子計算機能極大的
217、加速材料分子建模和模擬的速度,縮短材料開發時間。硬件要求 利用 5 個量子位的 IBM 量子計算機中的 4 個量子位進行建模仿真。技術成熟度 該技術處于研究試驗階段,尚未開展利用真實量子后端的規?;瘧?。技術難點 如何減小量子噪聲對結果準確度的影響以及更大比特數的規?;ㄕ?。應用前景 通過利用量子計算的高效及解決復雜計算的優勢能夠解決復雜分子反應問題,未來能夠廣泛應用于快速和準確研發性能更優新型材料。信息來源 https:/arxiv.org/abs/2001.01120 3.新材料和催化劑研發新材料和催化劑研發 表 21 新材料和催化劑研發技術研究 量子人工智能技術白皮書 107 用例名稱
218、新材料和催化劑研發技術研究 用例研究方 Covestro、QC Ware 用例提出時間 2021 年 應用問題需求 目前許多復雜的化學模擬問題無法利用經典計算實現突破,通過開放量子計算工具,需要利用量子計算機實現更加高效的方法對工業應用所需的大規模分子進行建模。實現方案 目前的研究成果包括兩個,一是一種用于費米子系統 VQE電路結構,二是一種在量子計算機上計算能量梯度的新方法。第一個研究的實現方案為將 VQE 電路結構用于在 Jordan-Wigner 映射下模擬分子和材料的強相關基態和激發態,可以在局部線性實現并保留所有相關的量子數。研發的糾纏器電路已經在低深度和參數計數下具有表現力,并且當
219、參數數量變得足夠大并被適當初始化時,無需跨越梯度消失區域即可進行訓練。僅通過軌道旋轉和對交換門的結構就可以實現這一點。推導出最優的四項參數移位規則,并提供量子數保持門的顯式分解,在高達20個量子位上對高度相關的分子進行數值演示。這一技術降低了電路深度和連接要求,可以顯著減少設計新材料和化學工藝所需的量子計算資源。第二個研究開發了關于系統參數的基態和激發態能量的分析梯度,包括應用于費米子系統的混合量子/經典多態收縮變分量子本征求解器(MC-VQE)的核坐標。展示了如何通過與獲得 VQE 能量類似的量子作用力來評估對梯度的響應貢獻,并且通過采用拉格朗日形式來評估總導數。此外,在求解量子響應方程時,
220、與參數移位規則相一致的方向導數的大步長有限差分處理可以顯著降低處理量子參數 Hessian 的復雜度。該技術使計算具有數百個原子的系統的解析導數特性成為可能,同時在量子計算機上求解了它們最強烈相關的軌道的活動空間。這一計算能量梯度的新方法,將用于模擬化學反應、催化劑、產物、過渡態和催化特性等關鍵特性。應用優勢 通過利用量子計算進行化學模擬,可以提供復雜計算的解決能力和很高的計算效率,實現更加高效的新材料開發和生產流程,在材料研究方面取得突破并節約計算資源 硬件要求 研究一使用了20個量子位,未來研究的量子位規模將不斷擴大。技術成熟度 仍處于研究階段,距離規?;瘧萌孕枰啾忍匚缓透驮肼暤牧?/p>
221、子計算機。技術難點 需要克服量子計算機噪聲并實現更大規模的模擬。應用前景 量子計算能夠為材料研究提供更加快速、準確的化學模擬方法,應用前景廣闊。量子人工智能技術白皮書 108 信息來源 https:/arxiv.org/abs/2104.05695 https:/arxiv.org/abs/2110.05040 4.時間晶體模擬時間晶體模擬 表 22 量子計算機模擬時間晶體 用例名稱 量子計算機模擬時間晶體 用例研究方 谷歌、墨爾本大學 用例提出時間 2021、2022 年 應用問題需求 時間晶體是由諾貝爾物理學獎獲得者 Frank Wilczek 于 2012年提出的一種新的物相。時間晶體結
222、構不滿足時間平移對稱性,能夠在兩種狀態之間周期循環卻不損失能量。時間晶體的運動規律不受熱力學第二定律限制。這種奇異的特性及全新的物理行為,有助于突破現有物理學的理解。然而,在實驗中觀察這種非平衡相難度非常大。之前的實驗研究中都存在一些局限。如亞諧波響應,本身并不是非平衡相的獨特屬性;反而是許多動力學的特征。在囚禁離子或 NV 色心等量子平臺中觀測到的非平衡相特征,都缺乏穩定的一個或多個必要條件,比如缺乏失序類型或者長程相互作用。這些特征可能是由于緩慢熱化、有效的平均場動力學或來自特殊初始狀態的熱前的特殊初始狀態動力學等原因引起的。實現方案 2021 年,谷歌公司及其合作團隊利用“懸鈴木”超導量
223、子計算機,利用 20 個 transmon 結構的量子比特,實現了時間晶體模擬。首先在一組鏈式結構的超導量子比特上實現了可調諧控制相位(CPHASE)門,通過實驗觀察并展示其對通用初始狀態的特征時空響應。同時采用時間反轉協議來量化外部退相干的影響,并利用量子典型性來規避密集采樣特征譜的指數成本。最后通過實驗有限尺寸分析定位了相變。2021 年,墨爾本大學物理學院的 Philipp Frey 和 Stephan Rachel 使用 IBM 量子計算機制造出了迄今為止最大的時間晶體。新的時間晶體由 57 個量子比特組成,是谷歌模擬的20 比特時間晶體的兩倍多。該系統復雜度已經超過了經典計算機的模擬
224、極限,顯示了量子計算機模擬復雜系統的能力。在實驗中,對于相互作用的特定設置,57 個量子比特的任何初始設置(如 01101101110)都保持穩定,每兩個脈沖就返回到原始狀態。這使得系統不受缺陷的影響。應用優勢 這類研究達成了理查德費曼在 1981 年提出的使用量子計算機模擬量子物質的設想。研究成功不僅僅意味著創造新的物相,還在于開辟了探索凝聚態物理領域新機制機會,來了解物理學中全新非平衡狀態。硬件要求 谷歌公司的實驗模擬中使用了20個量子比特。墨爾本大學的實驗采用了 IBM 公司提供的 57 個量子比特。量子人工智能技術白皮書 109 技術成熟度 目前,使用量子計算機進行時間晶體模擬的可行性
225、已經得到證明。但由于當前量子計算硬件能夠實現的比特數有限、且存在較大噪聲,尚未實現大規模的實際應用。技術難點 目前硬件性能和噪聲影響了實驗性能。比如在57比特時間晶體模擬中,原則上其翻轉模式應該無限期地持續,但 IBM 機器中的量子比特保持狀態的時間只能模擬大約50個周期。因此仍需進一步研發、優化量子硬件實現技術。應用前景 未來在量子計算軟硬件完善后,利用量子計算機進行新的量子物質模擬將大有可為,為物理學理論和實驗前沿研究提供絕佳的檢驗平臺。信息來源 Nature 601,531-536(2021)Science Advances 8(9),eabm7652(2022)五、量子人工智能產業發展
226、現狀(一一)量子人工智能生態總體介紹量子人工智能生態總體介紹 近年來,伴隨著量子計算和量子人工智能領域熱度不斷提升,各種學術研究和應用探索推動了國內外相關科技巨頭和初創公司的發展。目前在全球超過 150 家量子計算硬件和軟件企業中,有相當一部分嘗試探索量子人工智能算法研究和應用場景探索,并且與傳統互聯網、人工智能、醫療制藥、金融等領域的企事業單位簽訂合作協議,共同促進量子人工智能產業生態的建立。量子人工智能產業還處于早期探索階段,按照硬件研發、算法服務和行業用戶的維度,可以大致將量子人工智能產業分成如下圖所示的上中下游。量子人工智能技術白皮書 110 圖 43 量子人工智能產業鏈示意圖 量子人
227、工智能的上游主要包括基礎零部件的供應商和量子計算整機的開發商。量子計算處理器涉及多種技術路線,對材料、器件、組件的需求也不相同。其中核心材料器件包括微波測控系統、制冷系統、低溫微波組件、真空系統、激光器及光學器件、高純度同位素、I/O 連接線等,國內外國家企業布局該領域。量子計算處理器整機目前主流路線包括超導、離子阱、光量子、中性原子等。近年來國內外多家科技巨頭和初創企業紛紛加大投入,在國家政策和資本市場的推動下取得了諸多突破性成果。比如谷歌公司基于“懸鈴木”超導量子處理器首次證明了“量子優越性”;IBM 公司在云平臺上推出 433 比特的超導量子處理器,是目前能公開接入的比特數目最多的超導量
228、子處理器;Quantinuum 公司的離子阱量子處理器的量子體積(QV)突破 32768(215),創下量子硬件量子體積的行業記錄;XANADU 公司利用光量子處理器在高斯波色采樣問題上實現了“量子優越性”;Pasqal 公司實現 324 位量子比特的中性原子大型量子處理器陣列。量子人工智能的中游主要指量子人工智能算法和應用的開發商。以 IBM、Google 為代表的科技巨頭不僅在量子計算硬件研發和云平基礎硬件供應商量子計算機開發商量子人工智能算法與應用開發商上游中游下游行業用戶量子人工智能技術白皮書 111 臺建設等方面持續發力,也注重量子計算與人工智能交叉領域的研究探索。此外,ZAPATA
229、、QCware、Qruise 等量子軟件初創企業也紛紛布局量子人工智能領域。在國內華為、百度、騰訊、阿里、圖靈量子等科技企業也將量子人工智能作為未來量子計算應用落地的主要方向之一,持續開展前沿研究。量子人工智能的下游主要是一些生物醫藥、金融、交通等領域的研究院所和科技企業。由于量子人工智能本身還處于開放探索的階段,目前行業用戶并未將量子人工智能應用到現實生產生活中,而是與中游企業簽署合作協議,基于NISQ硬件共同探索未來應用場景。(二二)量子人工智能國外企業概況量子人工智能國外企業概況 1.量子人工智能主流企業量子人工智能主流企業 1)IBM 以 IBM、谷歌、微軟為代表的國際科技巨頭在持續開
230、展硬件研發和生態建設的同時,也紛紛開展量子人工智能的算法研究和應用探索。IBM 公司一直致力于量子人工智能的算法研究,并且將量子機器學習相關的算法、函數等集成到 qiskit 包中,供研究人員和行業用戶方便調用。Qiskit 提供了不用應用場景中量子機器學習基本功能模塊,如量子核和量子神經網絡,應用場景包括分類和回歸。允許用戶在沒有深入學習量子機器學習知識的情況下輕松調用和開發。Qiskit 機器學習提供了 FidelityQuantumKernel 類,該類利用了 Qiskit中引入的 BaseStateFidelity 算法,可以很容易地用于直接計算給定數量子人工智能技術白皮書 112 據
231、集的核矩陣,也可以傳遞給量子支持向量分類器(QSVC)或量子支持向量回歸器(QSVR),以快速開始解決分類或回歸問題。它還可以與來自已建立的經典框架的許多其他現有的基于內核的機器學習算法一起使用。Qiskit 機器學習定義了一個由不同量子神經網絡實現的神經網絡通用接口。很容易提供兩個核心實現,例如EstimatorQNN 和 SamplerQNN。EstimatorQNN 利用了 Qiskit 的BaseEstimator 原語,并允許用戶將參數化量子電路與量子機械可觀測相結合。例如,可以使用 Qiskit 電路庫中的構建塊來構建電路,QNN 的輸出由可觀測值的預期值給出。SamplerQNN
232、 利用 Qiskit 中引入的另一個基元BaseSampler 基元。該神經網絡將基元估計的比特串的準概率轉換為期望的輸出。此翻譯步驟可用于在特定上下文中解釋給定的位串,例如將其翻譯成一組類。QNN 包括對給定輸入進行評估以及計算相應梯度的功能,這對于有效訓練很重要。為了訓練和使用神經網絡,Qiskit 機器學習提供了各種學習算法,如神經網絡分類器和神經網絡回歸器。兩者都將 QNN 作為輸入,然后在分類或回歸上下文中使用它。為了便于啟動,提供了兩種方便的實現方式變分量子分類器(VQC)和變分量子回歸器(VQR)。兩者都只需要一個特征圖和一個模擬,并自動構建底層 QNN。此外,IBM與美國生物制
233、藥公司Moderna合作,研究“量子計算+生成式AI”在 mRNA 研究中的潛力。量子人工智能技術白皮書 113 圖 44 IBM 量子人工智能實現功能 2)谷歌谷歌 谷歌基于 TensorFlow 開發了 TensorFlow Quantum(TFQ),這是一個基于 Python 框架的可快速建立量子機器學習模型原型的開源庫。TensorFlow Quantum 側重于量子數據和構建混合量子經典模型。它提供了可將在 Cirq 中設計的量子算法和邏輯與 TensorFlow 相融合的工具。TensorFlow Quantum 實現了將 TensorFlow 與量子計算硬件集成所需的組件。為此,
234、TensorFlow Quantum 引入了兩個數據類型基元:量子電路和泡利門集。量子電路是 TensorFlow 中 Cirq 定義的量子電路。創建大小不同的電路批次,類似于不同的實值數據點的批次。泡利門集是 Cirq 中定義的 Pauli 算子張量積的線性組合。像電路一樣,創建大小不同的算子批次。利用這些基元來表示量子電量子人工智能技術白皮書 114 路,TensorFlow Quantum 提供以下運算:從電路批次的輸出分布中采樣;基于電路批次計算 Pauli 和批次的期望值,TFQ 實現了與反向傳播兼容的梯度計算;模擬電路和狀態批次。雖然在現實世界中直接檢查整個量子電路的所有量子態振幅
235、的效率極低,但狀態模擬可以幫助研究員了解量子電路如何將狀態映射到接近精確的精度水平。TFQ 功能支持量子分類的監督學習、量子控制、模擬噪聲量子電路和量子近似優化。此外,TFQ 可以用來處理高級量子學習任務,包括元學習、分層學習、哈密頓學習、采樣熱狀態、變分量子本征解算器、量子相變分類、生成對抗網絡和強化學習。TFQ 框架為量子計算和機器學習研究社區提供必要的工具,以探索自然和人工量子系統的模型,并最終發現可能產生量子優勢的新量子算法。圖 45 為 TFQ 的軟件堆棧示意圖,顯示了它與TensorFlow、Circ 和計算硬件的交互。堆棧的頂部是要處理的數據。經典數據由 TensorFlow 原
236、生處理;TFQ 增加了處理量子數據的能力,包括量子電路和量子算子。堆棧的下一個級別是 TensorFlow 中的Keras API。由于 TFQ 的核心原理是與核心 TensorFlow 的本地集成,特別是與Keras模型和優化器的集成,因此該級別跨越了堆棧的整個寬度。在 Keras 模型抽象的下面是量子層和微分器,當與經典TensorFlow 層連接時,它們可以實現混合量子經典自動微分。在量子層和微分器的下面是 TensorFlow 操作,它實例化了數據流圖。定制操作控制量子電路的執行,電路可以通過調用 qsim 或 Cirq 在模擬模式下運行,或者最終將在 QPU 硬件上執行。量子人工智能
237、技術白皮書 115 圖 45 TensorFlow Quantum 軟件堆棧示意圖 3)微軟微軟 微軟在量子人工智能領域的研究和應用非?;钴S。微軟的 Azure Quantum 平臺是一個開放式的量子計算生態系統,科學家和工程師可以使用該平臺進行量子應用的研發和部署。該平臺結合了高性能計算、人工智能和量子計算的最新突破,以加速科學發現。微軟的Copilot 創新模型是一種量子計算模型,旨在支持量子計算的發展和應用。Copilot 模型結合了量子計算和經典計算,可以幫助科學家和企業解決難以解決的問題。此外,微軟還推出了一系列創新模型,如 Azure Quantum Elements 和 Quan
238、tum Compute Server,以幫助科學家和工程師更輕松地構建量子應用,并加速科學發現。2.量子人工智能初創企業量子人工智能初創企業 1)QC Ware 美國量子計算公司 QC Ware 致力于面向量子計算的企業軟件和量子人工智能技術白皮書 116 服務,并廣泛開展與行業用戶的交流合作,為其提供解決方案。近年來,與歐洲飛機制造公司 Airbus 合作研究飛行路徑優化;與德國汽車制造公司 BMW 合作探索將量子機器學習在自動駕駛和路徑規劃等領域的領用;與日本汽車零部件制造銷售公司 Aisin Group 合作研究基于量子計算的靜態代碼測試;與瑞士生物科技公司 Roche 合作探索量子卷積
239、神經網絡在醫學圖像識別中的應用;與德國材料公司 Covestro 合作將量子計算應用于材料研發;與美國投資銀行Goldman Sachs 合作將量子蒙特卡洛算法用于金融衍生品定價。圖 46 QC Ware 產品與服務布局 2)Qubrid 美國 Qubrid 公司是一家量子計算和人工智能(AI)公司,其使命是解決多個行業中的現實世界復雜問題。該公司云平臺利用混合量子經典計算的力量,在量子處理單元(QPU)、CPU 和 GPU 計算基礎設施上高效開發和運行下一代量子算法。該公司創新解決方案使用戶能夠利用量子計算和經典計算的計算優勢,提供無與倫比的速度和準確性來解決復雜的優化問題,執行模擬和進行數
240、據分析。Qubrid 團隊由量子開發人員、研究人員和合作伙伴團隊組成,致力于增強這一獨特的平臺,促進科學應用。該公司正在進行與量子計算和人工智能相關的多個領域的研究,并正在開發可以在平臺以及其他領先的量子平臺上運行的算法和應用程序。量子人工智能技術白皮書 117 3)NQCG 荷蘭量子計算公司 NORDIC QUANTUM COMPUTING GROUP(NQCG)成立于 2000 年,專注于量子信息技術的三個核心領域:光子芯片設計、金融問題的量子算法開發和使用光子平臺的量子機器學習。NQCG 正在建造完全可編程和可擴展的光量子計算機,并使它們可用于云中的研究和商業。對于金融服務和工業技術,他
241、們的研發團隊主要專注于開發混合量子-經典算法和全量子應用。這個項目的重點是在模擬、優化和人工智能這三個重要領域實現量子優勢。此外,該團隊正在制造旨在優化量子算法性能的芯片。4)Zapata 美國量子計算軟件公司 Zapata 是由 Aln Aspuru-Guzik 領導的一群哈佛大學科學家創立的。Zapata 致力于開發功能強大的軟件平臺和量子算法,可以應用于多個行業,包括化學、制藥、物流、金融和材料。Zapata 的量子化工作流程平臺 Orquestra,使用量子化工作流程協調跨經典和量子技術的工作流程,并為機器學習、優化、模擬和量子算法提供一個軟件平臺。Zapata Computing 的
242、量子工作流平臺 Orquestra,結合了強大的軟件平臺和量子算法庫,在最新的量子硬件上為應用程序(尤其是在化學、機器學習和優化)提供計算能力方面的實際進展。Orquestra 引發了“財富 100 強”和“全球 1000 強”企業的大量需求,使用戶能夠組成量子工作流,并跨經典和量子技術協調其執行。Zapata Computing 正在為廣泛的行業開發解決方案,包括化學、物流、金融、石油和天然氣、航空、制藥和材料。量子人工智能技術白皮書 118 (三三)量子人工智能國內科研量子人工智能國內科研機構及機構及企業企業發展概況發展概況 1.中國移動中國移動 中國移動作為電信運營商企業正不斷加強 6G
243、、量子通信、量子人工智能等前沿領域謀劃布局。2023 中國算力大會主論壇上,中國移動等聯手發布量子計算云平臺。該平臺屬國內首創,且是國內最大規模的量子計算云平臺,也是業界首次實現“量子與通用算力統一納管混合調度”的系統級平臺,標志著我國量子計算逐步走向實用化階段。此外,中國移動“第四屆科技周暨戰略性新興產業共創發展大會”論壇上,中國移動掛牌成立央企首個面向行業應用的量子計算實驗室“中國移動量子計算應用與評測實驗室”,并發布通信網絡中量子計算應用研究報告和“五岳”量子云平臺等首批量子計算戰略性新興產業成果。當前階段,中國移動針對 AI 這一技術的應用落地場景非常豐富。自智網絡(網絡智能化)和 A
244、I 業務(業務智能化)為人工智能提供了巨大的應用空間。自智網絡將 AI 技術與通信網絡的硬件、軟件、系統等深度融合,通過構建網絡全生命周期的自動化、智能化運維能力,為網絡客戶提供“零等待、零故障、零接觸”極致業務體驗,為網絡運維打造“自配置、自修復、自優化”高效手段。未來量子人工智能在通信領域的應用可能面臨自智網絡同樣法律政策困境。不斷完善的法律法規對網絡數據和用戶數據的商用合規性提出挑戰,隱私保護計算、多方安全計算亟需跟上。2.北京量子信息科學研究院北京量子信息科學研究院 量子人工智能技術白皮書 119 北京量子信息科學研究院是北京市委市政府積極響應中央戰略決策,加強國際科技創新中心建設的重
245、要舉措。研究院整合北京現有量子物態科學、量子通信、量子計算、量子材料與器件、量子精密測量等領域骨干力量,建設頂級實驗支撐平臺,力爭在理論、材料、器件、通信與計算及精密測量等基礎研究方面取得世界級成果,并推動量子技術走向實用化、規?;?、產業化,通過建立完善的知識產權體系,緊密與產業界結合加速成果轉化,實現基礎研究、應用研究、成果轉移轉化、產業化等環節的有機銜接,打造國家戰略科技力量。2023 年中關村論壇上,北京量子信息科學研究院正式發布了Quafu(夸父)量子計算云平臺,取意量子未來(quantum future)”,并被中關村論壇列為十項重大科技成果之一。0uafu 量子計算云平臺是以互聯網
246、云計算的形式呈現的量子計算綜合性能展示,集成了超導量子芯片、測控設備、量子操作系和應用軟件等元素,為研究和測試人員提供量子算力,標志著量子計算朝著實用化方向邁出了重要一步。Quafu量子計算云平臺不僅在單片量子比特數和芯片數量上具有優勢,還具備高精度的測控能力和全局糾纏能力。量子計算機在解決特定問題時展現出超強的并行計算能力,相比經典計算機,其運算速度可大幅提升。平臺提供了 136、18 和 10 個量子比特的芯片,以供用戶根據問題的難度和計算要求進行選擇。Quafu量子計算云平臺已經在國內推出測試版,并取得了穩定高效的運行效果,多項科研任務已在該平臺上成功完成,未來,該平臺將不斷發展和迭代,
247、預計將在規模和技術上與國際先進的量子云平臺競爭?;?Quafu 量子云平臺,量子院 Quafu 項目組正在積極探索量量子人工智能技術白皮書 120 子人工智能相關課題以及潛在的落地場景。目前取得的重要進展有首次實現了基于 Quafu 云平臺真實量子芯片的基于策略梯度優化的量子強化學習。北京量子信息科學研究院推出并開源了基于 Quafu的量子強化學習軟件包 Quafu-RL,希望以此推動量子人工智能社區的發展。下一步,北京量子信息科學研究院將繼續完善相關算軟件,并探索其在實際場景中的應用。3.騰訊量子實驗室騰訊量子實驗室 騰訊量子實驗室作為騰訊集團在硬核科技領域布局的重點實驗室之一,在量子計算
248、機體系結構、操作系統和微波控制軟硬件系統,及量子程序設計語言及編譯器等方面持續輸出理論和實踐成果,同時積極研究創新量子算法及電路實現,研發分子及材料相關性質預測算法、軟件和云服務產品,并與合作伙伴共同探索在物理、化學、材料、能源、生物醫藥、金融、信科和教育等相關領域的潛在應用價值。騰訊量子實驗室在量子人工智能領域也在積極布局和探索,尤其結合 AI 針對材料研究和藥物發現的難點問題作了系統性深入研究,主要關注并取得突破的方向包含基于AI方法的蛋白質-小分子相互作用及親和力預測、基于 AI 方法的分子生成、基于 AI 方法的分子成藥性預測、耐藥性預測,以及基于量子算法的抗體蛋白質折疊等。面向物理、
249、化學領域的重難點科研問題,騰訊量子實驗室亦作了定向研究投入,例如結合 AI+計算化學的化學反應預測、設計和分子合成路徑設計等。騰訊量子實驗室基于自身在交叉學科領域的積累、騰訊云的海量子人工智能技術白皮書 121 量高性能算力以及未來有望落地的量子計算加速能力,積極布局泛科研應用平臺。實驗室目前已開源了發布了下一代量子模擬引擎TensorCircuit 和量子計算化學領域軟件產品 TenCirChem。未來,騰訊量子實驗室的相關平臺服務將適時接入業界量子計算真機資源,結合自身在量子軟件和量子算法領域的沉淀,為用戶提供更前沿的計算研究服務。特別需要指出的是,TensorCircuit 是業界首個完
250、整兼容現代機器學習框架編程范式的可微量子模擬軟件,亦是第一款完整的基于張量網絡縮并的量子模擬器。自 2022 年 5 月開源發布以來,已累計獲得了超過 26 萬的下載量,軟件的貢獻者、使用者和合作者遍布海內外各大知名高校、研究院所和企業。4.國盾量子國盾量子 國盾量子創辦于 2009 年,是國家專精特新“小巨人”企業。公司以量子信息技術的全面產業化為己任,主要從事量子保密通信產品、量子計算儀器設備的研發、生產、銷售及技術服務。公司技術起源于中國科學技術大學,目前已逐步成長為全球少數具有大規模量子保密通信網絡設計、供貨和部署全能力的企業之一。在量子計算領域,公司參與“祖沖之號”超導量子計算優越性
251、實驗,具備提供超導量子計算整機解決方案能力。國盾量子在第六屆世界人工智能大會上推出了新一代量子計算云平臺,旨在提供以量子計算機為核心的云服務,通過對全社會開放,共同探索未來量子計算在包括人工智能等相關領域的應用。目前該云平臺可將量子計算機的算力開放出去,用戶可在線編程或線量子人工智能技術白皮書 122 下 SDK 使用量子計算機,進行量子計算實驗和開發。未來該平臺量子計算潛在的應用場景可涵蓋經濟、人工智能、生物醫藥等多個領域,強大的算力將有助于加速人工智能發展。在人工智能方面,國盾量子新一代量子計算云平臺提供的強大算力有助于人工智能識別模式,并幫助人工智能更好地作出決策。大數據和自然語言處理方
252、面,利用并行計算優勢,量子系統可以為機器學習帶來指數量級的加速。量子計算機未來的潛在應用場景或將涵蓋經濟、人工智能、生物醫藥等領域。5.圖靈量子圖靈量子 上海圖靈智算量子科技有限公司(以下簡稱“圖靈量子”)是我國首家光量子計算公司,致力于構建光量子芯片和量子算法雙底層核心驅動力,推動光量子芯片、光量子計算機、量子智算云、以及量子加密和算法安全平臺等研發和產業化,打造后摩爾時代算力引擎和智算產業集群。圖靈量子堅持自主可控發展戰略,在“卡脖子”等關鍵核心技術方面持續開展創新和突破,制備出世界上最大規模三維集成光子芯片,開建我國首條光子芯片中試線,建設國內首個量子人工智能計算中心等。圖靈量子研發專用
253、光量子計算機(TuringQ Gen1),集成全棧核心技術,包括量子光源、光量子信息處理芯片、探測系統、專用光量子計算軟件、光量子芯片 EDA 軟件、光量子計算操作系統等。此外還推出相應的專用光量子芯片模擬軟件(FeynmanPAQS)商用光量子計算模擬軟件,擁有完全知識產權的云計算模擬平臺,專用光量子計算模擬和三維光子芯片設計的 EDA 軟件。量子人工智能技術白皮書 123 圖靈量子自主研制的量擎量子計算云平臺,為用戶提供經典-量子混合人工智能開發環境,支持用戶通過云端及本地調用底層量子硬件,預裝整套量子 AI 工具鏈軟件可使用戶便捷進行模型訓練和調優工作,配套在線 IDE 滿足用戶高效研發
254、需求。圖 47 量子人工智能平臺 此外,圖靈量子還擁有量子人工智能計算中心建設規劃和實施能力,利用量子計算芯片(QPU)作為加速或協處理器,與 CPUGPUFPGA 等組成異構計算平臺,提供量子人工智能、“量子-經典”混合應用所需算力、數據和算法服務的公共算力新型基礎設施,加速經典難解問題求解,提供從底層芯片到頂層應用的全棧能力。2023 年 1 月,和上海交大無錫光子芯片研究院聯手打造的國內首個量子人工智能計算中心“太湖量子智算中心”在無錫市揭牌。6.本源量子本源量子 本源量子計算科技(合肥)股份有限公司(簡稱“本源量子”),國內量子計算龍頭企業,2017 年成立于合肥市高新區,團隊技術起源
255、于中科院量子信息重點實驗室。本源量子聚焦量子計算產業生態建設,打造自主可控工程化量子計算機,圍繞量子芯片、量子計算測控一體機、量子操作系統、量子軟件、量子計算云平臺和量子計算科普教育核心業務,全棧研制開發量子計算,積極推動量子計算量子人工智能技術白皮書 124 產業落地,聚焦生物科技、化學材料、金融分析、輪船制造、大數據等多行業領域,探索量子計算產業應用。本源量子將持續發力量子人工智能,助力中國人工智能行業全面發展,并將運用量子計算嘗試在不同行業領域解決問題,研制出行業專用量子計算機。本源量子團隊先后自主研發量子人工智能應用量子圖像識別應用,本源量子圖像識別應用提供二分類識別與多分類識別兩種功
256、能,可識別手寫數字 0 和 1 或多種常見動物。此前,本源量子還曾發布量子手寫數字識別應用,并公開在其本源量子云平臺上;發布量子人工智能應用 QGAN。該應用展示了量子計算機上的生成對抗網絡在人像修復領域擁有相對于經典計算機的速度優勢和空間優勢,證明了基于超導量子比特技術的量子機器學習可行性;此外本源量子團隊基于自主研發的量子機器學習框架 VQNet,設計實現的量子生成對抗網絡(QGAN)可用于圖像處理領域,比如人像的修復。與經典計算機相比,量子計算處理圖像在時間上具有指數級提升,在空間上處理的數據量也將隨之呈指數級增加。六、量子人工智能未來產業發展機遇與風險(一一)量子人工智能產業發展機遇量
257、子人工智能產業發展機遇 量子人工智能作為量子計算具有廣闊應用前景的應用方向之一,受到產學研用各方的重視。量子人工智能產業發展面臨如下機遇:1.各國對量子計算和人工智能技術產業發展高度重視各國對量子計算和人工智能技術產業發展高度重視 近年來,越來越多的國家從政策和資金層面布局量子計算的研發。美、中、歐等國家和地區持續加大資金投入。美國參議院通過量子人工智能技術白皮書 125 了芯片法案,該法案主要支持量子計算等關鍵技術研發,以增強美國的全球科技競爭力。同時,美國國防部也資助了多個量子計算項目。歐盟也大力支持量子計算的研究和發展。例如,歐盟委員會發布了一項關于量子計算的旗艦計劃,計劃在 2021
258、年至 2027 年間投入 10 億歐元(約合 11 億美元)用于研究和開發量子計算。我國也非常重視量子計算的發展,出臺了一系列政策,并投入了大量資金。例如,中國科技部在“十四五”規劃中明確提出要發展量子計算,并啟動了一系列的量子計算研究項目。而人工智能在過去的數年中,給社會和產業帶來翻天覆地的變化。許多國家都認識到了人工智能技術的潛力和重要性,紛紛出臺政策來支持其發展。美國在人工智能領域具有明顯的優勢,政府、企業和科研機構對人工智能的重視程度都在不斷增加。自 2015 年以來,美國白宮科技政策辦公室連續發布了為人工智能的未來做好準備、國家人工智能研究和發展戰略計劃和人工智能、自動化與經濟報告等
259、 3 份重量級報告。此外,美國硅谷是當今人工智能發展的重要區域,聚集了從人工智能芯片到下游應用產品的全產業鏈企業。在人工智能融資規模上,美國在全球的比重占 60%以上,科技巨頭們早已經布局了人工智能領域。除了美國,其他國家也在積極推進人工智能技術的發展。例如,英國強調綜合施治、合力發展,日本、加拿大等多個國家也出臺政策支持人工智能發展。2.量子計算與人工智能結合成為前沿探索熱點領域量子計算與人工智能結合成為前沿探索熱點領域 人工智能技術可以自動化完成許多繁瑣、重復的工作,比如數據分析、語音識別、圖像識別等,可以減輕人們的負擔,提高工作量子人工智能技術白皮書 126 效率。人工智能技術可以迅速處
260、理大量數據,實現很高的處理速度和快速決策,加快了人們的決策過程,縮短了很多時間。量子計算與人工智能相結合,一方面可以加速機器學習算法。量子計算可以加速各種機器學習算法,例如支持向量機(SVM)、人工神經網絡(ANN)、深度學習等,通過量子并行性和量子態疊加等優勢來處理復雜的計算問題,從而提高機器學習算法的訓練速度和準確度;另一方面可以改進優化算法。優化算法是人工智能領域中的重要問題,包括著名的遺傳算法、模擬退火算法、粒子群優化算法等,量子計算可以通過量子搜索算法和量子優化算法等方法,提高優化算法的效率和精度,從而加速解決各種優化問題。量子人工智能的前沿探索將會迸發新的火花,形成新的應用模式。3
261、.行業應用需要量子人工智能技術行業應用需要量子人工智能技術 前經典人工智能技術在處理某些復雜問題時遇到了瓶頸,而量子人工智能技術可以提供更快速、更準確的解決方案。在醫療健康領域,量子人工智能可以幫助醫生進行更精確的診斷和治療,例如利用量子機器學習來分析醫療數據,發現潛在的疾病風險和治療方案,利用量子優化算法來設計新型的藥物和疫苗,利用量子神經網絡來模擬生物分子的結構和功能。在金融服務領域,量子人工智能可以幫助金融機構進行更高效的風險管理和投資決策,例如利用量子機器學習來預測市場走勢和價格波動,利用量子優化算法來優化資產組合和交易策略,利用量子神經網絡來模擬復雜的金融模型和場景。此外,量子人工智
262、能技術還可以應用于藥物研究、分子化學、蛋白質折疊模擬等研究領域,投資組合優化、量子期權定價、股票量子人工智能技術白皮書 127 時序預估等金融領域,航空動力、交通規劃等多領域??傊?,行業應用需要量子人工智能技術來處理和解決一些經典計算無法處理的復雜問題,從而實現更快速、更準確、更高效的運行和決策。(二二)量子人工智能產業發展風險分析量子人工智能產業發展風險分析 量子人工智能產業發展迅速,但也存在一些風險和挑戰。首先,量子人工智能技術的研發和應用需要大量的資金投入,而且技術門檻較高,需要具備量子計算和人工智能兩方面的專業知識和技能。因此,對于大多數企業和組織而言,很難自主開發量子人工智能應用,需
263、要依賴專業的技術團隊和研究機構。其次,量子人工智能技術的應用前景尚不明朗,商業模式的建立和發展仍需要探索。雖然量子人工智能技術具有廣闊的應用前景,但是在目前的市場上,由于技術的復雜性和應用的局限性,商業應用還比較有限。因此,對于投資者和商業領袖而言,需要謹慎考慮量子人工智能技術的商業價值和市場潛力。此外,量子人工智能技術的發展還面臨著技術瓶頸、數據隱私和安全等方面的挑戰。雖然量子計算技術已經取得了一些進展,但是其算法和應用仍然存在局限性。同時,量子計算和人工智能技術的應用涉及大量的數據隱私和安全問題,需要采取有效的措施來保護用戶的隱私和數據安全。綜上所述,量子人工智能產業發展迅速,但也存在一些風險和挑戰。需要加強技術研發和應用探索,建立有效的商業模式和市場機制,同時加強數據隱私和安全保護,才能實現量子人工智能技術的廣泛應用和產業的發展。