當前位置:文範網 >

心得體會 >讀書筆記 >

量子計算研究進展報告

量子計算研究進展報告

摘要:自20世紀70年代以來,隨着量子計算理念的提出,科學家針對量子計算進行了大量的理論推理和測試驗證,並將其視為未來技術進步的基石。目前,通用量子計算機理論框架、基於量子理念的經典計算模型改進等方面研究已取得明顯進步,眾多科研工作者初步嘗試將理論成果轉化為實際應用,落地量子技術,從而實現“第二次量子革命”。其中,量子計算因其並行處理能力已被證明一旦達到一定規模,其效率將遠超傳統計算機,對眾多經典算法領域如密碼學、程序語言、機器學習和人工智能等產生深遠的影響,極有可能引發社會、經濟、軍事等領域的一次重大技術革命。本文從科普的角度介紹了量子計算的背景及原理,國內外進展對比,並基於發展現狀對未來作了展望。

量子計算研究進展報告

一、引言

“量子力學”從本身概念而言是一個高深的科技研究領域,但其具體應用卻與日常生活息息相關,例如,晶體管、激光蝕刻等電腦和手機必備的零件與技術都是在量子力學理論指導下被設計、生產並形成成熟產業,從而徹底改變人們的生活,即所謂的“第一次量子革命”。隨着信息技術的發展,如何開發新的量子技術是各個國家及聯合體,包括中國、歐盟、美國、日本、英國、加拿大等科學團體的主要目標之一。力圖將理論成果轉化為應用並引領“第二次量子革命”,而其需要提升或實現的本質研究工作即為“量子計算”。

高性能手機和計算機已成為常見裝備,其中的核心元件是作為處理器的芯片。眾所周知,芯片上的集成電路遵守着摩爾定律,即每18-24個月在性能或晶體管數量上實現翻倍。電子計算機前50年的發展情況與摩爾定律的預測十分接近,但隨着電子元件集成工藝的技術和成本越來越高,集成電路的發展進度已愈發顯出疲態。另外,當電子元件的尺寸達到納米級別時,量子效應將越來越明顯,電子的隧穿效應會導致迴路失靈。科學家預測,到2025年摩爾定律將不再奏效,因此,研究者將目光逐漸投向了量子計算機。

二、量子計算的優勢和麪臨的主要問題

量子計算的優勢主要體現在兩方面,即功耗保持和運行效率。在功耗保持方面,傳統計算機的運行過程受到温度、濕度等外界因素制約,散熱不佳將極大的降低運算速度,而計算過程中的不可逆操作將帶來極大的能耗,從而造成發熱。與經典計算機的比特位和邏輯門類似,量子計算機對量子比特的操作通過量子門實現。其區別在於,經典計算機進行門電路操作後會產生能量耗散,例如0和1的“與運算”是個不可逆且能量耗散的過程,但量子計算則通過幺正變換實現可逆計算,能從根本上解決能耗問題。在運行效率方面,經典計算機存儲過程中的單個存儲位僅處理0或1單個數,而量子存儲可同時保留0和1兩個數(通過電子自旋的上和下實現);在兩個存儲位時,經典計算機仍然只能存單個數,但量子計算機可以同時存四個數;推廣至N個存儲位的情況下,經典計算機還是僅存一個數,但量子計算機可以同時存放2N個數據。因此,理論上量子計算機的存儲數據能力是經典計算機的2N倍。在計算角度,經典計算機採用的是串性運算模式,每次操作將一個數轉變成為另一個數;而量子計算機通過一次操作可以把2N個數據轉變成新2N個數據,即並行運算,其理論運行效率存有巨大的提升空間。

鑑於量子計算強大的運算、存儲和低功耗優勢,在物理上實現量子計算機硬件、在技術上研發實用性的量子算法已成為各國各聯盟的工作重點。科研工作者的初始設想是從傳統電路的邏輯出發,只要能找到一個易於測量的雙態體系(對應於0和1),如光子的偏振方向,電子、原子核的自旋方向或原子、離子本身任意兩個離散的能級構成的二能級系統,將它們組成大規模的陣列,再通過光、電、磁場等干涉方法組成一系列“量子邏輯門”對其進行操控,就可以構建出初步的量子計算機。然而遺憾的是,其實施過程卻面臨着兩個主要的問題,首先是原子尺度的粒子很容易受到環境中噪聲的干擾,從而失去量子效應(稱為退相干,即不再具備雙態體系)進而導致量子比特發生錯誤,因此必須將環境温度控制在-273K左右(與絕對零度相差不到一度)。其次,對量子比特的讀取過程也會破壞量子效應,稱為測量引起的“坍塌效應”,即無法直接讀取一個量子位的狀態,只能通過測量與其糾纏的其他粒子來推測出它的狀態。因此,為了糾錯和讀取,每一個邏輯比特都需要5000-10000個物理比特來進行輔助,極大地限制了有效比特比的提升速度。

雖然存在着巨大的技術鴻溝,但量子計算無窮的潛力仍趨使着無數科研工作者以及各大科技公司競相爭奪。到目前為止,備受人們期待能實現量子計算的物理系統有離子阱系統、超導約瑟夫森結系統、金剛石自旋系統、半導體量子點系統以及我國潘建偉教授研發的光子系統等。它們各自存在不同的優缺點,比如:離子阱系統“乾淨”(相干時間長)且精密(量子態製備保真度高),但其所需操控時間長且大規模集成困難;超導量子系統對量子比特和量子邏輯門的操控可達到納秒(十億分之一秒)級別,但抗噪聲能力不能令人滿意。種種諸如此類的困難,使得多年過去人們也只能在實驗室內做到數十個量子比特的量子計算原型機。但是,學術界的一個公認思想是,量子計算機終有一天將遠遠超越經典計算機。美國加州理工學院的John Preskill教授將這個願景描述為“量子霸權”(quantum supremacy,這個翻譯存在部分學者過分解讀的可能,個人認為更應該翻譯為“量子優勢”):“如果一個計算任務可以被現存的量子器件所解決,但是這一計算任務沒法在一個合理的時間內使用任何一個現存的超級經典計算機運用任何一個已知的算法來完成,可以認為實現了量子霸權。”

三、國內外主要研究進展

1. 國內研究進展

我國在量子計算領域起步雖然落後於歐美國家,但是在國家支持下,還是取得了國際一流的研究成果。當前,由於物理、數學等基礎較為薄弱,因此在關鍵技術突破等方面與歐美仍存在一定差距。

首先,從戰略上講,我國發布《國家中長期科學和技術發展規劃綱要(2006-2020)》,將“量子調控研究”列為四個重大科學研究計劃之一,提供持續性穩定性的國家層面支持,並且相關領域的專家已經開展了相應的研究,取得了不菲的研究成果。中國科技大學的郭光燦院士長期從事半導體量子芯片研究並取得了重大突破,實現了3個量子比特邏輯門電路,在操控比特數量和量子相干時間等方面接近國際先進水平。同屬中國科技大學的潘建偉院士在量子保密通信和量子物理方面也取得了卓越成果,例如,潘院士首次在國際上使用光晶格技術生成並觀測了了約600對呈現糾纏狀態的超冷量子比特。

其次,我國量子計算研究基礎薄弱,經費和人力投入與歐美國家相比遠遠不足。雖然我國在量子計算領域投入了相當的人力物力,然而,實用化的量子計算機的應用是一個複雜的系統工程,既要對量子物理基礎學科進行原理性創新,又要進行量子計算所需的普適材料、製程、架構和控制軟件等實現創新。當前,由於我國精密工業領域發展的限制,造成我國在傳統計算和量子計算工藝技術上基礎薄弱,從而導致核心電子元器件、高端計算芯片、操作系統和高級計算軟件、增材製造裝備等長期落後,受到西方國家的制裁和禁運,最終導致我國量子計算的研究主要處於原理驗證和演示層面,無法深入進行脱離實驗室環境的量子計算模擬和深層次計算,以至於直到現在,我國都尚未研發出可以商業化使用的量子計算芯片。此外,我國從事量子計算領域的單位較少,由於基礎設施的缺乏,量子計算領域入門門檻較高,目前僅有中科大、阿里巴巴達摩院、中科院、清華等單位開展了量子計算方面的研發,導致我國在量子計算實用化方面進程緩慢。

2017年5月,我國成功研發出世界上第一台光量子計算機,這標誌着我國在量子計算機領域取得世界一流的入場券。該光量子計算機由中國科技大學、中國科學院-阿里巴巴量子計算實驗室、浙江大學、中科院物理所等協同完成參與研發。經初步實驗測試,該原型機的取樣速度比國際上通過經典計算模式實施的同類實驗提速約24000倍。進一步,2018年5月,阿里巴巴達摩院量子實驗室發佈消息,稱已成功模擬出81比特40層作為基準的谷歌隨機量子電路,研發出當前世界最強的量子電路模擬器“太章”。

2.國外研究進展

由於歐美一直重視基礎學科的發展,因此在量子領域一直走在世界前列。自量子計算機概念被提出以來,歐美學術界和工業界不斷加大資本和人力投入,並取得舉世矚目的重大進展。量子信息科技將引領下一場技術革命,給國家安全、經濟發展、基礎科研等帶來重大變革。

首先,歐美在國家戰略佈局層面上顯著高於國內。自2014年以來,歐美研究機構與企業投入力度不斷加大,歐盟於2018年啟動總額10億歐元的量子技術項目,旨在進一步加強歐盟量子領域的力量;2018年9月24日,美國白宮科技政策辦公室(OSTP)會同國家科學技術委員會(NSTC)發佈《量子信息科學國家戰略概述》,標誌着特朗普政府將量子霸權提升到國家戰略。此外,英國政府投入約2.5億美元在牛津大學等高校建立量子研究中心,培養該領域的頂尖人才,荷蘭政府向國內頂尖大學代爾夫特理工大學資助1.4億美元開展量子計算研究,加拿大政府也資助滑鐵盧大學2.1億美元開展量子領域的研究,澳大利亞政府、銀行等出資8300萬澳元在新南威爾士大學成立量子計算公司。

其次,歐美量子技術研發取得一系列重大突破。在量子芯片方面,美國加州大學聖塔芭芭拉分校在國際上首次實現了9量子比特的超導量子芯片,美國新南威爾士大學成功研發出2量子比特的硅基半導體量子芯片,英國牛津大學則實現了5量子比特的離子阱量子芯片;在量子計算方面,西班牙巴斯克大學於2016年6月公佈了具有9超導量子比特的模擬量子計算機,馬里蘭大學與美國國家標準與技術研究院於2016年8月發佈5量子比特的可編程量子計算機,而美國IBM公司則分別於2016和2017年發佈了5超導量子比特和20比特的量子計算機,並於2019年1月宣佈推出IBM Q System OneIBM,發佈了世界上第一台商用量子計算機。

2017年11月11日,IBM宣佈20量子位的商用量子計算機研製成果,並於同年完成50量子位的量子計算機原理樣機。該20量子比特的計算機是商業化版本,其糾纏態量子相干時間較長,穩定性得到極大的增強,平均相干時間提升到90微秒,並具備柔性的擴展設計,可以增加量子位,基於相同技術的50量子位的量子計算機能夠達到更加強大的性能,幫助IBM構建量子霸權。美國哈佛大學的盧金教授,格雷納教授和麻省理工學院的武才蒂奇教授則在量子模擬方面取得較大進展,他們通過激光捕捉到超冷銣原子,並利用磁場將冷原子進行排序,最終研發出一種51量子位的模擬器,可以實現特定的量子計算。2019年10月,在《Nature》雜誌上,谷歌發表了一篇標題為《Quantum supremacy using a programmable superconducting processor》(用可編程超導處理器實現的量子霸權)的論文,向世人宣告谷歌突破性成果,助其率先實現量子霸權。論文提到,谷歌團隊研發出了一款由54個量子比特組成的量子處理器,並命名為“Sycamore”(譯為:西克莫)。在團隊設計的專屬任務——對量子電路產生的隨機數字進行採樣的測試中,Sycamore約200秒的時間內從量子電路中採集了100萬個樣本(測試中有一個量子比特無法有效工作,實際只用了53個量子比特)。而據谷歌稱,這一任務由一台尖端的超級計算機來完成需要約1萬年。不過這個結果很快遭到IBM研究人員的質疑,並且很快在預印網站arxiv上刊出了他們的成果並指出,利用他們的方法,經典超級計算機可以在2.5天內以更高的保真度完成相同的計算任務。按照這個結果,我們距離“量子霸權”還很遠。但無論如何,谷歌的該項成果仍具備劃時代的意義,將極大增強科學家們對實現大規模可擴展的通用量子計算機的信心。

四、未來發展展望

阿里達摩院發佈的2020十大科技趨勢中的第七點預測就是量子計算進入攻堅期。谷歌在硬件上的進展大大增強了行業對超導路線的樂觀預期,也對其他如光量子、離子阱等硬件研發路線造成嚴峻壓力。阿里達摩院預測,2020年多個追趕者“或做出令人欽佩的複製性結果,或陷入高度複雜的工程噩夢”。目前,量子計算機的產業化和軍事化應用已經進入關鍵時期,世界主要國家和龍頭企業都投入巨大人力和物力開展量子計算方面的研究,主要圍繞的研究方向包含複雜性理論、人工智能和機器學習、程序驗證等幾方面。

1.量子計算複雜性理論研究前景

目前,雖然出現了一些量子算法,但是量子計算的理論研究還很不充分。現有的量子算法應用於解決經典可計算問題,而對於不可計算問題在量子環境下卻沒有進行充分討論,如邏輯數學中的停機問題。部分研究人員通過對不可計算問題進行等價替代的方案提出了對應的量子求解算法,但研究尚處於理論分析階段,如果能夠在物理上實現,則量子計算可為解決經典的不可計算問題提供新的方向。經典的量子圖靈機模型圍繞問題的可計算性而非計算複雜度展開,且該模型並不能計算遞歸函數。因此,從數學、物理學等多學科角度討論新的量子圖靈機模型,有望突破量子計算模型的理論瓶頸。

目前廣泛使用的公鑰密碼都依賴於大整數質因子分解和橢圓曲線上的離散對數問題。然而在量子計算機上求解這些問題存在多項式時間算法。量子計算理論的發展,將對現存公鑰密碼體制構成嚴重的威脅。量子計算複雜性理論有助於構造抗量子密碼,進而確保量子計算環境下的密碼安全。儘管該領域在理論方面已取得一定的研究成果,但是,人們對量子計算的複雜性以及量子計算機實現的研究還處於初級階段,還有許多問題有待更深入的研究。

另外,圖理論和組合理論中已提出的量子算法在性能上已被證明為遠遠快於同類經典算法。但是,可求解的問題相對有限,基於量子計算能否在多項式時間內求解所有NP類問題仍有待研究突破。在量子算法方面,自Shor因子分解和Gover搜索算法提出後,雖然各國眾多的研究者在該領域進行了大量的研究。但目前尚未發現其他解決經典問題的新量子算法。在量子問題複雜性關係及其與古典問題複雜性關係方面,還有許多不確定包含關係,如NP問題中不同子集的對應性、不同算法間的複雜度對應關係等都有待確定。

2.量子計算與人工智能的碰撞

隨着Alpha Go戰勝圍棋世界冠軍李世石,以深度學習為代表的人工智能技術已在全球範圍內形成研究熱潮。在經典計算機上,深度網絡的神經元互聯都採用數字矩陣表示,即神經元間的數據計算採用矩陣運算,並通過專門設計的GPU技術實現提升,但其運行速度仍遠遜於量子計算機。麻省理工學院物理學家、量子計算先驅Seth Lloyd表示:“在量子計算機上,大型矩陣的操作速度堪稱呈指數級增長。”另一方面,根據大數據預測,到2025年全球的數據量將達到27.49 TGB(1TGB=1012 GB),其中約有30%的數據將具有大數據價值。基於目前的計算能力,在如此龐大的數據面前,人工智能的訓練學習過程將變得相當漫長,甚至無法實現最基本的人工智能,因為數據量已經超出了內存和處理器的承載上限,這將極大限制人工智能的發展,需要量子計算機來幫助處理未來海量的數據。基於以上事實,近年來已有量子機器學習和量子深度學習等概念呈現,但所述研究大多還處於理論階段,只有少部分論文提及具體算法的實現及驗證。雖然理論上已經證明量子算法對部分經典計算問題有着可喜的提速效果,但是大多算法並未在量子環境下運行,只能通過模擬的方法實現,故難以展現其真正的數據處理能力。

3.量子計算在程序驗證領域應用前景

量子硬件設計與製造技術的發展使得大於100個量子比特的特定用途量子計算機有望在未來10年內實現。伴隨着該預言,量子計算軟件的開發研究成為爭奪戰略高地的熱門領域之一。當前,圍繞量子計算所設計的程序、協議都遵循“量子數據流,經典控制流”的基本思路。該思路較為自然且相對容易實現,只需要在經典的程序設計語言中增加對於量子數據的操作,如酉變換和量子測量等。但是,該思想並不能最為有效地發揮量子計算特有的優勢,帶量子控制流的函數式量子程序設計語言是未來發展的趨勢。並且,圍繞該趨勢還將開展相應的編譯器和新型量子圖靈機模型研究,其核心為量子疊加的嚴格語義定義問題。在沒有遞歸和循環的情況下,如果整個程序中對量子比特的測量都可以移到最後一步,則帶量子控制流的程序語義比較容易定義,本質上是針對量子的多路複用。但是,如果中間過程存在量子測量,那麼問題會變得非常困難,需要通過提升量子相干時間、引入超算子控制流等方式進行應對。此外,帶量子控制流的量子遞歸和循環是一個非常困難的問題,需要全新的思想、理論進行理解並解決。

五、總結

量子計算還處在理論發展和實驗驗證階段,其發展前景還存在太多的不確定性。無論從理論上還是工程技術上講,量子計算都還是一項極不成熟的技術,真正的量子計算機,不僅僅是包含量子計算,還需要更多的技術支撐,比如,量子存儲、量子通信、量子程序設計等等。目前距離實用的量子計算機還有很長的路要走,一方面,實驗量子計算還存在很多不可逾越的技術障礙,目前的實驗系統,普遍面臨糾纏量子比特數少、相干時間短、出錯率高等諸多挑戰;另一方面,量子計算相對於經典計算機的優勢還有待進一步確認,目前所公佈的量子算法僅針對特定問題,且大部分處於實驗室理想狀態。

  • 文章版權屬於文章作者所有,轉載請註明 https://wenfanwang.com/xindetihui/dushu/4wg17v.html
專題