未來10年信息技術體系重構與再造的創(chuàng)新機遇與挑戰(zhàn)
人工智能驅動信息技術體系重構與再造——兼評《中國至2050年信息科技發(fā)展路線圖》
中國網(wǎng)/中國發(fā)展門戶網(wǎng)訊 2009年,以李國杰院士為組長的中國科學院信息科技路線圖專家組,出版了《中國至2050年信息科技發(fā)展路線圖》(以下簡稱《路線圖》),并于2013年出版的《科技發(fā)展新態(tài)勢與面向2020的戰(zhàn)略選擇》中發(fā)表《信息科技:加速人—機—物三元融合》(以下簡稱《三元融合》)?!堵肪€圖》和《三元融合》前瞻性、戰(zhàn)略性分析了我國信息科技未來幾十年發(fā)展的大趨勢和戰(zhàn)略重點,為當時我國信息科技發(fā)展方向和戰(zhàn)略重點圈定了相關重點領域,對我國信息科技領域的重大科研活動起到了一定的指引作用。近15年來,全球信息科技發(fā)展已經(jīng)發(fā)生了一系列重大的變化,尤其是近幾年來,以大模型為代表的新一代人工智能技術極速發(fā)展,為信息技術體系重構與再造創(chuàng)新帶來了重大的機遇,將加速驅動信息技術體系創(chuàng)新進程。因此,評估十幾年前出版的《路線圖》和《三元融合》中對信息科技相關戰(zhàn)略預判的一些結論與影響,并在新形勢下,進一步前瞻未來10年信息科技變化趨勢,為搶占信息領域科技制高點,到2035年實現(xiàn)科技強國等戰(zhàn)略目標,具有重要的現(xiàn)實意義。
《路線圖》和《三元融合》的重要預判與近15年發(fā)展的比較
回顧近15年來,信息科技發(fā)展變化與《路線圖》和《三元融合》給出的預判,現(xiàn)在看來,很多當初的預判至今依然適用。
關于信息科學理論發(fā)展的長期預判符合預期
《路線圖》認為:信息技術不會變成以增量改進為主的傳統(tǒng)產業(yè)技術,而是面臨一次新的信息科學革命。信息技術的基礎理論大部分是在20世紀60年代以前完成的,近40年信息科學沒有取得重大突破。上一次基本創(chuàng)新(即基于科學突破的重大發(fā)明)的高峰期是在20世紀40年代,現(xiàn)在已有大量的知識積累,按照經(jīng)濟與技術發(fā)展長波規(guī)律的推測,21世紀20—30年代可能出現(xiàn)基本創(chuàng)新的高峰。2020年以后什么技術將成為新的主流技術就會逐步明朗;2020—2035年將是信息技術改天換地的大變革期。預計21世紀上半葉將興起一場以高性能計算和仿真、網(wǎng)絡科學、智能科學、計算思維為特征的信息科學革命。在網(wǎng)絡科學和智能科學取得重大突破以后,21世紀下半葉,基于信息科學的新的信息技術將取得比20世紀下半葉更大的發(fā)展。
近幾年,人工智能(AI)突飛猛進,驗證了《路線圖》的基本預判。AI現(xiàn)有重大技術發(fā)明,如Transformer深度學習框架,是基于Geoffrey Hinton等科學家長期對神經(jīng)網(wǎng)絡模型的基礎理論研究成果。深度學習的黑盒模型為AI科學研究提出了急需解決的科學問題,需求的牽引必將引發(fā)科學的突破。當前AI技術的大發(fā)展,預示人類已經(jīng)處在進入智能時代的前夜,目前的技術離實現(xiàn)真正的通用人工智能(AGI)還有一定的距離,再經(jīng)過10—20年的努力,大概率有基于重大科學突破的基礎發(fā)明,如同20世紀40—60年代一樣,發(fā)明計算機和集成電路以后,人類就進入了信息時代。
關于信息技術發(fā)展的長期預判基本符合預期
人—機—物“三元融合”預判正在成為現(xiàn)實
《路線圖》和《三元融合》指出,人—機—物三元融合強調的是物理空間、信息空間和社會空間的有機融合,物理空間分別與信息空間、社會空間源源不斷地進行信息交互,而信息空間與社會空間則進行著認知屬性和計算屬性的智能融合。
近15年來,人—機—物三元融合正在加速??焖侔l(fā)展的移動互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、4G/5G高速接入網(wǎng)及邊緣智能等,為實現(xiàn)人—機—物三元融合準備好了物質條件,數(shù)據(jù)智能化為智能融合提供了紐帶,計算機系統(tǒng)的基本模式正在從人機共生向人—機—物三元融合世界發(fā)展。移動互聯(lián)網(wǎng)實現(xiàn)了人與人的互聯(lián)、融合,物聯(lián)網(wǎng)(傳感網(wǎng))實現(xiàn)了人與環(huán)境的互聯(lián)與融合,工業(yè)互聯(lián)網(wǎng)實現(xiàn)通過網(wǎng)絡連接各種工業(yè)設備和系統(tǒng),實現(xiàn)工業(yè)數(shù)據(jù)的實時傳輸、共享與智能化處理,并通過新一代智能模型,改善、提升工業(yè)生產效率和質量,以及成本控制等。人—機—物三元融合最顯著的是腦機融合,腦機神經(jīng)連接是重要的科技突破。埃隆·馬斯克的“神經(jīng)連接”公司,繼首例人腦設備植入手術順利完成后,2024年7月迎來第2名人類植入者。通過在人腦皮層植入Neurolink相關芯片并采用大約10 bits/s的通信速率,使得癱瘓病人能夠通過思考來控制他們的手機或電腦。這真正實現(xiàn)了人—機—物三元融合。Neurolink成為現(xiàn)實,也預示著《路線圖》指出的,“今后幾十年內模擬計算可能又會成為受人重視的研究方向。我們在重視數(shù)字技術的同時,還要探索模擬量處理的新途徑以及數(shù)模混合處理的新方法”,這一預判得到一定程度的驗證。
計算與服務平臺的總體結構依然呈現(xiàn)出“集中與分散交替為主”的發(fā)展規(guī)律
《路線圖》指出,計算與服務平臺的總體結構幾乎是每隔20年左右有一個重大的變革,呈現(xiàn)出計算資源集中與分散交替為主的“三國定律”。目前,在“AI大模型+Agent”“AI大模型+RAG”等模式的加持下,未來這種集中與分散交替為主的發(fā)展規(guī)律將繼續(xù)延續(xù)。裝載有輕量化AI模型+Agent或+RAG或+Copilot的AI PC,將進一步改變人們使用計算機和互聯(lián)網(wǎng)的模式。一方面,計算與服務模式分散化的AI PC將進一步解耦人們對集中化的計算資源的需求,以及緊耦合的服務模式;另一方面,集成式的多云系統(tǒng)、聯(lián)邦云系統(tǒng)、超算互聯(lián)網(wǎng)等,將進一步提升計算資源的最大化利用(圖1)。因此,《路線圖》所指出的計算與服務平臺的集中—分散交替的“三國定律”,在未來還會繼續(xù)演進。這種周期性的變化,使得信息技術領域始終保持著創(chuàng)新的活力。

集成電路領域延續(xù)創(chuàng)新變革發(fā)展態(tài)勢
《路線圖》指出,集成電路領域將延續(xù)摩爾定律(more Mooer)、擴展摩爾定律(more than More)和超越CMOS(beyond CMOS)3個路徑發(fā)展。
在延續(xù)摩爾定律方面,晶圓級的大芯片已經(jīng)成為芯片結構橫向擴展發(fā)展的重要成果。2012年后登拉德縮放比定律受限,摩爾定律發(fā)展速度雖然放緩,但圍繞縮小COMS工藝特征尺寸、提高集成度,以及通過新材料的應用和器件結構的創(chuàng)新來改善電路性能的努力仍然在繼續(xù),F(xiàn)inFET結構和工藝技術在半導體制程發(fā)展到22—5 nm過程中,發(fā)揮了重要的作用。2020年,在同行都在將晶圓分割成數(shù)百顆獨立芯片之時,美國Cerebras Systems公司則是選擇將整個晶圓做成一顆芯片,其發(fā)布的WSE-2二代晶圓級芯片,采用CMOS 7 nm工藝制程,集成了1.2萬億個晶體管、40萬個核心。這也是FinFET結構和工藝發(fā)展的重要成果之一。近年來,我國由于在集成電路領域受到“卡脖子”,與FinFET同時代發(fā)明的FD-SOI技術也被重新?lián)炱饋恚蔀槠平庵乐弧?/p>
在擴展摩爾定律方面,近些年來,基于先進封裝技術的Chiplet發(fā)展起來。Chiplet技術允許將整個芯片拆分成多個較小的、可以用不同工藝制造的不同模塊,然后通過高速互連方式集成到一個封裝中,實現(xiàn)全功能的芯片系統(tǒng),從而優(yōu)化性能、功耗和成本。因此,Chiplet技術被視為一種可以拓展摩爾定律的方式,延續(xù)了集成電路行業(yè)提高性能和降低成本的趨勢。咨詢機構Markets.us研究報告稱,在2023年,CPU Chiplet占據(jù)了主導市場地位,CPU Chiplet市場份額超過41%。雖然GPU Chiplet市場份額低于CPU Chiplet,但在專業(yè)應用領域發(fā)揮了關鍵作用。此外,通過傳統(tǒng)微電子工藝,實現(xiàn)光電子器件和微電子器件的單片集成的硅基光電子集成技術,有效解決了集成電路芯片目前金屬互聯(lián)的帶寬、功耗和延時等問題,也實現(xiàn)了擴展摩爾定律。
在超越CMOS方面,碳納米管晶體管已經(jīng)展現(xiàn)出超越商用硅基晶體管的性能和功耗潛力,碳基集成電路技術成為重要發(fā)展對象。2019年8月,美國麻省理工學院的Gage Hills等在Nature發(fā)表論文,報告了碳納米管芯片制造領域的一項重大進展:一個利用14702個碳納米管晶體管構成的16位RISC-V指令集微處理器RV16X-NANO,該處理器采用兼容CMOS工藝制造,證明可以完全由CNFET打造超越硅的微處理器,為先進微電子裝置中的硅帶來一種高效能的替代品。2024年7月,北京大學基于碳納米管晶體管新型器件技術,結合高效的脈動陣列架構設計,成功制備了世界首個碳納米管基的張量處理器芯片,可實現(xiàn)高能效的卷積神經(jīng)網(wǎng)絡運算。
此外,近15年來,集成電路芯片發(fā)展的“牧本周期”還在延續(xù),能夠實現(xiàn)更好性價比的領域專用架構(DSA)處理器,如NPU、TPU、DPU等各種“XPU”,應運而生。國內研發(fā)的深度學習系列處理器寒武紀、類腦天機芯、天眸芯和市場上自動駕駛芯片等屬于?DSA?范疇。同時,核心數(shù)增多的通用架構的多核和眾核處理器仍然在發(fā)展,如X86系列CPU處理器和NVIDIA的系列GPU處理器。
軟件工程的摩爾定律日益顯現(xiàn)
《路線圖》指出,軟件工程的發(fā)展走勢將類似于摩爾定律,今后幾十年內如果能夠使得軟件業(yè)和服務業(yè)也產生摩爾定律現(xiàn)象,無疑將會引發(fā)一場革命。目前,基于LLM大模型的AI編碼生成助手,為軟件工程的摩爾定律提供了依據(jù)。如谷歌首席執(zhí)行官曾透露,該公司通過在代碼自增長工具中集成大模型,生成了這家科技公司超過1/4的新代碼,包括自動導入包、自動生成構造函數(shù)等。目前AI輔助編碼方面,出現(xiàn)了兩大發(fā)展方向: AI編碼助手或者AI代碼生成器大量涌現(xiàn),如美國GitHub與Open AI合作推出的GitHub Copilot、亞馬遜的CodeWhispere等;傳統(tǒng)的低代碼/無代碼工具,大量引入AI輔助功能,如低代碼開發(fā)旗艦公司OutSystems通過Mentor新型生成式AI驅動的“數(shù)字工作者”改變了整個軟件開發(fā)生命周期。統(tǒng)計顯示,目前軟件工程師基于大模型開發(fā)應用軟件,時間上可以節(jié)約20%—30%。隨著面向軟件開發(fā)的專用大模型能力日益增強,在軟件工程領域的摩爾定律也將有望成為現(xiàn)實。
未來10年信息技術體系重構與再造的創(chuàng)新機遇與挑戰(zhàn)
《路線圖》預測,2020—2035年將是信息技術改天換地的大變革期,將可能出現(xiàn)基本創(chuàng)新的高峰。自2019年以來,AI大模型的大發(fā)展表明,信息科技已經(jīng)進入到基本創(chuàng)新突破期的前夜。在全球信息技術創(chuàng)新進入緩慢期的背景下,AI將加速信息技術體系的創(chuàng)新進程。因此,未來10年將是信息技術體系重構與再造的創(chuàng)新機遇期。一方面,對于原理還不太清楚的AI科學,一定還會有大的突破;另一方面,信息領域的科學與技術融合發(fā)展將成為大趨勢,并且信息技術將成為信息科學發(fā)展的主要推動力。更重要的是,新一代AI將加速驅動計算技術體系、數(shù)據(jù)空間技術體系、網(wǎng)絡空間技術體系和智能空間技術體系的重構與再造。
信息技術體系重構與再造創(chuàng)新的歷史演進
人類對信息技術體系重構與再造創(chuàng)新一直沒有停滯。
在處理器方面,從4位微處理器到64位處理器,從復雜指令集(CISC)到精簡指令集(RISC),從一級緩存到二級、三級,執(zhí)行從順序指令執(zhí)行到亂序指令執(zhí)行,從單一核心架構到多核心架構、眾核心架構,從通用功能架構到功能專用架構并存,從單個芯片到異構集成封裝多核心、多功能的芯片等。目前,在AI等領域對算力提出更大需求的牽引下,晶圓級大芯片也被開發(fā)出來。
在計算機體系結構方面,20世紀50—60年代,為實現(xiàn)資源的最大化利用,通過分時操作系統(tǒng)提高指令執(zhí)行效率的批處理計算機得到快速發(fā)展。此后,為提高指令并行性進一步提高計算機運行速度,指令流水線技術取得重大突破;為了進一步突破計算性能瓶頸,超標量與超長指令字兩種計算機體系結構應運而生。再后來,多任務、多個處理器并行執(zhí)行的并行計算體系在一系列超級計算機中得以廣泛應用。近年來,面向大數(shù)據(jù)、云計算和AI等發(fā)展需求,按照數(shù)據(jù)流動規(guī)律進行組織和管理的數(shù)據(jù)流體系結構重新得到重視,成為計算機體系結構發(fā)展的“老樹新芽”技術。
在信息技術產品生產方面,從早期的由一家廠商包攬了一個計算機的軟件、硬件設計與制造的垂直體系,向多廠商分散、配合生產各自優(yōu)勢產品的扁平化體系方向發(fā)展。例如,早期的美國IBM公司生產的大型計算機,其操作系統(tǒng)、CPU、存儲器等都是由IBM自己設計、生產和制造。隨著微軟Windows操作系統(tǒng)、Intel CPU等的成熟商用,計算機生產商不再做垂直化產品研發(fā)的工作,而是將其他廠商的產品進行扁平化分工、整合,由此形成了“Windows+Intel”(Wintel)計算產品體系,并形成了牢固的產品迭代節(jié)奏,至今形成了“Wintel”、“ARM+Andrio”和“ARM+iOS”體系。目前,由于GPU和Transformer架構在AI大模型領域的成功,“NVIDIA+Transformer”體系已經(jīng)基本形成。
計算技術體系重構與再造
近年來,全球信息技術重大創(chuàng)新的整體節(jié)奏在放緩。未來10年,在人工智能發(fā)展驅動下,計算技術體系創(chuàng)新將快速推進。一方面,進入后摩爾時代,為追求算力增長和功能豐富,計算處理器芯片將繼續(xù)向低成本、高良率的Chiplet堆疊集成芯片和3D芯片方向發(fā)展,異構集成創(chuàng)新成為產業(yè)技術主要發(fā)展方向,晶圓級大芯片將成為重點發(fā)展方向之一;同時,功能豐富的低世代工藝智能芯片、新型硅光電子芯片、碳基芯片,以及非馮·諾依曼體系結構量子計算芯片,也將快速向前發(fā)展(圖2);另一方面,算力空間將向算力聚合與服務能力提升方向前進,將由超級計算、云計算,向云聯(lián)邦、超算智算融合、算網(wǎng)融合等方向發(fā)展(圖3)。


處理器技術體系重構與再造
在處理器設計環(huán)節(jié),芯片設計的復雜性日益呈指數(shù)級增長,導致設計周期長、成本高,傳統(tǒng)的設計方法難以應對這種復雜性。未來10年,AI技術將成為優(yōu)化處理器芯片設計過程的關鍵工具,提高設計效率和質量,并生產出性能更高的芯片。2024年3月,美國白宮科技政策辦公室發(fā)布《國家微電子研究戰(zhàn)略》,明確提出加強將AI和機器學習及基于物理的方法集成到EDA工具中。在2024年全球芯片領域頂會Hotchips年會上,多個報告展示了AI輔助芯片設計的重要成果。其中,美國Synopsys公司報告了強化學習(reinforcement learning)在芯片設計中的應用,其Synopsys.ai套件,在大語言模型支持下,在整個EDA堆棧中充分利用生成式人工智能(AIGC),用于RTL(register-transfer level)設計、驗證及其他輔助資料創(chuàng)建的生成功能等。在處理器制造環(huán)節(jié),比利時微電子研究中心(IMEC)發(fā)布的工藝路線圖指出,F(xiàn)inFET晶體管結構將在3 nm走到盡頭,然后過渡到新的GAA(gate all around)結構,集成電路工藝尺度將進入埃米階段。此路線圖提出的CMOS 2.0范式愿景指出,CMOS 2.0是通往真正3D芯片的道路。但這種方法面臨的挑戰(zhàn)在于將嚴重依賴后端供電網(wǎng)絡(BPDN),會將所有供電改到晶體管的背面,并需通過系統(tǒng)技術協(xié)同優(yōu)化(STCO),重新思考設計過程,改變設計方法。相對于硅基集成電路計算芯片,碳基芯片具有良好的低功耗、與硅基工藝兼容良好等特點。如前文所述,目前碳基芯片已經(jīng)取得積極進展,將成為未來與硅基芯片并行發(fā)展的主要方向之一。
從更長期來看,處理器芯片重構與再造創(chuàng)新發(fā)展趨勢體現(xiàn)在如下5個方面:電路理論方面,從電子電荷向分子、極化、強電子相關態(tài)、自旋方向等方向發(fā)展;材料方面,從硅基向碳基、宏觀分子材料、納米結構、復合金屬氧化物等方向發(fā)展;器件結構方面,從CMOS器件向分子器件、自旋器件、鐵磁性器件、量子器件等方向發(fā)展;數(shù)據(jù)載體方面,從模擬量、數(shù)字量向量子位等方向發(fā)展;系統(tǒng)結構方面,由馮·諾依曼架構、多核眾核架構,向可重構、量子、神經(jīng)形態(tài)學計算架構等方向發(fā)展。目前,量子計算還處在探索階段,主流方案包含超導、離子阱、光量子、超冷原子、硅基量子點和拓撲等多條技術路線,基本都沿著量子計算優(yōu)越性由專用量子計算向通用量子計算的路線圖發(fā)展。
對我國而言,在FinFET時代,集成電路制造正在面臨美國聯(lián)合其盟友的打壓、封鎖,向更先進制程工藝芯片制造發(fā)展受阻,同時X86、ARM指令架構也存在需要授權的制約。隨著集成電路制造工藝向3D方向發(fā)展,前道工藝光刻機的作用將會減弱,刻蝕機、薄膜機和電子束檢測設備等作用將會增加,我國發(fā)展集成電路技術與產業(yè)有了新機遇。因此,我國一方面要積極發(fā)展集成電路先進制程制造工藝技術,研發(fā)先進制程的前道工藝極紫外光刻(EUV)設備;另一方面,要積極推動發(fā)展刻蝕機、薄膜機、電子束檢測設備等,向滿足3D芯片制造工藝方向發(fā)展。此外,基于先進封裝的Chiplet技術,以及與FinFET同時代產生的FD-SOI技術,也可能為我國計算芯片發(fā)展提供新的選擇。FD-SOI是不同于FinFET的技術與工藝路線,是一種平面工藝技術,具有減少硅幾何尺寸同時簡化制造工藝的優(yōu)點,在22/12/10納米FD-SOI技術性能與14/7/5納米FinFET技術相當;并且,F(xiàn)D-SOI相比FinFET,具有PPA平衡性好等特點。但目前主要集成電路制造設備與工藝是圍繞FinFET生態(tài)的;FD-SOI面臨的挑戰(zhàn)是還沒有建立完整的產業(yè)鏈生態(tài),擴大市場難。
算力空間技術體系重構與再造
為適應人工智能等領域對更大算力和多種資源協(xié)同服務的需求,未來10年,面向應用的計算將與智能計算深度融合,表現(xiàn)為臨近互聯(lián)、封裝集成、大規(guī)模向量化等,并期待RISC-V+AI Core指令接口的標準化。在AI發(fā)展驅動下,算力空間重構與再造的一個重要方向是優(yōu)化馮·諾依曼架構,即在一個計算機系統(tǒng)內部區(qū)域做工作,想辦法通過減少內存和處理單元之間的路徑,實現(xiàn)高內存帶寬及較低的訪問開銷,打破馮·諾依曼架構“存儲墻”和“功耗墻”等問題,實現(xiàn)更高效能的計算。
在AI計算方面,由于不同模型對算力和帶寬的需求不同,如基于Transformer的LLM計算中,性能瓶頸常常是在帶寬而非計算,即帶寬跑滿、算力閑置。為此,存算一體、存內計算(PIM/PNM)技術路線被提出,利用片內的高帶寬,處理常見的矩陣運算和部分向量運算。具體是通過TensorCore(張量計算核心)的乘累加單元陣列提供算力,通過HBM的高帶寬使數(shù)據(jù)能源源不斷到達TensorCore。在AI計算中,雖然PIM/PNM可以減少數(shù)據(jù)從內存讀取的時間,提高計算效率,從而加速模型的訓練和推理過程,但其面臨眾多技術挑戰(zhàn),包括將計算單元集成到內存芯片中的復雜性、功耗和散熱問題,以及數(shù)據(jù)一致性和可靠性問題等。
在片上和集群的算力互聯(lián)方面,使用片上光網(wǎng)絡(ONoC)連接多個同構的處理單元,如互聯(lián)CPU、AI Core等,這是將光集成電路(PIC)作為NoC與AI Core的硅片集成,封裝成一個AI芯片,直接在芯片上做光電轉換輸出到光纜,實現(xiàn)了芯片之間的互聯(lián)?;诠饩W(wǎng)絡的互聯(lián)方案與動態(tài)調度方面,如Google TPU4 AI訓練集群的光互聯(lián)方案,是將64顆TPUv4以4×4×4的方式構成一個三維立體結構Cube,并且這個AI訓練集群的拓撲互聯(lián)方案的重構,可根據(jù)需求實時對AI計算資源縮容和擴容。
面向人—機—物三元融合的廣泛應用場景,AI等算力與服務需求以及高性能計算機(超算)從E級向Z級發(fā)展面臨諸多難題,未來將跨網(wǎng)域、多異構的算力與服務聚合是一條重要的發(fā)展途徑。將超算、智算和量子計算等多種異構算力資源融合,并結合算力網(wǎng)實現(xiàn)算網(wǎng)融合是一個大膽的創(chuàng)意,但多種異構算力資源的融合是一個難題。例如,AI算力主要由基于GPU、NPU等芯片,但AI的應用通常會同時用到CPU、GPU、TPU等,怎么解決CPU運算與GPU、TPU等運算銜接是個難題。因此,需要解決多種算力資源虛擬化、接口標準統(tǒng)一、高效協(xié)同計算、應用任務分布與調度、編程模型等難題。同時,異構算力如何與算力網(wǎng)進行融合也是個難題,需要突破原有的并行計算、云計算等思想,進行顛覆性的創(chuàng)新。為此,需要進行原理性創(chuàng)新和技術實驗的重大科技基礎設施來支撐。自2023年以來,美國IBM、微軟、英偉達、谷歌等公司分別合作,在構建量子—超算異構融合算力平臺方面取得進展,如IBM利用127比特量子云平臺與“富岳”超算的結合,實現(xiàn)了包含28個原子的FeS團簇分子計算。這為多種算力融合技術發(fā)展路徑提供了很好的借鑒。
數(shù)據(jù)空間技術體系重構與再造
數(shù)據(jù)已經(jīng)成為AI大模型發(fā)展的三大核心要素之一。中國工程院發(fā)布的《數(shù)據(jù)空間發(fā)展戰(zhàn)略藍皮書(2024)》(以下簡稱《藍皮書》)定義的未來數(shù)據(jù)空間是:人—機—物互聯(lián),產生大量數(shù)據(jù),通過社會再生產,數(shù)據(jù)又作用于人—機—物,這一實踐活動最終形成了人類活動的新空間。即:在AI發(fā)展驅動下,數(shù)據(jù)空間將由單一計算機系統(tǒng)的數(shù)據(jù)空間、基于互聯(lián)網(wǎng)的數(shù)據(jù)中心空間,發(fā)展到人—機—物融合的人類智能活動空間。因此,未來10年,構建面向人類智能活動的數(shù)據(jù)空間技術體系,是一項重要任務。
在AI發(fā)展需求驅動下,構建面向人—機—物三元融合的人類智能活動的數(shù)據(jù)空間,還面臨眾多挑戰(zhàn),主要包括:理論范式問題?;谑裁蠢碚搧碇螖?shù)據(jù)空間構建,是基于自組織理論還是他組織理論?基于自組織理論要研究數(shù)據(jù)空間構建是怎樣從混沌無序的狀態(tài)向穩(wěn)定有序的終態(tài)的演化,以及系統(tǒng)內部各要素之間的協(xié)同機制?;谒M織理論,要研究數(shù)據(jù)空間構建需要設計怎樣的制度、政策及機制等外部力量,推動數(shù)據(jù)空間的建立。此外,對于數(shù)據(jù)空間建立的復雜度,是基于機械論還是耗散結構理論(即是強調將數(shù)據(jù)空間系統(tǒng)是由數(shù)據(jù)孤島構成,通過系統(tǒng)組織形成“整裝數(shù)據(jù)”結構),還是強調引入負熵來形成有序數(shù)據(jù)空間結構?等等。技術問題。數(shù)據(jù)空間的架構是什么?各個數(shù)據(jù)孤島是通過什么方式進行連接?聯(lián)接協(xié)議是什么?接口是什么?有什么標準?如何保護各個數(shù)據(jù)源的數(shù)據(jù)隱私與安全?數(shù)據(jù)空間中的數(shù)據(jù)如何進行統(tǒng)一標識?如何封裝?數(shù)據(jù)空間如何與算力空間進行耦合?數(shù)據(jù)空間的各類數(shù)據(jù)如何統(tǒng)一標識和表示,以便于進行綜合挖掘和智能應用?等。目前,《藍皮書》為此提供了一些參考,包括把數(shù)據(jù)空間看作一個數(shù)據(jù)要素場、構建數(shù)聯(lián)網(wǎng)根服務體系,以數(shù)聯(lián)網(wǎng)、數(shù)據(jù)標識、數(shù)據(jù)向量化、深度神經(jīng)網(wǎng)絡學習及AI大模型等為技術應用體系等。
網(wǎng)絡空間技術體系重構與再造
幾十年來互聯(lián)網(wǎng)體系結構保持相對穩(wěn)定,但依然存在兩大問題:魯棒性差,脆弱,不安全;適應性弱。為此,國內外對互聯(lián)網(wǎng)體系結構的創(chuàng)新努力一直在持續(xù),基本上采取漸進式和變革性兩條技術路線,即:采用“自下而上”打補丁的方法,升級更新具體技術適應新業(yè)務和新終端;采用“自上而下”完善體系結構,從根本性解決問題和克服挑戰(zhàn)。變革性的技術路線是采用“推倒重來”的思路設計全新網(wǎng)絡,國內外先后開展了New Arch、Clean Slate、GENI、FIND、FIA、FIRE、新一代互聯(lián)網(wǎng)體系結構理論、面向服務的未來互聯(lián)網(wǎng)體系結構與機制等研究計劃或項目,先后提出了Open Flow、SDN、NDN、CCN等互聯(lián)網(wǎng)體系結構的新設想和新技術。
未來10年,AI將驅動網(wǎng)絡空間技術體系從硬件鏈路到網(wǎng)絡協(xié)議,乃至網(wǎng)絡應用的全體系的創(chuàng)新。除了在新型網(wǎng)絡架構、尋址路由、內生安全等領域繼續(xù)突破創(chuàng)新外,互聯(lián)網(wǎng)體系結構還將向智能化、敏捷化、網(wǎng)存算一體化不斷發(fā)展,從而支撐超大規(guī)模、人—機—物融合、跨時空壁壘的智能連接與服務。隨著AI技術的發(fā)展,互聯(lián)網(wǎng)將圍繞4個方面進行創(chuàng)新:網(wǎng)絡設備方面,將AI能力下沉到網(wǎng)絡設備。通過感知業(yè)務質量,感知信道性能等,讓網(wǎng)絡設備具有更強的感知能力,以便更好地優(yōu)化網(wǎng)絡,提升網(wǎng)絡為特定業(yè)務的服務能力。路由協(xié)議方面,通過增強數(shù)據(jù)面網(wǎng)絡層的能力,簡化控制面和管理面,滿足應用需求的多樣性,并提升邊緣能力來降低對中間節(jié)點的要求。通過協(xié)議的簡化和優(yōu)化,使得網(wǎng)絡可感知、可溯源、可定位,實現(xiàn)更好的性能及內生安全要求。網(wǎng)絡管理方面,首先是網(wǎng)絡本身的智能化,隨著AI大模型在網(wǎng)絡管理中的應用,提升網(wǎng)絡智能化水平,讓網(wǎng)絡能夠具有自動駕駛、自動發(fā)現(xiàn)、自動配置、自動維護的能力;其次,網(wǎng)絡需要能夠適應更多業(yè)務發(fā)展,具有更好的開放性和安全性,為云網(wǎng)融合、算網(wǎng)融合實現(xiàn)資源一體化調度。安全方面,改變過去網(wǎng)絡安全被動式響應和防御的方式,未來要從網(wǎng)絡設備的內生安全,到端到端的云、網(wǎng)、邊、端協(xié)同防護體系的構建,持續(xù)提升網(wǎng)絡安全防護能力。
智能空間技術體系重構與再造
人類大腦是一個既能處理專用任務又能處理通用任務,并具有“自覺意識”的低能耗智能空間。信息領域的智能空間是人工智能融合的空間,是能處理各種模態(tài)信息的智能體的集合,其愿景是構建像人類大腦的智能體,使得處理各種專用任務的智能與處理通用任務的智能進行深度融合,解決智能碎片化的問題。
2024年諾貝爾物理學獎和化學獎都頒發(fā)給機器學習領域的科學家,表明以機器深度學習為代表的AI,成為未來10年最有前景的技術。近年來,以大模型為代表的新一代人工智能的研究和應用取得突破性進展,催生AI新的理論和應用范式,推動AI理論和應用進入新的發(fā)展階段。美國Open AI公司的ChatGPT成為新一代人工智能發(fā)展的分水嶺。AI大語言模型技術不斷成熟,率先在文本AIGC產生大規(guī)模應用,并催生圖像生成模型蓬勃發(fā)展,如DALL-E2、Stable Diffusion等。大模型從“一專多能”向“多專多能”前進,帶動新一輪應用范式創(chuàng)新。AI大模型技術也使信息領域的科技創(chuàng)新和產業(yè)生態(tài)發(fā)生巨變,促進了從底層芯片到應用的穿透式的技術與產業(yè)生態(tài)重構,并將逐漸重構數(shù)據(jù)空間、算力空間、開發(fā)框架、算子庫,乃至基礎芯片、系統(tǒng)及開源和應用服務模式等。AI for science正在重構科學研究范式(AI4R),加速驅動科學研究進程,產生顛覆式突破。當前,AI for science已經(jīng)在生物領域取得顯著成效。例如,2024年5月,美國Google旗下DeepMind公司發(fā)布的新一代AI模型AlphaFold3,能夠預測蛋白質、DNA、RNA、小分子等的幾乎所有生物分子結構和相互作用;AI for Scinence已經(jīng)在內嵌物理模型的神經(jīng)網(wǎng)絡(PINNs)、約束條件下組合優(yōu)化問題求解、偏微分方程求解等領域取得初步成效,證明其具備解決科學研究與計算問題的強大潛力。未來,AI for science將繼續(xù)驅動生命科學、醫(yī)藥研發(fā)、物理裝置控制、數(shù)學發(fā)現(xiàn)、材料發(fā)現(xiàn)與合成等領域創(chuàng)新發(fā)展,并將在跨界交叉領域進一步驅動產業(yè)創(chuàng)新和更廣泛的落地應用。同時,多模態(tài)大模型開啟了通用人工智能(AGI)發(fā)展道路,使AGI進展到“臨界點”。
未來10年,智能空間技術體系重構與再造面臨諸多挑戰(zhàn)。目前的智能感知可適應性差、認知機理不明、泛化能力弱等問題已經(jīng)開始制約AI的更廣泛應用,亟待深入探索類人多模態(tài)感知、人機混合智能理論與方法,以及突破多源信息復雜場景和自主無人系統(tǒng)等決策、行為智能等。當前AI研究已經(jīng)從深度學習時代走向“自監(jiān)督+深度學習+強化學習”的大模型時代,以深度學習為基礎的人工智能理論已經(jīng)遇到天花板,急需探索AI新的理論。Minyoung Huh等最近發(fā)表的“柏拉圖表征假說”,證明了神經(jīng)網(wǎng)絡訓練,正趨向于在它的表征空間中收斂成一個共享的現(xiàn)實“世界統(tǒng)計模型”。Max Tegmark團隊發(fā)表的一項頗具顛覆性的研究,揭示了LLM中竟存在類似于人類大腦的腦葉分區(qū)結構,顯示出模型內部的幾何結構與人類大腦的功能分區(qū)有著驚人的相似性。這一發(fā)現(xiàn)表明,AI在某種程度上模仿了人類大腦的信息處理方式。這類研究不僅提供了理解LLM內部運作的新視角,也對AI的潛力有了更為深刻的認識,為未來AI的發(fā)展提供了新的理論支持。隨著研究的深入,未來或許能在大模型的基礎上,開發(fā)出更智能、更類人的AI。當前的多模態(tài)大模型面臨數(shù)據(jù)資源耗盡、能耗極大、成本極高和商業(yè)模式等問題。更重要的是,GPT-5研發(fā)受阻,文本域里規(guī)模定律(Scaling Law)可能已遇到天花板,而探索新型Scaling Law的預訓練多模態(tài)大模型、空間智能是不是就是通用人工智能(AGI)的發(fā)展技術路徑,還有待進一步的驗證。未來智能空間重構一個可能的途徑是在大模型、空間智能的基礎上,構建更多各種功能的智能體Agent,與大模型等進行深度融合與功能拓展,整合各種人工智能為一個集成的智能環(huán)境,如發(fā)展具身智能。但正如李國杰院士指出的,具身智能還有許多認知問題需要解決,這預示著未來通過具身智能發(fā)展AGI還面臨眾多挑戰(zhàn)。另外一個可能的途徑是Open AI發(fā)現(xiàn)的擴展測試時計算技術,即:在大模型推理階段,擴展思考和計算,進行反向多步推理,讓大模型能夠自主學習策略、拆解任務、識別并糾正錯誤。得益于思維鏈(CoT)推理的引入,Open AI o1模型是測試時計算的突破,證明了模型可以進行更深入的推理和解決更復雜的問題,為解決規(guī)模定律天花板問題和發(fā)展AGI提供了全新的思路。當然,還有其他可能的技術路徑,這些努力將加速AGI的到來。
發(fā)展對策
聚焦AI驅動的信息領域重大科技問題、突破關鍵理論與技術
我國信息科技領域既面臨短期破解局部“卡脖子”和建立自主技術體系與生態(tài)的長期需求,又要面臨后摩爾時代顛覆性技術創(chuàng)新突破、搶占科技制高點的歷史使命。因此,要持續(xù)加強信息科技領域的中長期戰(zhàn)略研究,聚焦新一代AI的理論、技術與新模型產品,聚焦發(fā)展AI之根基的各類高性能XPU算力芯片的設計與制造、高質量數(shù)據(jù)集和新型網(wǎng)絡的構建,以及高效能計算基礎設施建設等,將技術創(chuàng)新與工程實現(xiàn)和技術產品與市場生態(tài)建設等統(tǒng)一起來,組織科研院所與市場龍頭企業(yè)進行協(xié)同創(chuàng)新。一方面,聚焦“卡脖子”真問題,除芯片制造前道工藝EUV光刻機外,未來集成電路向3D芯片發(fā)展,前道工藝光刻機作用在減弱,高精度、高可靠與高性能的刻蝕機、薄膜機及電子束檢測設備等成為芯片制造關鍵設備,急需布局研制;同時自主架構高性能及開源RISC-V指令集的各種XPU芯片也需加強研發(fā),并用相當長的時間打造我國信息技術與產業(yè)自主生態(tài)。另一方面,要抓住AI驅動全球信息技術領域正在進入重構與再造的創(chuàng)新機遇,系統(tǒng)研究計算技術、數(shù)據(jù)空間、算力空間、數(shù)據(jù)空間、網(wǎng)絡空間和智能空間的技術體系重構與再造面臨的挑戰(zhàn)性問題,協(xié)同市場龍頭企業(yè),組織技術創(chuàng)新研發(fā)與工程實現(xiàn)隊伍,推進我國信息科技領域的整體創(chuàng)新。
布局信息領域重大科技基礎設施
沒有大的工程牽引、重大科技基礎設施支撐,信息科學不會有大的發(fā)展。信息科技發(fā)展歷史上,重大科技基礎設施為信息技術創(chuàng)新奠定了物質基礎,產生了一系列重大技術發(fā)明。例如,在互聯(lián)網(wǎng)領域,美國早期支持ARPANET的基礎設施,為人類創(chuàng)造了互聯(lián)網(wǎng)。圍繞未來網(wǎng)絡,美國組織了“從零開始”(“Clean Slate”)的革命性未來網(wǎng)絡研究,先后支持下一代互聯(lián)網(wǎng)研究基礎試驗設施(GENI)和從零開始設計新的互聯(lián)網(wǎng)架構(FIND)等項目。在云計算領域,美國也支持了全球信息網(wǎng)格(GIG)和云計算測試床(CloudLab)等項目。重大科技基礎設施的建設為美國等在信息科技領域領先,創(chuàng)造了極大的優(yōu)勢。為抓住全球信息技術發(fā)展進入到緩慢期以及計算技術、算力空間、數(shù)據(jù)空間、網(wǎng)絡空間和智能空間等技術體系重構與再造的機遇期,我國應加快布局信息領域的重大基礎設施,搶占信息科技制高點。
一體化布局信息科技領域“裝置群”
在自然科學領域,往往圍繞一個或兩三個重大科學問題,構建一個大型的基礎設施,進行重大科學探索與發(fā)現(xiàn)的實驗研究。信息領域與之不同,信息領域的重大科技問題特征是:基礎原理、基礎共性技術和領域應用3類問題并存,許多重大科技問題分散在信息技術體系框架的各個部分;并且,信息科技的基本原理、共性技術等局部問題一旦突破,將能夠影響整個領域和其他領域的發(fā)展。我們不能指望通過一個集中化、實驗型的基礎設施來解決信息領域各個環(huán)節(jié)面臨的問題。因此,信息領域的重大科技基礎設施應該是一個“裝置群”,以應對各個子領域的科技問題。同時,信息領域的重大科技基礎設施應該是一個柔性可組合的離散、分布式“大裝置”,要進行一體化的布局。
(作者:洪學海,中國科學院計算技術研究所?!吨袊茖W院院刊》供稿)







