色播视频在线观看,亚洲色一色噜一噜噜噜v,国产婬乱a一级毛片多女,狂喷潮视频在线观看mp4

 
 

人工智能新近發(fā)展及其對經(jīng)濟學研究范式的影響

發(fā)布時間:2023-04-03 09:32:30  |  來源:中國網(wǎng)·中國發(fā)展門戶網(wǎng)  |  作者:洪永淼 汪壽陽  |  責任編輯:楊霄霄

中國網(wǎng)/中國發(fā)展門戶網(wǎng)訊 在數(shù)智時代,大數(shù)據(jù)與人工智能改變了經(jīng)濟主體行為與經(jīng)濟運行方式,也改變了經(jīng)濟學研究范式。大數(shù)據(jù)為人類提供了認識與改造世界的新思維,即大數(shù)據(jù)思維,這是通過大數(shù)據(jù)發(fā)現(xiàn)復雜系統(tǒng)的運行規(guī)律、解決現(xiàn)實問題、預測未來變化的新范式;大數(shù)據(jù)思維的實現(xiàn)方式主要基于人工智能技術與方法。現(xiàn)代經(jīng)濟學的主流研究范式是實證研究,即以數(shù)據(jù)為基礎推斷經(jīng)濟變量之間的邏輯關系,特別是因果關系,從而揭示經(jīng)濟運行規(guī)律;計量經(jīng)濟學是其最主要的方法論。大數(shù)據(jù)的可獲得性進一步強化了這種研究范式。大數(shù)據(jù)與人工智能催生了數(shù)據(jù)驅動研究范式,計算社會科學也因此應運而生。那么,人工智能前沿技術特別是新近誕生的聊天機器人ChatGPT及其基礎模型技術的發(fā)展將如何改變經(jīng)濟學乃至社會科學的研究范式?

ChatGPT及其大語言模型方法論

近幾年來,人工智能特別是利用人工智能技術生成內容的技術獲得迅猛發(fā)展,其中一個代表性技術進步是通用型聊天機器人ChatGPT的成功開發(fā)并投入使用。ChatGPT是一種基于互聯(lián)網(wǎng)文本數(shù)據(jù)進行訓練的文本生成深度學習模型,并通過強化學習及人機對話的方式持續(xù)提供反饋,能夠較好執(zhí)行各種自然語言處理任務。ChatGPT是人工智能特別是自然語言處理領域的一個革命性技術突破,代表人工智能發(fā)展的一個新方向,預計對人類生產(chǎn)方式、生活方式及社會治理方式等各個領域將產(chǎn)生深遠影響。

ChatGPT的主要方法論是“規(guī)模至上”,其算法基礎是大語言模型。大模型是參數(shù)維數(shù)極大的模型,這些參數(shù)需要通過數(shù)據(jù)訓練或估計。大語言模型是指輸入數(shù)據(jù)主要為文本數(shù)據(jù)的大模型。大語言模型在深度學習發(fā)展階段就已出現(xiàn)。隨著人工神經(jīng)網(wǎng)絡模型的隱藏層不斷增加,其參數(shù)數(shù)量呈現(xiàn)快速增長。文本數(shù)據(jù)本質上是高維或超高維數(shù)據(jù),簡約模型無法刻畫異質性高維數(shù)據(jù)的特征,因此需要使用大語言模型。從計量經(jīng)濟學與統(tǒng)計學視角看,大模型的最大優(yōu)點是系統(tǒng)偏差比較小。同時,由于ChatGPT的訓練數(shù)據(jù)主要來自互聯(lián)網(wǎng)文本數(shù)據(jù),樣本容量極其龐大,從而保證了大語言模型參數(shù)的估計精度。因此,大語言模型具有比較強的泛化能力,即樣本外預測能力。特別是大語言模型具有非線性規(guī)模效應,隨著規(guī)模的增加,其預測能力呈現(xiàn)非線性增加。

在經(jīng)濟管理領域,人類很多決策均基于樣本外預測。如果使用某個領域的文本數(shù)據(jù)來訓練模型,模型維度可能不用太大。但是,對通用人工智能技術,隨著異質性文本數(shù)據(jù)的大量增加,小模型偏差較大,其樣本外預測能力變差。這時需要擴大模型規(guī)模,使用更多數(shù)據(jù)訓練模型,以提高泛化能力。隨著計算機科學特別是算力與算法的快速進步,這種不斷擴大規(guī)模的方法已成為通用人工智能技術的一個發(fā)展模式。

長期以來,計量經(jīng)濟學與統(tǒng)計學面臨的一個困擾是“維數(shù)災難”:當模型參數(shù)維數(shù)相比數(shù)據(jù)容量不是很小時,雖然模型偏差比較小,但因為參數(shù)維數(shù)大,在有限數(shù)據(jù)容量條件下,對每個參數(shù)的估計不甚精準,導致模型過度擬合,其樣本外預測能力較差?!熬S數(shù)災難”不僅存在于計量經(jīng)濟學與統(tǒng)計學,在社會科學和自然科學很多領域也存在。ChatGPT通過使用海量互聯(lián)網(wǎng)大數(shù)據(jù),確保訓練數(shù)據(jù)容量遠大于模型參數(shù)維數(shù),從而避免了“維數(shù)災難”。另外,大語言模型的結構設計是深度、多維、多層、多頭的注意力結構,可自適應高維空間的稀疏與不平衡數(shù)據(jù)結構,為避免“維數(shù)災難”提供了一種表示學習的解決方案。

作為學術研究的好助手,ChatGPT可大幅提高研究效率。在經(jīng)濟學研究中,可借助ChatGPT搜索信息、收集數(shù)據(jù)、撰寫文獻綜述、編寫代碼、檢查程序、設計實驗方案、翻譯文本等。雖然目前ChatGPT的表現(xiàn)有不少缺點,其整體智能水平與人類相比尚有不小的差距;但可以預計,隨著人工智能技術的發(fā)展以及ChatGPT廣泛應用的經(jīng)驗積累,ChatGPT的智能程度在很多方面將日益接近甚至超過人類。

ChatGPT及其大語言模型方法論可能會對經(jīng)濟學乃至整個社會科學的研究范式產(chǎn)生深遠影響。例如,實驗經(jīng)濟學研究表明,人類經(jīng)濟行為并不滿足完全理性假設,更多表現(xiàn)為有限理性,甚至存在預期偏差。ChatGPT及其大語言模型能夠改進理性經(jīng)濟人假設;因此,基于人工智能或由人工智能輔助的經(jīng)濟決策可提供更有效的資源配置方案、改進政策評估精準性,以及提升經(jīng)濟決策的科學性等。本文聚焦討論ChatGPT及其大語言模型方法論對經(jīng)濟學研究范式的可能影響。

大模型與經(jīng)濟學研究范式

 計量經(jīng)濟學小模型范式

過去40年,經(jīng)濟學研究范式發(fā)生了一個深刻變革,即所謂的“實證革命”,也被稱為“可信性革命”。作為經(jīng)濟學實證研究最主要的方法論,計量經(jīng)濟學也日益成為社會科學很多領域的主流研究范式。2021年諾貝爾經(jīng)濟學獎得主Joshua Angrist曾指出,應用計量經(jīng)濟學所考慮的問題和其他社會科學或者流行病學所考慮的問題并無本質區(qū)別,任何希望從數(shù)據(jù)中得到有用推斷的人都可稱為應用計量經(jīng)濟學家。

計量經(jīng)濟學與統(tǒng)計學的一個基本建模原則是,使用盡量簡約的模型即小模型刻畫數(shù)據(jù)特征及變量之間的關系。在20世紀,統(tǒng)計學存在參數(shù)與非參數(shù)建模的方法論之爭。統(tǒng)計學家Ronald Fisher認為非參數(shù)模型因其參數(shù)維數(shù)高而估計不精確,主張使用參數(shù)維數(shù)較少的參數(shù)模型;另一位統(tǒng)計學家Karl Pearson則關注參數(shù)模型可能誤設而產(chǎn)生較大偏差,主張使用非參數(shù)模型。計量經(jīng)濟學也有類似爭論。2003年諾貝爾經(jīng)濟學獎得主Robert Engle主張從特定模型出發(fā),通過檢驗遺漏變量等計量經(jīng)濟學方法拓展模型,這是所謂的“從特殊到一般”的建模方法;而倫敦計量經(jīng)濟學派代表人物David Hendry則主張從高維的一般模型出發(fā),通過統(tǒng)計學假設檢驗與經(jīng)濟理論約束條件等方法得到特定模型,這是所謂的“從一般到特殊”的建模方法?!皬囊话愕教厥狻钡慕7椒ǜm合大數(shù)據(jù)分析,更接近數(shù)據(jù)驅動研究范式。但是,兩種建模方法的最終目的都是獲得一個具有經(jīng)濟可解釋性的簡約模型,參數(shù)不多且有經(jīng)濟含義,同時擁有良好的樣本外預測能力。

為了獲得簡約模型,計量經(jīng)濟學與統(tǒng)計學提出了很多經(jīng)典降維方法,如主成分分析、因子模型、模型選擇、經(jīng)濟理論約束等。在大數(shù)據(jù)時代,由于潛在解釋變量或預測變量很多,新的統(tǒng)計降維方法也不斷產(chǎn)生。例如,人工智能與統(tǒng)計學的交叉產(chǎn)生了一個新領域——統(tǒng)計學習,其中一個代表性降維方法是LASSO回歸。LASSO的基本思想是假設大量潛在解釋變量中只有少數(shù)變量有重要影響,在此稀疏性假設下,通過引入適合的懲罰項,以犧牲估計偏差為代價,換取估計方差的大幅度減少,從而顯著降低均方誤差,達到精準選擇重要變量和改進樣本外預測的目的。

計量經(jīng)濟學應發(fā)展大模型范式

長期以來,計量經(jīng)濟學與統(tǒng)計學使用的數(shù)據(jù)均是“小”數(shù)據(jù),大量數(shù)據(jù)信息沒有被利用。計量經(jīng)濟學與統(tǒng)計學的研究范式以模型為重心,以降維為導向,這主要歸因于經(jīng)濟學研究的可解釋性要求、數(shù)據(jù)容量有限及計算資源約束。隨著數(shù)智時代的到來,人工智能特別是機器學習,如LASSO、決策樹、隨機森林、支持向量機、人工神經(jīng)網(wǎng)絡模型及深度學習等方法,被廣泛應用于經(jīng)濟學及社會科學其他領域的研究。實證研究表明,在經(jīng)濟金融預測方面,機器學習顯著優(yōu)于傳統(tǒng)計量經(jīng)濟學模型,但尚未達到令人滿意的程度,尤其是與其他領域(如人臉識別)相比,預測精準性仍有待提升。目前機器學習在這方面表現(xiàn)較差的主要原因是經(jīng)濟金融系統(tǒng)是一個超高維動態(tài)復雜系統(tǒng),影響因素繁多并互相關聯(lián),其相互關系呈現(xiàn)非線性特征并有時變性;此外,經(jīng)濟金融系統(tǒng)還受經(jīng)濟主體心理因素(如預期、情緒等)的影響。如此復雜的經(jīng)濟系統(tǒng)是不可能用小模型來刻畫其本質規(guī)律的。

為了顯著改進經(jīng)濟金融預測與提升模型的解釋力,可在計量經(jīng)濟學建模中考慮大模型范式。這里所說的大模型是指參數(shù)維度較大的計量經(jīng)濟學模型,不一定要使用互聯(lián)網(wǎng)海量文本數(shù)據(jù)或深度學習方法,模型參數(shù)維度也可遠小于ChatGPT那樣的數(shù)量級。大模型可容納高維潛在的影響因素,允許變量之間存在非線性關系,允許模型參數(shù)具有時變性,因此能夠顯著減少模型偏差。計量經(jīng)濟學與統(tǒng)計學的模型組合方法就是一種大模型范式,可得到比較穩(wěn)健、精準的樣本外預測。經(jīng)濟學與計量經(jīng)濟學已有一些大模型,如投入產(chǎn)出模型、可計算一般均衡模型、宏觀經(jīng)濟學聯(lián)立方程模型,以及1980年諾貝爾經(jīng)濟學獎得主Lawrence Klein提出的世界連接模型等,但這些模型大多受到數(shù)據(jù)容量等的限制。

大模型方法能夠成功的關鍵是適用于計量經(jīng)濟學建模的大規(guī)模數(shù)據(jù)的可獲得性。目前,計量經(jīng)濟學模型所使用的數(shù)據(jù)本質上大多是“小”數(shù)據(jù),不足以支持大模型的估計、推斷與預測。如何有效利用現(xiàn)有各種結構化和非結構化數(shù)據(jù),如何利用人工智能技術整合各種類型、各種抽樣頻率、各種來源的數(shù)據(jù),構建大規(guī)模的計量經(jīng)濟學數(shù)據(jù)庫,是大模型方法的一個前提條件。此外,大算力等信息技術基礎設施建設對大模型在計量經(jīng)濟學中的應用也不可或缺。在國家層面,即將成立的國家數(shù)據(jù)局將負責協(xié)調推進數(shù)據(jù)基礎制度建設,統(tǒng)籌數(shù)據(jù)資源整合共享和開發(fā)利用,這將為大模型范式的探索與推廣提供重要支持。

人工智能技術的局限性

人工智能特別是ChatGPT及其大語言模型正在推動經(jīng)濟學研究范式的深刻變革,但是人工智能技術也存在局限性。

以ChatGPT為代表的前沿人工智能目前仍沒有人類的意識或理解能力,只有預測能力。ChatGPT不久前在接受美國《時代》周刊采訪時表示,“說我有知覺或意識是不準確的。作為一個大型語言模型,我只是一個機器學習模型,沒有和人類一樣的意識。我沒有思想、感覺或經(jīng)歷,沒有能力做決定或獨立判斷?!盋hatGPT無法理解生成單詞的上下文語境或含義,只能根據(jù)給定的訓練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率生成文本。因此,其不大可能擁有與人類一樣的批判性思維和想象力,無法從現(xiàn)有數(shù)據(jù)推斷出重大創(chuàng)新性成果。

基于大數(shù)據(jù)的人工智能因果推斷本質上是一種統(tǒng)計關系推斷,并不一定是真正的因果關系。所謂因果關系,是指其他因素不變的條件下,某一變量的變化必然引起另一變量的變化。識別因果關系是經(jīng)濟學乃至社會科學研究的最根本問題。經(jīng)濟學因果推斷的最有效方法是實驗方法,如隨機控制實驗。在因果推斷方面,計量經(jīng)濟學與統(tǒng)計學取得了長足的方法論進展。2021年,經(jīng)濟學家Joshua Angrist、David Card和Guido Imbens由于他們在因果推斷方法論方面的貢獻而獲得諾貝爾經(jīng)濟學獎。但是,由于現(xiàn)實大數(shù)據(jù)基本上是觀測數(shù)據(jù)而非實驗數(shù)據(jù),基于人工智能的因果推斷本質上是一種相關關系或預測關系,是兩個變量之間在計算機中的統(tǒng)計關聯(lián)。在某種意義上,基于大數(shù)據(jù)的人工智能因果關系類似于英國哲學家休謨所闡述的因果關系,即兩個現(xiàn)象或變量在人腦中形成的慣常聯(lián)系。因此,人工智能因果關系和經(jīng)濟學因果關系并不完全一致。要識別經(jīng)濟學因果關系,不能僅依靠人工智能因果推斷技術,還必須有經(jīng)濟理論的指導或者引入實驗方法。這一點,對可解釋性較弱的大模型尤為重要。

人工智能沒有改變經(jīng)濟學實證研究的本質,即從樣本推斷總體性質。雖然以ChatGPT為代表的人工智能使用了幾乎整個互聯(lián)網(wǎng)文本數(shù)據(jù),但互聯(lián)網(wǎng)大數(shù)據(jù)并非全樣本。人類經(jīng)濟社會發(fā)展是一個長期歷史過程,現(xiàn)有互聯(lián)網(wǎng)大數(shù)據(jù)只是這個歷史過程的一個樣本,即便其容量特別龐大。此外,經(jīng)濟發(fā)展在不同歷史階段具有不同的特征,經(jīng)濟運行規(guī)律因此會呈現(xiàn)出時變性——有時是緩慢變化,有時是突變,這使得人工智能對經(jīng)濟金融未來變化趨勢的預測更具挑戰(zhàn)性。

(4)模型、算法與數(shù)據(jù)的可靠性有待驗證。人工智能正在推動經(jīng)濟學乃至整個社會科學研究從模型驅動范式轉變到數(shù)據(jù)驅動范式,從數(shù)據(jù)直接獲得穩(wěn)健的結論,克服了模型驅動范式得到的結論可能會因模型改變而變化的缺陷。但是,互聯(lián)網(wǎng)大數(shù)據(jù)存在各種虛假信息,以ChatGPT為代表的人工智能仍無法確認其表述內容的真實性。此外,雖然容量非常龐大,互聯(lián)網(wǎng)大數(shù)據(jù)也存在“樣本選擇偏差”問題,“數(shù)字鴻溝”就是一個重要例子。這些問題不可避免地會影響基于互聯(lián)網(wǎng)大數(shù)據(jù)的ChatGPT乃至人工智能所獲得的結論的可靠性與科學性。

展望

我們正處于大數(shù)據(jù)、大科技、大模型的時代,加上中國超大人口規(guī)模和超大經(jīng)濟規(guī)模給人工智能技術帶來的廣闊應用場景,這些將為經(jīng)濟學研究提供大量豐富的素材。應當充分利用所有數(shù)據(jù)資源,積極探索大模型研究范式,以更好揭示中國復雜經(jīng)濟系統(tǒng)的運行與發(fā)展規(guī)律。

需要指出,強調大模型并不意味小模型不重要,大小模型分別適用于不同情境;強調大數(shù)據(jù)并不意味“小”數(shù)據(jù)不重要,“小”數(shù)據(jù)的信息密度通常更高;強調文本數(shù)據(jù)等非結構化大數(shù)據(jù)并不意味結構化數(shù)據(jù)不重要。歷史上,熱力學與統(tǒng)計物理學的發(fā)展經(jīng)驗或許可以提供一些有用啟示:物理學黑體輻射研究曾經(jīng)出現(xiàn)兩個理論——在短波范圍擬合較好的“維恩近似”,以及在長波范圍擬合較好的“瑞利-金斯定律”;后來,普朗克將兩者綜合起來,提出了覆蓋全波段范圍的“黑體輻射定律”。

在經(jīng)濟學研究中,大、小模型各有優(yōu)缺點,是否可以找到更好的科學方法把這兩種模型結合在一起,從而提高模型的可解釋性和預測力?關于小模型的研究已有很長的歷史,經(jīng)濟學家對小模型在經(jīng)濟學實證研究中的優(yōu)點與局限性已有比較深刻的了解。但是,關于大模型的研究及大模型在經(jīng)濟學實證研究中的應用還很少,因此需要大力探索發(fā)展大模型方法,并與小模型方法進行比較。

(作者:洪永淼,中國科學院數(shù)學與系統(tǒng)科學研究院、中國科學院大學  經(jīng)濟與管理學院、中國科學院大學  數(shù)字經(jīng)濟監(jiān)測預測預警與政策仿真教育部哲學社會科學實驗室(培育);汪壽陽,中國科學院數(shù)學與系統(tǒng)科學研究院、中國科學院預測科學研究中心、中國科學院大學  經(jīng)濟與管理學院;《中國科學院院刊》供稿)

返回頂部