色播视频在线观看,亚洲色一色噜一噜噜噜v,国产婬乱a一级毛片多女,狂喷潮视频在线观看mp4

分享到:
鏈接已復(fù)制

LANGUAGES

新聞

新聞直播 要聞 國際 軍事 政協(xié) 政務(wù) 圖片 視頻

財經(jīng)

財經(jīng) 金融 證券 汽車 科技 消費 能源 地產(chǎn) 農(nóng)業(yè)

觀點

觀點 理論 智庫 中國3分鐘 中國訪談 中國網(wǎng)評 中國關(guān)鍵詞

文化

文化 文創(chuàng) 藝術(shù) 時尚 旅游 鐵路 悅讀 民藏 中醫(yī) 中國瓷

國情

國情 助殘 一帶一路 海洋 草原 灣區(qū) 聯(lián)盟 心理 老年

首頁> 中國發(fā)展門戶網(wǎng)> 本網(wǎng)獨家>

鄭永年:人工智能時代的社會秩序

2025-05-27 11:27

來源:中國網(wǎng)·中國發(fā)展門戶網(wǎng)

分享到:
鏈接已復(fù)制
字體:

 經(jīng)濟基礎(chǔ)決定上層建筑,經(jīng)濟基礎(chǔ)也決定社會秩序。在漫長的傳統(tǒng)農(nóng)業(yè)社會,社會秩序歷經(jīng)數(shù)千年,但因沒有革命性技術(shù)的產(chǎn)生,社會秩序只有量變,而沒有質(zhì)變。近代以來,技術(shù)革命不斷導致經(jīng)濟革命,經(jīng)濟革命不斷導致社會秩序的變遷,從工業(yè)社會秩序到后工業(yè)社會秩序再到信息社會秩序。今天,人類開始進入人工智能時代,人工智能對經(jīng)濟、社會、政治甚至國際政治的影響,越來越成為學術(shù)界和政策界的研究對象。無論是對人工智能技術(shù)本身的研究,還是對人工智能這一技術(shù)所產(chǎn)生的方方面面的影響已經(jīng)成為顯學。

盡管人工智能依然處于急速發(fā)展過程之中,但人們的共識是人工智能在賦能社會的同時也威脅著現(xiàn)存社會秩序。人工智能對勞動就業(yè)、稅收、社會公平等方面的影響已經(jīng)引起人們廣泛的注意,但對人工智能的“去智力化”的功能還沒有引起人們足夠的警惕。人工智能是人類智力的產(chǎn)物,其崛起代表著人類智能達到了一個新的頂峰,隨著人工智能深入社會的各個領(lǐng)域,其廣泛地應(yīng)用在賦能人類的同時也在導致人類智力的衰變甚至衰落,這里存在著一種本文稱之為“人工智殘”(artificial ignorance)的現(xiàn)象。較之人工智能所產(chǎn)生的其他各種不平等現(xiàn)象和問題,“人工智殘”對社會秩序的影響更為深刻。這種現(xiàn)象還處于生成階段,但人類沒有任何理由去忽視它。這是一個極其嚴肅的問題。基辛格在他的遺著《創(chuàng)世紀:人工智能、希望和人類精神》中指出,人工智能時代也許不僅無法推動人類進步,反而可能引發(fā)一種對不可解釋的權(quán)威的前現(xiàn)代式接受?簡言之,我們是否正站在人類認知大逆轉(zhuǎn)——“黑暗啟蒙”的懸崖邊上?可以肯定地說,如果基辛格所說的“黑暗啟蒙”發(fā)生了,那么人類不得不面對一個“人工智殘”的世界。

“人工智殘”現(xiàn)象

簡單地說,“人工智殘”指的是一種當今越來越普遍的現(xiàn)象:在人工智能時代,由于廣泛和毫無節(jié)制地使用(無論是主動使用還是被動使用)人工智能相關(guān)的工具(尤其是基于互聯(lián)網(wǎng)的各種社交媒體)所導致的人類自我智力傷害。需要強調(diào)的是,這不是人們?nèi)粘Kf的“智障”(智力障礙),因為很多“智障”是由于大腦受到器質(zhì)性的損害,或是由于腦發(fā)育不完全造成認識活動的持續(xù)障礙及心理障礙,具有先天性和不可避免性質(zhì),人們對這部分不幸的同胞報以同情心,也在不斷尋找醫(yī)治方法。但“智殘”則是人為的,既可以源自對工具的過度和不當使用,也可以源自人類所創(chuàng)造的工具對人類自身的影響。技術(shù)樂觀主義者相信,正如人類幾次工業(yè)革命所創(chuàng)造的技術(shù)一樣,人工智能也會是一種造福人類的有效工具。必須指出的是,人工智能和此前所有人類所創(chuàng)造的工具很不一樣,因為人工智能正在反過來影響人類本身的智能。盡管討論“人工智殘”這一問題有些敏感,但鑒于其快速的發(fā)展勢頭及其對人類智力的巨大負面影響,人們還是需要直面這個問題,并找到有效的糾正方法。本文并非要針對這個問題找出一個確切的解答方案,因為這個問題很復(fù)雜,這里只是提出問題以進行一些初步的討論和思考。

我們不妨借用英國作家奧爾德斯·赫胥黎(Aldous Huxley)所著《美麗新世界》的概念,來形容人工智能所能導向的一種充滿不確定的社會秩序。筆者有3個理由:盡管人工智能及其相關(guān)工具已經(jīng)迅速成為第四次工業(yè)革命的核心,各國也在千方百計地發(fā)展和使用這一技術(shù),以期通過在這一技術(shù)領(lǐng)域占據(jù)主導地位來主導下一波工業(yè)革命,但是對人類社會來說,這一技術(shù)還是新生事物,它給人類所帶來的無疑是一個“新世界”。赫胥黎在《美麗新世界》一書中,探討的是技術(shù)應(yīng)用對人類社會的影響,無論是正面的還是負面的。新技術(shù)的出現(xiàn)大多是人類使用理性的結(jié)果,其目的是影響人類社會。對人類來說,既要受惠于技術(shù)的進步,也要減少甚至避免技術(shù)對人類造成的負面影響。更為重要的是本文想借討論人工智能來更新和修正一下筆者對這個問題的看法。對技術(shù)和社會之間的關(guān)系,筆者一直抱有濃厚的興趣,多年來一直在觀察和研究技術(shù)對社會變遷的影響。2014年,筆者在《技術(shù)賦權(quán):中國的互聯(lián)網(wǎng)、國家和社會》一書,結(jié)合中國的案例,探討了互聯(lián)網(wǎng)對國家和社會的影響。當時還處于博客時代,但互聯(lián)網(wǎng)已經(jīng)對人類社會的方方面面產(chǎn)生了深刻的影響。盡管當時的互聯(lián)網(wǎng)對國家和社會的影響也表現(xiàn)為正、負兩方面,但筆者的結(jié)論比較樂觀,認為作為技術(shù)工具的互聯(lián)網(wǎng)具有普遍賦權(quán)的功能,既賦能政府,也賦能社會的各個群體。但是,至少就今天的現(xiàn)狀來說,普遍賦權(quán)這一觀點需要得到修正了。高科技發(fā)展到人工智能的階段,其賦權(quán)的能量的確越來越巨大,但其賦權(quán)表現(xiàn)為絕對的不平等和不均衡,這種不平等和不均衡不僅表現(xiàn)在一國之內(nèi),更表現(xiàn)在國家之間。正如下文分析到的,在一國之內(nèi),人工智能對國家、對公司、對個人的賦能呈現(xiàn)極度失衡狀態(tài);對國家間來說,人工智能僅僅分布在少數(shù)幾個大國,大多數(shù)國家并沒有能力擁有人工智能。

迄今,人們對人工智能所造成的不平等主要聚焦在就業(yè)、收入、技術(shù)的可得性等方面。但筆者認為,這些不平等不僅存在,而且還會加劇,這些不平等也已經(jīng)成為人類揮之不去的噩夢,但從目前的發(fā)展趨勢而言,人工智能及其相關(guān)工具所產(chǎn)生的最大也是最具有危害性的不平等是人類智慧上的不平等。這種智力上的不平等并不是由人們?nèi)粘Kf的“技術(shù)不可得性”造成的。關(guān)于新興科技對社會的影響,一種普遍的觀點是,只有那些能夠得到這種高科技的社會群體才可以享受新興科技所能帶來的好處,而那些難以得到新興科技的社會群體則難以得到科技帶來的好處。但是,就人工智能及其工具對人類智力的影響來說,結(jié)局是恰恰相反的,即是說,這種高科技越具有可得性,使用頻率越高,使用者的智力受到的損害和傷害就越大。

人工智能的技術(shù)結(jié)構(gòu)特性

本文從2種結(jié)構(gòu)性因素來分析“人工智殘”是如何形成的。本節(jié)將在第1個層面分析人工智能時代高科技所呈現(xiàn)的結(jié)構(gòu)性因素,以及這些看似互相矛盾的因素對社會群體所能構(gòu)成的傷害。簡單地說,人工智能時代高科技呈現(xiàn)4個技術(shù)結(jié)構(gòu)特性。

技術(shù)能力的高度集中性(highly concentrated)。即人工智能的技術(shù)能力是高度集中的,集中在少數(shù)幾個大國的幾家大公司。就世界范圍內(nèi)看,中美兩國擁有大部分人工智能技術(shù)能力,其他國家也擁有一些,但難以與中美兩大國匹敵。再者,就中美兩國來說,美國目前擁有更多的技術(shù)能力。今天,盡管美國公司一直在宣揚中國在人工智能領(lǐng)域?qū)γ绹緲?gòu)成了巨大的競爭壓力,但是無論從理論還是經(jīng)驗層面看,人工智能領(lǐng)域有意義的競爭都發(fā)生在美國的幾家大公司之間,而非中美之間。從技術(shù)端到數(shù)據(jù)端,從大模型到應(yīng)用,中國和美國的差異依然巨大。盡管最近中國DeepSeek的崛起打破了美國之前所處的幾乎壟斷地位,但需要意識到DeepSeek是基于開源的基礎(chǔ)之上產(chǎn)生的,誰都不能保證DeepSeek何時會被再超越。再進一步,即使在中美兩國內(nèi)部,人工智能技術(shù)的也僅僅在少數(shù)幾個地區(qū)分布。在美國,大量核心的人工智能技術(shù)主要分布在2個區(qū)域:西邊從加利福尼亞州硅谷到得克薩斯的狹長地帶、東北部的波士頓—紐約區(qū)域。在中國,人工智能技術(shù)與企業(yè)則主要分布在3個區(qū)域:粵港澳大灣區(qū)、長三角地區(qū)、北京地區(qū)。一種技術(shù)的集中性到達如此的高度是近代以來所少見的。人類的第一、第二和第三次產(chǎn)業(yè)革命均表現(xiàn)為分散性,但人工智能產(chǎn)業(yè)的發(fā)展迄今卻趨向于高度集中性。在西方發(fā)達國家和地區(qū),對基于傳統(tǒng)技術(shù)之上的產(chǎn)業(yè)的反壟斷已有一套成熟的方法。一般都是通過分解一個企業(yè)以防止其取得壟斷地位,從而為創(chuàng)新和新企業(yè)的產(chǎn)生創(chuàng)造制度條件。但是,對高科技企業(yè)如何反壟斷迄今依然是一個巨大的問題。傳統(tǒng)分解企業(yè)的方法可行性不高,因為高科技企業(yè)都基于互聯(lián)網(wǎng)之上,如果分解,就不符合信息產(chǎn)業(yè)的發(fā)展邏輯。從針對微軟公司的反壟斷案來看,現(xiàn)在針對高科技企業(yè)的反壟斷基本上采用以“開放”替代傳統(tǒng)分解的辦法。但問題在于,這種“開放”替代的實際效果反而使得這些信息產(chǎn)業(yè)變得更加龐大。就人工智能產(chǎn)業(yè)來說,美國如今的發(fā)展已經(jīng)達到了相當發(fā)達的程度,但至今還沒有聯(lián)邦層面的任何監(jiān)管體系,只有一些沒有多大約束力的總統(tǒng)行政命令。可以說,如果找不到有效的反壟斷機制,那么這個產(chǎn)業(yè)的集中度只會越來越高。實際上,特朗普再次執(zhí)政之后,對人工智能領(lǐng)域采取“去監(jiān)管”的政策,而這種“去監(jiān)管”的政策會進一步把人工智能產(chǎn)業(yè)發(fā)展的集中度推到一個新的高度。

管控的高度集權(quán)性(highly centralized)。就是說,管控人工智能使用能力的角色是各國政府或各大公司(即平臺)。由于基于互聯(lián)網(wǎng)之上的人工智能涉及國家間的關(guān)系,涉及2種相關(guān)但又不同的安全問題:技術(shù)本身和技術(shù)使用的安全(safety)問題、國家間的安全(security)問題,即一個國家對另一個國家是否構(gòu)成威脅的問題?;趯Π踩男枰?,管控的高度集權(quán)性不可避免。這也就是為什么互聯(lián)網(wǎng)產(chǎn)生以來人們對互聯(lián)網(wǎng)主權(quán)的討論從來沒有終止過的原因。盡管互聯(lián)網(wǎng)主權(quán)很難實現(xiàn),但各國還是千方百計地來掌控互聯(lián)網(wǎng),使其體現(xiàn)出一定程度的“主權(quán)性”。再者,國家之間的互聯(lián)互通僅僅通過一個國家一個接口或者幾個接口的方式進行,這種關(guān)聯(lián)方式也為高度集權(quán)性創(chuàng)造了技術(shù)條件。此外,這種集權(quán)性也可以表現(xiàn)為企業(yè)形式。盡管在內(nèi)部事務(wù)上,一些美國企業(yè)擁有了某種程度的對抗國家的權(quán)力,但在國際層面,無論是主動的還是被動的,企業(yè)便是國家的代理人。

商用者的高度壟斷性(highly monopolized)。如同前面所討論的邏輯,無論商用者是政府還是企業(yè),都很容易趨向于高度壟斷性。經(jīng)驗地看,即便使用者是個人,對于人工智能的使用也呈現(xiàn)出高度壟斷性質(zhì)。舉例來說,無論在哪里,今天的互聯(lián)網(wǎng)和社交媒體領(lǐng)域都被各個領(lǐng)域的“大V”(網(wǎng)紅)或者“大V”所構(gòu)成的小團體所壟斷。這些“大V”及其團體往往集聚和壟斷了大部分資源,享有物質(zhì)意義上和話語權(quán)意義上的不相稱的權(quán)力。他們往往被視為是各個領(lǐng)域的“精英”,任何東西(宗教、思想、價值觀、謊言、謠言等),一旦具有了“商用”價值(即只要有人信),他們便會趨之若鶩,毫無底線地追求流量,把某一事物的商用價值推到極端。

使用者高度分散性(highly diffused)。即最底端的互聯(lián)網(wǎng)使用者?;ヂ?lián)網(wǎng)可以說是迄今為止最具有民主性質(zhì)的技術(shù)。因為人是會說話的動物,人們必須溝通。這也就是基于互聯(lián)網(wǎng)之上的社交媒體今天如此普遍的一個原因。但是,這種技術(shù)的可得性也導致了個人的“原子化”。哲學家漢娜·阿倫特(Hannah Arendt)曾經(jīng)對西方極權(quán)體制下的個人“原子化”做過深刻的討論。但是,今天的情況已經(jīng)發(fā)生了巨大的變化。今天被視為高度“民主化”的互聯(lián)網(wǎng)技術(shù)導致了個人的極端“原子化”。在社交媒體中,人們看似通過網(wǎng)絡(luò)產(chǎn)生了互聯(lián)性,但這是虛擬的互聯(lián),因為他們之間并沒有真正的溝通。在年輕群體中,很多人實際上已經(jīng)失去了語言的溝通能力,他們之間的溝通往往發(fā)生在一個人的拇指與另一個人的拇指之間。更為重要的是,他們往往僅是“大V”們的商用對象,“大V”們對他們來說具有“邪教般”或者“鴉片般”的吸引力。在行為上,他們往往表現(xiàn)為現(xiàn)代版本的“烏合之眾”,表現(xiàn)出從眾、非理性、輕信、自我頌揚、自我愚昧等特征。

人工智能對治理結(jié)構(gòu)特征

人工智能高科技的這種技術(shù)結(jié)構(gòu)特征在很大程度上也決定了第2個層面的高度等級化,即治理結(jié)構(gòu)的高度等級化。盡管社交媒體看似呈現(xiàn)出高度的扁平化,但實質(zhì)上則是越來越等級化,一種可以稱之為“牧民社會”的治理結(jié)構(gòu)正在快速形成和崛起。自從人類有意識地去發(fā)明和創(chuàng)造技術(shù)以來,一個總的趨勢是:機器越來越像人,而人則越來越像機器。因為人是根據(jù)自己的人性來塑造機器的,機器便有了最終征服和奴役人類的機會。

實際上,世界不同的文明都有“牧民”的說法,西方的《圣經(jīng)》講“牧民”,中國的《管子》也講“牧民”。這里的“牧民”指的是統(tǒng)治者對老百姓的統(tǒng)治,需要善待老百姓。正如意大利精英政治學派(如莫斯卡、柏雷托等)所強調(diào)的,不管是民主的還是非民主的,任何社會都可以分為2個階層,即統(tǒng)治者與被統(tǒng)治者,前者是精英,后者是普通人。統(tǒng)治者—被統(tǒng)治者的治理結(jié)構(gòu)便是牧民社會結(jié)構(gòu)。在其《政黨》(Political Parties)一書中,德國出生的意大利社會學家米切爾斯(Robert Michels)更是論證了即使是以追求民主為目標的政黨或者表現(xiàn)為最民主形式的政黨最終也逃避不了“寡頭政治鐵律。

英國作家喬治·奧威爾1949年出版的小說《一九八四》更是以豐富的想象力展示出“牧民”的可能結(jié)局。實際上,自從社交媒體產(chǎn)生以來,“1984社會”已經(jīng)不再僅僅是小說中的想象,而是已經(jīng)成為現(xiàn)實。而人工智能的出現(xiàn)又在加速促成人類社會從“1984社會”向“牧羊社會”轉(zhuǎn)型。

“牧羊社會”由3部分角色組成,即牧羊人、牧羊犬和羊群。今天,就人工智能的發(fā)展水平來說,它已經(jīng)有能力扮演或者已經(jīng)在扮演著“牧羊犬”的角色。馬斯克在其“星鏈”達成第7 000顆衛(wèi)星部署后,曾在社交媒體平臺X發(fā)文稱:“星鏈”現(xiàn)在構(gòu)成所有現(xiàn)役地球(軌道)衛(wèi)星的約2/3。有能力思考的人們需要看到這一發(fā)展趨勢背后的含義?!靶擎湣庇媱澗唧w是由美國太空探索技術(shù)公司實施的,它具備政府所具有的公共性,馬斯克擁有絕對的權(quán)力。

人工智能之所以能夠扮演“牧羊犬”的角色,主要有3個原因。

人工智能技術(shù)本身的快速進步。盡管人類已經(jīng)在各個方面感受到了人工智能對社會造成的沖擊,但人工智能依然處于快速發(fā)展過程之中,并且越來越像人類本身。

這里所說的人類的自我愚昧進程加快。對絕少數(shù)人來說,人工智能是智能,而對大多數(shù)人而言,是“人工智殘”。這里尤其需要強調(diào)一個知識界的“異化”現(xiàn)象,因為近代以來知識界一直被視為是理性的最重要的來源。如同其他領(lǐng)域,今天在知識和智慧領(lǐng)域也出現(xiàn)了“劣幣驅(qū)逐良幣”的現(xiàn)象。美國學者霍夫斯塔特(Richard Hufstadter)20世紀60年代的作品《美國生活中的反智主義》這幾年在很多國家再次流行開來并不難理解,因為追流量、反理性、說假話幾乎已經(jīng)成為全球性現(xiàn)象。不過,應(yīng)當指出的是,今天知識所面臨挑戰(zhàn)的嚴峻程度并非霍夫斯塔特的“反智主義”這一概念所能形容的。在霍夫斯塔特的描述中,反智主體是傳統(tǒng)的宗教、政治、商業(yè)和教育體制等;但在今天,除了這些主體之外,知識界本身不僅也加入了反智浪潮,更是趨向于成為反智主體。應(yīng)當強調(diào)的是,在知識領(lǐng)域,“劣幣驅(qū)逐良幣”對“劣幣”來說絕對不是好消息。如本文前面所討論的,迄今人們只關(guān)注人工智能所能造成的物質(zhì)和制度層面的不平等,但實際上,人工智能對人類最大的沖擊是智慧的不平等。人類利用人工智能自我傷害的趨勢繼續(xù)下去,最終的結(jié)果必然是重返“奴隸式依賴”。

人工智能在快速摧毀此前保障人類生活正常進行的所有體制。2024年9月5日《紐約時報》刊發(fā)的《對人工智能的癡迷可能導致民主的終結(jié)》指出,“隨著技術(shù)使信息傳播變得比以往任何時候都更容易,注意力成了一種稀缺資源,隨之而來的注意力爭奪戰(zhàn)導致了有害信息泛濫。但戰(zhàn)線正從注意力轉(zhuǎn)向親密。新的生成式人工智能不僅能生成文本、圖像和視頻,還能與我們直接交談,假裝人類”。實際的情況可能比該文章描述得更為糟糕。在很大程度上,人工智能賦能的社交媒體已經(jīng)導致美國傳統(tǒng)民主形式的死亡。民主是否能夠在人工智能賦能的社交媒體時代得以生存和發(fā)展是一個很大的問題。不僅僅是選舉制度,所有其他制度都經(jīng)歷著嚴峻的考驗。而一旦失去這些傳統(tǒng)制度的保護,人類無疑將處于一個極度“個體化”的原子狀態(tài)。人們可以說,舊制度的消亡是必然的。的確,任何制度必須與時俱進,否則就會消亡。人工智能已經(jīng)顯示出其強大的制度毀滅能力,但人們?nèi)晕窗l(fā)現(xiàn)其制度建設(shè)能力。在新制度確立遙遙無期的情況下,個人的“原子化”趨于加快和加劇。

不難理解,當今社會的“牧民”特征越來越明顯。盡管在社交媒體上,每個人都可以說話,都可以各抒己見,但就其本質(zhì)而言,社交媒體已經(jīng)出現(xiàn)個人匯總成為“會說話的羊群”的局面。人性最光輝的一面——理性逐漸消失了,而最丑陋的一面——非理性得到張揚。這在很大程度上已經(jīng)威脅到人類的生存和發(fā)展。人工智能時代正在惡化2種不平等——國家內(nèi)部各社會階層之間的不平等和國家之間的不平等。應(yīng)該說,很多國際組織和國家政府正在為如何解決這些不平等冥思苦想,也在作不同的努力來控制和減少這些不平等。但在社交媒體上呈現(xiàn)的則是另外一番景象。各種基于社交媒體之上的群體張揚的是階層階級之間的仇恨、民族種族之間的仇恨和國家之間的仇恨,“商用民粹主義”“商用愛國主義”和“商用民族主義”情緒深入到了社交媒體的各個角落。更為嚴峻的是,對那些“大V”來說,他們這樣做的目的是“商用”,即由流量產(chǎn)生的利益,但對很多他們的追隨者(也就是“羊群”)來說,則是信仰、是行動。仇官、仇富、仇(不同的)宗教、仇(不同的)價值和仇外國人已經(jīng)從線上轉(zhuǎn)到線下,造成了一些群體的生命危機。

技術(shù)進步對社會的影響是一個永恒的話題。必須明確意識到,技術(shù)的進步并不表明人類的進步。人類既要充分受惠于技術(shù)的進步,又要防止和減少技術(shù)對社會進步的負面影響。20世紀出現(xiàn)的“反烏托邦三部曲”,即前面引用的《美麗新世界》和《一九八四》,再加上蘇聯(lián)作家葉·扎米亞京的《我們》,便是用文學方式向世人提出的“未來警告”。但很可惜的是,這些作家所想象的這些早已經(jīng)不是烏托邦,而是存在于今天人們的日常生活中了。更值得關(guān)注的是,在這些作家的作品中,他們只是強調(diào)了“政府”,即掌權(quán)者,在監(jiān)控和操縱社會過程中發(fā)揮的作用,但今天的情況已經(jīng)變得異常復(fù)雜,越來越多的角色,包括資本、資本操縱的機構(gòu)、受利益驅(qū)動的“大V”等,都加入了“愚民”的過程。在這種情形下,越來越多的個體和群體在不知不覺快樂的情形下實現(xiàn)著自我愚昧化。同樣糟糕的是,今天已經(jīng)沒有了“烏托邦三部曲”那樣的思想者了,知識分子不僅已經(jīng)失去了教育社會的責任,更是紛紛加入了“愚民”的進程。

現(xiàn)在留給人們的問題只剩下:人工智能能否最終超越“牧羊犬”的角色而成為“牧羊人”?或者說,“牧羊人”最終反而被“牧羊犬”所主宰呢?

政府與人工智能社會秩序的塑造

人工智能扮演“牧羊犬”的角色,通過自身的快速進步不斷加快人類自我愚昧化的進程、摧毀現(xiàn)行的體制,這種趨勢如果不能加以改變,人類的生存環(huán)境就會不斷惡化。如何阻止人工智能時代“人工智殘”的趨勢繼續(xù)?對世界各國來說,都是一個嚴峻的挑戰(zhàn)。

從今天的情況看,有4個方面的事情是必須做的,也是可以做的。

確立和強化政府的責任。對公眾來說,需要重新認識政府在虛擬現(xiàn)實空間治理中的角色和責任。英國思想家托馬斯·霍布斯于1651年出版的《利維坦》為政府確立其在現(xiàn)實世界中的權(quán)力和權(quán)威提供了最強有力的哲學論證。也正是確立了政府在現(xiàn)實世界的秩序之后,人類才逃離了原先的無政府狀態(tài)。之后才會有洛克和密爾那樣的自由主義者論述這一現(xiàn)實秩序可以是“不專制的”或者“自由的”。今天的虛擬世界秩序或許也要經(jīng)歷一個先確立“利維坦”然后再民主化的過程。盡管人們可以討論“企業(yè)的社會責任”,但是企業(yè)的主要目標并非公共利益,而是私人利益。亞當·斯密認為,私人利益可以導向公共利益,但從經(jīng)驗看,如果沒有政府對企業(yè)行為的規(guī)范,那么對私人利益的過度追求必然對社會整體產(chǎn)生極其負面甚至毀滅性的影響。作為公共利益的主體,政府在管控人工智能方面具有不可推卸的責任。對政府本身來說,迫切需要對人工智能所能導致的2個安全問題進行系統(tǒng)的梳理,并制定同樣系統(tǒng)的有效應(yīng)對舉措:技術(shù)本身的安全問題,即safety;技術(shù)的應(yīng)用所能產(chǎn)生的安全問題,即security。就第1個安全問題,不僅人工智能本身會出現(xiàn)各種技術(shù)故障,而且其也正在生產(chǎn)出越來越多的生成數(shù)據(jù)(信息),這些都會對人類的智力構(gòu)成威脅。就第2個安全問題,人工智能的不當使用和濫用不僅有效損害著社會群體間或者國家間的傳統(tǒng)信任,而且也正在制造大量仇恨甚至暴力。盡管這些現(xiàn)象在互聯(lián)網(wǎng)時代已經(jīng)產(chǎn)生,但人工智能正在極大惡化這些現(xiàn)象。因此,政府需要針對互聯(lián)網(wǎng)非理性言論的蔓延,采取一系列強化監(jiān)管與反制措施,以確保網(wǎng)絡(luò)環(huán)境的安全和穩(wěn)定。這里,完善法律法規(guī)體系是第一位的。政府需建立健全與非理性言論相關(guān)的法律法規(guī),明確界定什么構(gòu)成非理性言論、仇恨言論以及網(wǎng)絡(luò)暴力等行為。同時,加強對現(xiàn)有法律的執(zhí)行力度,確保相關(guān)法規(guī)能夠有效應(yīng)對網(wǎng)絡(luò)中的不當言論,維護虛擬空間的社會秩序。

需要確立和加大網(wǎng)絡(luò)平臺的責任。一方面是平臺的自我責任?;ヂ?lián)網(wǎng)平臺作為信息傳播的重要載體,必須承擔起對內(nèi)容的審核和管理責任?!捌髽I(yè)的社會責任”概念或者目前流行的ESG(環(huán)境、社會和公司治理)概念也可以適用于平臺。另一方面是政府對平臺的監(jiān)管。平臺為利益驅(qū)使,如果沒有外在的壓力,很難確立自己的責任。鑒于平臺中社會個體因為“原子化”而顯得軟弱不堪的局面,政府在監(jiān)管平臺上需要負起主要責任。實際上,如今平臺越來越趨向于“私人化”,而政府盡管也會犯錯誤,但無論是與平臺還是“大V”比較,政府呈現(xiàn)出來的公共性彌足珍貴。類似韓國某平臺所發(fā)生的侵犯女性人權(quán)的案例在全世界不勝枚舉,而這些案例僅靠平臺自我監(jiān)管是絕對無法杜絕的,因此,盡管政府的部分監(jiān)管措施時常被視為不利于平臺發(fā)展的,但要對這些平臺進行監(jiān)管還必須訴諸政府。各國政府需要制定明確的政策,要求平臺建立完善的內(nèi)容審核機制,及時刪除或屏蔽非理性言論,并對傳播惡劣內(nèi)容的用戶施加處罰。此外,政府也可以通過評估和獎勵機制,鼓勵平臺在內(nèi)容治理方面表現(xiàn)優(yōu)異。

政府和平臺需要加強網(wǎng)絡(luò)監(jiān)測與情報收集。通過各種技術(shù)手段,政府可以通過和平臺的合作,建立高效的網(wǎng)絡(luò)監(jiān)測系統(tǒng),實時跟蹤和分析網(wǎng)絡(luò)上非理性言論的動態(tài)。結(jié)合大數(shù)據(jù)和人工智能技術(shù),迅速識別潛在的危害,及時采取應(yīng)對措施,防止非理性言論的進一步傳播和蔓延。這里,政府尤其需要克制和避免人們所說的“選擇性監(jiān)管”傾向性。盡管任何政府都具有傾向性,尤其在意識形態(tài)日益高漲的今天,但如果政府不能避免“選擇性監(jiān)管”,那么就會對極端觀點推波助瀾,造成更大的惡果。政府需要在公眾的“言論自由”和“極端言論”之間作出理性的判斷,在保護“言論自由”的同時有效監(jiān)控“極端言論”。

人工智能時代需要重塑教育,重塑人類理性。理性是人的現(xiàn)代性的本質(zhì),是教育的產(chǎn)物,來之不易。要防止“人工智殘”的趨勢繼續(xù),就必須通過激進的教育改革,重塑公眾的理性思考能力。無論是政府還是社會組織,即刻可以做的包括:開展公共活動和媒體宣傳,鼓勵公眾在面對信息時進行理性思考;通過引導公眾學會分辨信息的真實性、客觀性,減少對情緒化和片面言論的盲目接受;可以組織工作坊、講座等形式的活動,培養(yǎng)公眾的批判性思維能力,使他們能夠獨立判斷非理性言論的影響與后果。但從長遠來說,各國需要的是根本的教育改革。人類已經(jīng)進入人工智能時代,但各國的教育系統(tǒng)依然停留在前人工智能時代,因此教育與社會發(fā)展嚴重脫節(jié)。正如教育在近代以來的3次工業(yè)革命進程中所發(fā)揮的關(guān)鍵作用,在人工智能時代,一個國家的未來,無論是內(nèi)部發(fā)展還是其在國際舞臺所處的位置,都取決于其教育改革。

(作者:鄭永年,香港中文大學(深圳)前海國際事務(wù)研究院?!吨袊茖W院院刊》供稿)

【責任編輯:殷曉霞】
返回頂部