人工智能犯罪與我國對策研究
中國網(wǎng)/中國發(fā)展門戶網(wǎng)訊 近年來,隨著人工智能的突破性發(fā)展,以ChatGPT與Sora為代表的大模型正在重塑生產(chǎn)和生活方式,并催生了社會危害和犯罪風(fēng)險的迭代升級。在公安實踐中,自2015年起,已出現(xiàn)相關(guān)人員利用人工智能技術(shù)實施犯罪的案件,并且呈現(xiàn)逐年增長的趨勢。人工智能介入各類犯罪后,使各類犯罪的法律風(fēng)險及治理難度與日俱增。應(yīng)高度重視人工智能可能帶來的威脅風(fēng)險,并理順發(fā)展與安全、治罪與治理之間的關(guān)系。
人工智能犯罪概述
隨著人工智能技術(shù)發(fā)展,結(jié)合公共安全領(lǐng)域治理實踐,本文認為人工智能犯罪主要分為3個類別。人類利用人工智能技術(shù)進行的犯罪行為。使用人工智能工具或借助人工智能技術(shù)實施詐騙、制作傳播污穢物品等犯罪。針對人工智能系統(tǒng)進行的犯罪行為。人工智能研發(fā)過程中,研發(fā)者通過參數(shù)篡改、數(shù)據(jù)集污染等方式故意制造犯罪工具以實現(xiàn)自身犯罪目的。人工智能獨立實施的犯罪。未來可能出現(xiàn)的人工智能體,能夠跳出原有設(shè)計功能,自主實施犯罪行為或者與使用者、其他人工智能共同犯罪。目前,第3種類型的犯罪雖尚未出現(xiàn),按照技術(shù)發(fā)展的邏輯,不排除此類技術(shù)將帶來相應(yīng)的安全風(fēng)險,建議科學(xué)界和法律界應(yīng)聯(lián)合開展前瞻研究,未雨綢繆,將威脅降至最低。
人工智能犯罪常見類型
按照現(xiàn)行刑法規(guī)定能夠規(guī)制、規(guī)制不足和無法規(guī)制的犯罪進行分類,本文對近年國內(nèi)外出現(xiàn)的人工智能相關(guān)犯罪進行統(tǒng)計分析,大多屬于上述3種人工智能犯罪類型的第1種類型,即人類利用人工智能技術(shù)進行的犯罪行為,主要涉及以下4類案件。
詐騙勒索類。利用人工智能進行詐騙勒索是人工智能犯罪最典型的類型之一。伴隨著生成式人工智能模型的發(fā)展,深度偽造技術(shù)持續(xù)迭代,利用人工智能偽造的內(nèi)容愈發(fā)逼真。犯罪分子借助這些模型或技術(shù)偽造出視頻、圖片及聲音等虛假內(nèi)容,騙取受害者的信任后實施詐騙,或是利用偽造的信息進行勒索等犯罪活動,給受害者造成巨大損失。例如,2023年11月,最高人民檢察院發(fā)布檢察機關(guān)依法懲治電信網(wǎng)絡(luò)詐騙及其關(guān)聯(lián)犯罪典型案例中,詐騙團伙利用人工智能語音機器人實施電信網(wǎng)絡(luò)詐騙的案例共騙取1 437人、3 586萬余元。
網(wǎng)絡(luò)攻擊類。攻擊者可以使用人工智能技術(shù)自動收集被攻擊者的身份、社交關(guān)系等社會工程學(xué)信息,批量生成帶有個性化內(nèi)容的釣魚郵件,或自動生成惡意軟件實施網(wǎng)絡(luò)攻擊。此外,還能使用人工智能技術(shù)對目標(biāo)主機或網(wǎng)絡(luò)實施自動化的漏洞掃描,展開自適應(yīng)攻擊。利用人工智能技術(shù)輔助網(wǎng)絡(luò)攻擊,降低了實施難度,提高了攻擊的成功率。2023年5月,日本東京的智慧城市網(wǎng)絡(luò)遭遇了人工智能驅(qū)動的勒索軟件攻擊,導(dǎo)致東京的地鐵系統(tǒng)和交通信號燈系統(tǒng)癱瘓,造成嚴(yán)重的交通擁堵。據(jù)研究機構(gòu)Gartner發(fā)布的《2024年第二季度新興風(fēng)險排行榜》,人工智能增強的網(wǎng)絡(luò)攻擊已成為全球企業(yè)、組織等數(shù)字化發(fā)展中的最大新興風(fēng)險。
侵犯公民個人信息類。人工智能模型在訓(xùn)練階段,需要大量的樣本作為訓(xùn)練數(shù)據(jù),通常會在網(wǎng)絡(luò)中自動爬取數(shù)據(jù),并且在和用戶相互的過程中收集用戶相關(guān)信息,這些數(shù)據(jù)和信息包含公民個人信息,即人工智能模型獲取這些信息的行為易涉嫌侵犯公民個人信息。在使用階段,“AI換臉”等技術(shù)極易被人利用,造成侵犯公民個人信息的犯罪行為。例如,韓國出現(xiàn)多起利用深度偽造技術(shù)將女生頭像和身體部位合成后進行淫穢影像傳播的案件,被稱為“新N號房”事件,據(jù)報道,涉案人數(shù)可能達22萬人。
編造傳播虛假信息類。用人工智能技術(shù)生成包含文字、圖片或視頻,甚至含有“AI換臉”“AI換音”等內(nèi)容的虛假新聞信息,并在社交網(wǎng)絡(luò)上傳播,易對大眾認知及社會秩序產(chǎn)生干擾。若傳播的虛假信息中包含不實的災(zāi)情、警情等內(nèi)容并嚴(yán)重擾亂社會秩序,可能涉嫌編造、故意傳播虛假信息罪。例如,2024年以來,公安部公布10起打擊整治網(wǎng)絡(luò)謠言犯罪典型案例中[3],有4起涉及違法人員使用人工智能技術(shù)生產(chǎn)的虛假內(nèi)容進行造謠;四川、甘肅等多地公安廳公布了多起網(wǎng)民利用人工智能技術(shù)制造謠言的案例,引發(fā)輿論持續(xù)關(guān)注。
人工智能犯罪態(tài)勢
案件數(shù)量快速增長。隨著人工智能技術(shù)的不斷成熟和普及,越來越多的犯罪分子開始利用這一高科技手段進行犯罪活動。奇安信集團《2024人工智能安全報告》指出,2023年,基于人工智能技術(shù)進行的深度偽造欺詐增長3 000%,基于人工智能技術(shù)生成的釣魚郵件增長1 000%。在可預(yù)見的未來,利用人工智能進行犯罪的案件會越來越多,給社會治理帶來嚴(yán)峻挑戰(zhàn)。
輻射范圍不斷擴大。人工智能犯罪從早期主要集中在個人資金安全、數(shù)據(jù)安全、網(wǎng)絡(luò)安全等領(lǐng)域,逐步擴展到金融、醫(yī)療、交通、政治、軍事、社會公共安全等多個方面,截至2024年9月,對法律法規(guī)、部門規(guī)章中公安機關(guān)執(zhí)法辦案相關(guān)案件開展2個維度的涉人工智能犯罪分析,主案別。復(fù)雜案件中起主導(dǎo)作用的案件類別稱為主案別,1 071個主案別中的犯罪行為可能涉及人工智能的案別有214個,占比19.98%。細分類案件性質(zhì)。案件本身具有的本質(zhì)屬性,劃分案件類型的依據(jù)是由實體法的內(nèi)容決定,故稱為細分類案件性質(zhì),2 840個細分類案件性質(zhì)中犯罪行為可能涉及人工智能的有596個,占比20.98%。
犯罪手法加速升級。人工智能作為新一輪技術(shù)革命的代表,其模型算法不斷加快迭代升級。犯罪分子持續(xù)優(yōu)化算法、提高模型性能,使得犯罪手段更加智能化、隱蔽化。這種快速迭代的趨勢,讓公安機關(guān)在打擊人工智能犯罪時面臨更大挑戰(zhàn),需不斷更新技術(shù)手段和偵查方法。
技術(shù)門檻持續(xù)降低。隨著人工智能技術(shù)發(fā)展和普及,犯罪變得更加多樣且高效,可自動化實現(xiàn)復(fù)雜犯罪活動,即使不具備高技術(shù)背景的人也能參與其中。例如,ChatGPT可以輔助實現(xiàn)網(wǎng)絡(luò)攻擊或?qū)嵤呙?,編寫惡意代碼和詐騙腳本;生成式人工智能可實現(xiàn)單張照片、秒級音頻生成高逼真的“AI換臉”以實施詐騙。
人工智能犯罪特點
相較于傳統(tǒng)犯罪,人工智能犯罪具有以下4個特點。
偽裝程度高。與傳統(tǒng)犯罪相比,利用人工智能技術(shù)生成內(nèi)容實施的犯罪活動真實性更強,受害人難以識別出犯罪行為。深度偽造詐騙案例中,犯罪分子利用人工智能進行換臉、換音,冒充他人進行視頻、電話詐騙,真實度越來越高,肉眼難以辨別真?zhèn)?,普通人難以察覺。例如,2024年2月,中國香港發(fā)生一起涉及多人“AI換臉”的詐騙案,詐騙者利用深度偽造技術(shù)制作受害公司多位高管的視頻并邀請受害職員參加視頻會議,整個會議僅有1位受害職員是真人,該職員見到與現(xiàn)實容貌相同的虛擬高管,信以為真,根據(jù)指示前后轉(zhuǎn)賬2億港幣,后向總部查詢才知被騙。
智能化程度高。人工智能模型的智能化程度越來越高,由人工智能驅(qū)動的網(wǎng)絡(luò)攻擊犯罪可進行自動化漏洞掃描,自動化地與受害者對話實施詐騙,自動化生成個性化的釣魚郵件,自動化生成虛假信息并傳播等。犯罪分子只需將要求告知人工智能模型,人工智能即可智能地執(zhí)行相應(yīng)任務(wù),大大降低犯罪實施的難度,減少犯罪成本。
行為過程的不確定性風(fēng)險更大。許多人工智能算法被稱為“黑箱”,其決策過程復(fù)雜且不可解釋;不法分子還有多種算法可供選擇,甚至可以將多個算法結(jié)合使用;算法的演變過程快速、非線性,對于使用這些復(fù)雜算法的犯罪行為,分析其運行機制更加困難,防護成本也更高。因此,人工智能算法具有多樣性、復(fù)雜性和“黑箱”等特性導(dǎo)致一些犯罪行為難以被及時發(fā)現(xiàn)或追蹤,不確定性相比傳統(tǒng)犯罪更高。例如,一個人工智能驅(qū)動的金融詐騙行為可能通過復(fù)雜的算法模式進行詐騙,傳統(tǒng)的偵查手段很難理解其工作原理,甚至無法預(yù)測其下一步行動;人工智能生成的深度合成視頻、虛假新聞、惡意代碼等內(nèi)容,很難追溯到源頭。
具備自主決策能力。在傳統(tǒng)刑事案件中,犯罪主體只能是法律意義上的人,包括自然人與法人等,對人工智能犯罪來說,除了人類利用人工智能技術(shù)或針對人工智能系統(tǒng)進行的犯罪行為,自動駕駛系統(tǒng)或具身智能機器人等由人工智能自身系統(tǒng)決策導(dǎo)致的獨立犯罪行為也可能發(fā)生。雖然生產(chǎn)廠商對自動駕駛或機器人系統(tǒng)進行了大量安全測試與訓(xùn)練,但面對真實世界中更復(fù)雜的場景,智能決策機制可能會突破一些人類預(yù)先設(shè)定的基本原則,這將是人工智能犯罪完全不同于其他傳統(tǒng)犯罪的獨特之處。
國外人工智能犯罪治理的經(jīng)驗梳理
鑒于人工智能犯罪高發(fā)態(tài)勢,世界各國在積極擁抱人工智能技術(shù)的同時,也在加緊探索人工智能犯罪治理方法,重點從完善規(guī)制立法、積極協(xié)同聯(lián)動、加大技術(shù)研究、加強案件打擊等方面開展治理工作。
國外相關(guān)立法情況。國外非常重視人工智能立法工作,密集出臺一系列人工智能安全法律法規(guī),筑牢人工智能犯罪治理的法律基礎(chǔ)和規(guī)范指導(dǎo)底座。美國的人工智能法律較為寬松,注重激勵創(chuàng)新,以利于搶占科技制高點。美國在人工智能治理立法方面傾向于較為寬松和靈活的監(jiān)管方式,強調(diào)創(chuàng)新和競爭力,整體上更側(cè)重于行業(yè)自律和非強制性指導(dǎo)原則。同時,美國也在逐步加強監(jiān)管力度,特別是在算法歧視和數(shù)據(jù)隱私方面進行規(guī)制。2018年至今,美國相繼出臺了《禁止惡意“深度偽造”法案》《“深度偽造”責(zé)任法案》《“深度偽造”報告法案》,通過一系列立法對人工智能犯罪,特別是涉及深度偽造技術(shù)的犯罪,進行了防范。歐盟對人工智能的法律治理更為慎重,通過較嚴(yán)格的法規(guī)預(yù)防人工智能技術(shù)潛在的社會危害。歐盟側(cè)重于通過全面立法來保護公民權(quán)利和建立高標(biāo)準(zhǔn)的監(jiān)管環(huán)境,傾向于通過立法實現(xiàn)對人工智能的監(jiān)管。2021年4月,歐盟發(fā)布《關(guān)于制定人工智能統(tǒng)一規(guī)則并修訂某些歐盟立法的條例》,這是全球首個全面的人工智能法律框架。2024年3月,歐盟正式發(fā)布全球首個人工智能治理綜合性法律《人工智能法案》,該法案基于風(fēng)險預(yù)防的理念,為人工智能構(gòu)建了一套覆蓋全過程的風(fēng)險規(guī)制體系,是歐盟推進人工智能治理、搶占全球人工智能競爭高地的關(guān)鍵舉措。其他國家或地區(qū)在人工智能治理立法方面各有側(cè)重,反映出各自的政策導(dǎo)向、文化價值觀和社會經(jīng)濟發(fā)展需求,形成了各具特色的立法方向。例如,2019年,新加坡推出亞洲首部《人工智能治理模型框架》;2023年12月,加拿大發(fā)布的《生成式人工智能技術(shù)的基本原則:負責(zé)任、可信和隱私保護》明確了開發(fā)、提供或使用生成式人工智能的個人信息保護問題。
國際對話合作。全球各國積極推動人工智能安全領(lǐng)域的合作。政府和社會協(xié)同。美國政府將部分社會人工智能政策和舉措編入法律并加以擴展,吸收社會先進方法納入國家治理;德國通過購買社會人工智能監(jiān)管服務(wù)來實現(xiàn)人工智能犯罪治理,積極成立包含廣泛領(lǐng)域國際專家的人工智能國際專家顧問委員會。加強國際對話。人工智能技術(shù)的跨國界性使得構(gòu)建國際治理框架尤為重要。2024年9月,美國、英國和歐盟等簽署了歐洲委員會制定的《人工智能、人權(quán)、民主和法治框架公約》,該公約是全球首個具有法律約束力的人工智能國際公約,旨在確保人工智能系統(tǒng)生命周期內(nèi)的活動完全符合人權(quán)、民主和法治,同時有利于技術(shù)進步和創(chuàng)新。國際警務(wù)合作。人工智能犯罪高復(fù)雜性和跨國性需要各國共同應(yīng)對。2023年6月,國際刑事警察組織與聯(lián)合國區(qū)域間犯罪和司法研究所(UNICRI)共同發(fā)布了“人工智能警務(wù)創(chuàng)新工具指南”。在該指南指導(dǎo)下,中國與緬甸執(zhí)法部門合作,成功打擊了使用人工智能技術(shù)實施電信網(wǎng)絡(luò)詐騙集團,中國公安機關(guān)將犯罪嫌疑人從緬甸押解回國,充分彰顯國際警務(wù)合作在打擊跨國人工智能犯罪的有效性。
提前布局技術(shù)研究。世界各國通過成立專門機構(gòu)、加大投入等方式,多措并舉戰(zhàn)略性布局人工智能技術(shù)研究。生成式人工智能的發(fā)展暴露出數(shù)據(jù)泄露、虛假內(nèi)容生成等安全風(fēng)險,這些風(fēng)險需要通過前瞻性的技術(shù)研究和治理機制來應(yīng)對。隨著人工智能技術(shù)的快速發(fā)展,各國紛紛加強對前沿領(lǐng)域的布局,以搶占戰(zhàn)略制高點,掌握未來產(chǎn)業(yè)發(fā)展的主動權(quán),有效應(yīng)對人工智能帶來的安全風(fēng)險。例如,美國國家科學(xué)基金會建立國家人工智能科學(xué)院(NAAI),成員包括國土安全部等政府部門和谷歌公司等科技巨頭,組成美國政府重大基礎(chǔ)前沿研究的“國家隊”,全方位推動國家人工智能技術(shù)與產(chǎn)業(yè)的快速健康發(fā)展;2024年2月,英國國家科研與創(chuàng)新署宣布將投資1億英鎊支持人工智能研究,重點是設(shè)立9個人工智能研究中心,以提供下一代創(chuàng)新和技術(shù),使人工智能能夠解決從醫(yī)療保健到節(jié)能電子等應(yīng)用領(lǐng)域的復(fù)雜問題。
我國人工智能犯罪治理現(xiàn)狀及挑戰(zhàn)
我國人工智能犯罪治理行動
加強立法規(guī)制。目前,我國已經(jīng)發(fā)布了一系列法律和政策,走出了一條探索人工智能犯罪治理的法治路徑。2017年6月,《中華人民共和國網(wǎng)絡(luò)安全法》開始實施,規(guī)定數(shù)據(jù)處理和傳輸過程中,人工智能技術(shù)不能被用于危害國家安全或侵犯公民權(quán)利等事件。2021年11月,《中華人民共和國個人信息保護法》中明確規(guī)定了個人信息處理合法性、透明性和數(shù)據(jù)最小化等基本原則,對依賴大數(shù)據(jù)、用戶畫像等人工智能技術(shù)的企業(yè)提出嚴(yán)格合規(guī)要求。2022年,《關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》發(fā)布,是為了貫徹黨的二十大精神和習(xí)近平法治思想、落實國家發(fā)展規(guī)劃綱要的具體舉措。2023年1月,《互聯(lián)網(wǎng)信息服務(wù)深度合成技術(shù)管理規(guī)定》實施,對深度合成技術(shù)嚴(yán)格監(jiān)管,要求深度合成內(nèi)容必須標(biāo)識,防止其被用于制造虛假信息并誤導(dǎo)公眾。2023年8月,《生成式人工智能服務(wù)管理暫行辦法》開始實施,這是中國首個針對生成式人工智能的專門法規(guī),要求提供生成式人工智能服務(wù)的公司確保技術(shù)安全和可靠,對提供、使用人工智能服務(wù)的企業(yè)和個人行為進行規(guī)范,明確了數(shù)字水印、安全評估、技術(shù)檢查等監(jiān)管手段,同時禁止人工智能被用于虛假信息的傳播、詐騙等違法活動。
探索共治模式。持續(xù)推進行業(yè)治理。國內(nèi)頭部科技企業(yè)推動人工智能自律自治,百度、華為等企業(yè)參與了《人工智能產(chǎn)業(yè)擔(dān)當(dāng)宣言》的發(fā)布,強調(diào)企業(yè)在人工智能治理中的責(zé)任,確保人工智能系統(tǒng)的安全、可靠、可控,提高算法的透明性和可解釋性;全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會發(fā)布了《人工智能安全治理框架》1.0版,提供基礎(chǔ)性、框架性技術(shù)指南,促進人工智能的健康發(fā)展和規(guī)范應(yīng)用。積極開展國際合作。2023年,習(xí)近平主席提出《全球人工智能治理倡議》,提議各國秉持共商共建共享理念,協(xié)力共同促進人工智能治理。第78屆聯(lián)合國大會上,中國提出了加強人工智能能力建設(shè)國際合作的決議,該決議獲140多個國家聯(lián)署,強調(diào)人工智能發(fā)展的3項原則,鼓勵國際合作和互助,共同提高全球人工智能發(fā)展能力。我國每年舉辦世界人工智能大會,促進全球科學(xué)家、企業(yè)家的交流合作,共同探討人工智能的發(fā)展與治理,連續(xù)3年組織召開“全球公共安全合作論壇(連云港)”,匯聚各國政府、執(zhí)法部門及學(xué)者共商公共安全治理策略,針對人工智能治理達成共識,共同倡議加強應(yīng)對人工智能潛在風(fēng)險等領(lǐng)域的合作。
加大技術(shù)攻關(guān)。人工智能技術(shù)作為新興前沿技術(shù)的代表,涉及多學(xué)科交叉,其發(fā)展融合了基礎(chǔ)研究和系統(tǒng)工程研究,但在多個領(lǐng)域的應(yīng)用并未真正發(fā)揮作用,尤其在公共安全領(lǐng)域,人工智能技術(shù)賦能警務(wù)滯后于人工智能犯罪。國家高站位推動謀劃,部署推進“科技興警三年行動計劃(2023—2025年)”,將人工智能技術(shù)列為構(gòu)建公安戰(zhàn)略科技力量體系的重要方面。通過人工智能相關(guān)的人才梯隊建設(shè)、科研項目保障及促進科技成果轉(zhuǎn)化等多種方式,加大人工智能相關(guān)技術(shù)攻堅。公安機關(guān)立足國家戰(zhàn)略和公共安全需求,研究人工智能技術(shù)賦能實戰(zhàn)的關(guān)鍵核心技術(shù),加強與中國科學(xué)院等科研機構(gòu)深入合作,探索研發(fā)公共安全領(lǐng)域治理工具,以科技手段持續(xù)提升公安機關(guān)預(yù)警、防范、打擊、處置能力,充分利用人工智能技術(shù)提高人工智能犯罪偵查的效率和精準(zhǔn)度,全面提升公安實戰(zhàn)科技含量。
加強犯罪打擊。近年來,公安機關(guān)通過“凈網(wǎng)”“夏季行動”等一系列專項行動,打擊處理了一批利用人工智能技術(shù)開展的網(wǎng)絡(luò)謠言、電信詐騙、制作傳播淫穢色情音視圖文等案件,對人工智能相關(guān)犯罪形成了有效震懾。尤其是在打擊“AI換臉”系列犯罪的過程中,公安機關(guān)聯(lián)合相關(guān)全國重點實驗室等單位開展重點研究,適時組織人臉識別與活體檢測技術(shù)的安全測評,測評范圍覆蓋即時通信軟件、網(wǎng)絡(luò)平臺、游戲平臺、金融軟件等需要進行人臉識別登錄驗證的系統(tǒng),及時發(fā)現(xiàn)人臉識別驗證系統(tǒng)存在的風(fēng)險隱患,開展專項整治,升級安全保護措施和人臉識別算法,不給不法分子可乘之機。2023年8月,公安部新聞發(fā)布會上公布,依托“凈網(wǎng)”專項行動,偵破“AI換臉”案件79起,抓獲犯罪嫌疑人515人,有效遏制了人工智能相關(guān)犯罪勢頭。
我國人工智能犯罪治理面臨的挑戰(zhàn)
我國在人工智能犯罪治理方面,形成了多主體、多領(lǐng)域協(xié)同共治的良好局面,取得顯著成效。但隨著人工智能發(fā)展進入快車道,技術(shù)的演進衍生出復(fù)雜多變的新型風(fēng)險,防范化解面臨挑戰(zhàn)。
人工智能安全法律法規(guī)體系有待完善。我國在人工智能立法上進行了有益探索,通過多層級、地域化、領(lǐng)域化立法初步構(gòu)建了人工智能法律治理框架,但仍存在立法層級低、立法規(guī)定落后、體系銜接不暢等問題。2021年起,我國密集出臺了多部相關(guān)政策法規(guī),對生成式人工智能相關(guān)技術(shù)應(yīng)用進行了系統(tǒng)規(guī)范,但責(zé)任認定與歸結(jié)等問題不夠明確,操作性欠缺,尚未形成統(tǒng)一的生成式人工智能法律框架。當(dāng)前,我國人工智能安全相關(guān)規(guī)制條款分散在不同層級的法律法規(guī)中,缺乏統(tǒng)一的監(jiān)管法律,難以形成治理合力。同時,現(xiàn)有法規(guī)缺乏具體操作標(biāo)準(zhǔn),導(dǎo)致在實際應(yīng)用中難以執(zhí)行和監(jiān)管。例如,對使用人工智能技術(shù)制作傳播網(wǎng)絡(luò)謠言,仍需使用現(xiàn)行民法中侵犯名譽權(quán)、誹謗罪等及刑法中詐騙罪、幫助信息網(wǎng)絡(luò)犯罪活動罪等法條進行起訴。
人工智能監(jiān)管措施尚未完善。人工智能技術(shù)存在著較大的不確定性和不可控性,應(yīng)該接受嚴(yán)格的安全評估,需要監(jiān)管來確保這些安全措施得以實施。隨著人工智能技術(shù)的快速發(fā)展,尤其是生成式人工智能的濫用現(xiàn)象日益嚴(yán)重,對現(xiàn)有的監(jiān)管方式帶來了重大挑戰(zhàn)。以合成視頻或合成語音為例,現(xiàn)有大模型生成工具提高了視頻和語音生成內(nèi)容的合理性和逼真度,降低了虛假信息的生成成本,加大了公共安全領(lǐng)域風(fēng)險治理難度。目前,大模型測評管控及人工智能犯罪風(fēng)險評估等領(lǐng)域尚未形成成熟的監(jiān)管措施,隨著技術(shù)的進一步發(fā)展,人工智能技術(shù)模擬真實物理世界的能力將進一步增強,監(jiān)管措施存在明顯的滯后性,難以適用新的安全防范要求,需加強技術(shù)應(yīng)對。
在人工智能犯罪治理領(lǐng)域國際合作面臨諸多挑戰(zhàn)。在人工智能犯罪治理中,國際合作面臨的挑戰(zhàn)和沖突主要源于地緣政治因素、文化和倫理差異、技術(shù)發(fā)展與安全問題以及國際合作機制不足等方面。此外,各國尚無人工智能技術(shù)使用的統(tǒng)一標(biāo)準(zhǔn)規(guī)范,尚未達成統(tǒng)一的關(guān)于人工智能治理的國際條約,不利于人工智能技術(shù)快速發(fā)展。例如,美國主導(dǎo)的“理念一致國家同盟”[19]與聯(lián)合國注重全球共識和可持續(xù)發(fā)展目標(biāo)的實現(xiàn),倡導(dǎo)建立一個敏捷、網(wǎng)絡(luò)化的全球治理機制存在沖突,這種分歧體現(xiàn)在監(jiān)管模式、技術(shù)發(fā)展和安全問題的優(yōu)先級設(shè)定等諸多方面;歐盟傾向于以人為本的監(jiān)管模式,而美國則傾向于自主自治,歐盟和美國在人工智能監(jiān)管方面的不同態(tài)度也導(dǎo)致了跨大西洋監(jiān)管合作的困難;中國主張數(shù)據(jù)主權(quán)原則,美國采取利益攸關(guān)方準(zhǔn)則,兩國跨境數(shù)據(jù)流動政策的核心關(guān)注、政策基調(diào)和戰(zhàn)略訴求依然存在根本差異。
我國應(yīng)對人工智能犯罪挑戰(zhàn)的對策建議
隨著人工智能技術(shù)高速發(fā)展,我國安全監(jiān)管剛剛起步,面對治理人工智能犯罪的挑戰(zhàn),可從頂層設(shè)計、技術(shù)治理、加強監(jiān)管、人才培養(yǎng)、宣傳教育與合作交流等方面綜合發(fā)力,構(gòu)建全方位人工智能犯罪治理體系。
強化人工智能安全頂層設(shè)計,完善相關(guān)法律規(guī)制
建立高級別領(lǐng)導(dǎo)指揮體系,在省部級政府機關(guān)成立人工智能安全領(lǐng)導(dǎo)小組和專家組,為領(lǐng)導(dǎo)決策提供專業(yè)支撐。制定專門性法律,借鑒美國和歐盟的應(yīng)對策略,在早期發(fā)展階段更加關(guān)注技術(shù)創(chuàng)新,在技術(shù)成熟期和大規(guī)模應(yīng)用時實行更嚴(yán)格的監(jiān)管,以確保人工智能技術(shù)盡量少帶來負面社會影響,推動法律法規(guī)適應(yīng)人工智能技術(shù)的發(fā)展和應(yīng)用場景變化,采取動態(tài)的法律更新機制,定期對法律條款進行更新,以適應(yīng)新興技術(shù)。對于人工智能的開發(fā)者、提供商、使用者等相關(guān)方,建立相應(yīng)的責(zé)任追究機制,完善處罰與追責(zé)體系;對于現(xiàn)行法律規(guī)定規(guī)制不足或無法規(guī)制的涉人工智能犯罪,采取完善相關(guān)司法解釋、調(diào)整相關(guān)犯罪的構(gòu)成要件及設(shè)立新罪名的法律應(yīng)對策略。創(chuàng)新人工智能治理方式,健全人工智能相關(guān)配套政策與技術(shù)規(guī)范,系統(tǒng)制定和完善與人工智能犯罪治理相關(guān)的國家和行業(yè)標(biāo)準(zhǔn),特別是盡快制訂人工智能生成、合成內(nèi)容標(biāo)識的技術(shù)規(guī)范及配套的強制性標(biāo)準(zhǔn),提高生成模型透明度,解決法庭科學(xué)中對證據(jù)結(jié)論可解釋的要求。
加強人工智能安全技術(shù)創(chuàng)新,提升技術(shù)應(yīng)對能力
積極發(fā)揮人工智能技術(shù)的正向賦能作用,依托公安部與科學(xué)技術(shù)部聯(lián)合部署推進的“科技興警三年行動計劃(2023—2025年)”,加強技術(shù)攻關(guān)與應(yīng)對。鑒于其“雙刃劍”效應(yīng),應(yīng)從2個方面加強技術(shù)保障。利用人工智能技術(shù)提升犯罪預(yù)防和偵查效率,建立人工智能犯罪發(fā)現(xiàn)和處置系統(tǒng),開展常態(tài)化監(jiān)測預(yù)警。提升人工智能系統(tǒng)與應(yīng)用自身安全,構(gòu)建準(zhǔn)確、穩(wěn)健、安全、隱私、公平和可解釋的人工智能算法,加強對軟硬件設(shè)施的安全防護,定期對人工智能系統(tǒng)進行全面的安全檢查,及時發(fā)現(xiàn)和解決潛在的安全威脅,以確保人工智能系統(tǒng)滿足安全要求。
加強人工智能系統(tǒng)安全管理,建立分級監(jiān)管機制
參照網(wǎng)絡(luò)安全等級保護體系,創(chuàng)設(shè)動態(tài)的人工智能分級分類監(jiān)管機制,根據(jù)生成式人工智能服務(wù)的風(fēng)險高低進行分類分級監(jiān)管;并根據(jù)生成式人工智能服務(wù)適用的不同領(lǐng)域進行行業(yè)部門監(jiān)管。分級分類監(jiān)管和行業(yè)部門監(jiān)管2種監(jiān)管政策相輔相成,共同促進人工智能的體系化監(jiān)管進一步加強。建立一套全面覆蓋技術(shù)、倫理和社會安全的人工智能風(fēng)險評估體系,構(gòu)建人工智能風(fēng)險防控和應(yīng)急響應(yīng)機制。對高風(fēng)險人工智能技術(shù),可以借鑒歐盟《人工智能法》中的“沙盒監(jiān)管”模式,“沙盒監(jiān)管”可以減少法律對產(chǎn)業(yè)發(fā)展的負外部性,即在特定范圍內(nèi)允許人工智能系統(tǒng)進行有條件的應(yīng)用,進行小規(guī)模測試,同時在監(jiān)管機構(gòu)的指導(dǎo)下調(diào)整技術(shù)細節(jié)。加強人工智能安全相關(guān)信息的收集和分析工作,按照危害程度、影響范圍等因素對人工智能安全事件進行分級,及時向相關(guān)企事業(yè)單位通報預(yù)警信息,制定相應(yīng)的應(yīng)急預(yù)案并定期組織演練,以應(yīng)對人工智能發(fā)展中的各類安全風(fēng)險。
加強人工智能安全人才培養(yǎng),提升犯罪打擊能力
打擊人工智能犯罪需要培養(yǎng)一批“善偵查、專技術(shù)、懂法律”的交叉復(fù)合型高素質(zhì)人才,應(yīng)當(dāng)優(yōu)先在公共安全相關(guān)高校設(shè)置專門的人工智能安全相關(guān)專業(yè),持續(xù)跟進人工智能及其安全前沿趨勢,加強實際案例解析與培訓(xùn),研究設(shè)計科研實踐平臺與攻防靶場,舉辦相關(guān)競賽活動,搭建交流學(xué)習(xí)平臺,建立并培養(yǎng)人工智能犯罪打擊專門力量,定期開展人工智能犯罪專題研究,多角度應(yīng)對潛在風(fēng)險。
加強人工智能安全宣傳教育,提升公眾認知能力
加大人工智能安全教育與宣傳力度,借鑒全民反詐宣傳模式,依托知識科普和短視頻平臺等,提高公眾安全意識,使公眾能有效識別人工智能犯罪形式、保護個人信息、防范智能攻擊,提升辨別能力。聚焦數(shù)據(jù)安全、網(wǎng)絡(luò)謠言等熱點問題,通過線上線下相結(jié)合的方式宣傳人工智能安全法律法規(guī)、政策文件、國家標(biāo)準(zhǔn)等內(nèi)容,及時通報公安機關(guān)打擊人工智能犯罪、加強人工智能安全監(jiān)管的工作成效,提升公眾對人工智能安全觀和相關(guān)法律法規(guī)的認識。
加強人工智能犯罪國際合作,提升跨境處置能力
在全球化背景下,人工智能犯罪常具跨國性,各國需要共同應(yīng)對。應(yīng)大力推動國際執(zhí)法合作,發(fā)揮高層互訪的引領(lǐng)作用,有效利用有關(guān)會晤機制平臺,定期與外國執(zhí)法部門和有關(guān)國際組織就人工智能安全、打擊跨國犯罪、追逃追贓等議題深入磋商,共享研究成果和治理經(jīng)驗,共同研究制定國際規(guī)則和標(biāo)準(zhǔn),建立人工智能犯罪專屬數(shù)據(jù)庫,實時共享犯罪信息,有效凝聚共識、管控分歧,對跨境人工智能犯罪形成有力震懾。
(作者:高建新、孫錦平、蔡瑜坤、王崇鵬、楊燕燕、王凱悅,北京市公安局?!吨袊茖W(xué)院院刊》供稿)







