【摘要】當前,伴隨著大國數(shù)字地緣競爭的日漸加劇,人工智能“武器化”趨勢日漸明顯。這突出表現(xiàn)為:在軍事領域,人工智能正被越來越多的國家用作軍事武器;在外交領域,計算外交正在掀起一輪智慧外交革命;在國內(nèi)政治領域,人工智能正在越來越多地被用作一種政治干預工具。放眼未來,人工智能驅(qū)動的社會轉(zhuǎn)型業(yè)已拉開帷幕,在智能化浪潮的驅(qū)動下,人工智能將無所不在,傳統(tǒng)的國際競爭正在悄然演化為以數(shù)據(jù)和算法為核心的人工智能競爭。在此背景下,我們的社會比以往任何時刻都更加脆弱、更不安全,人工智能不僅是一種新質(zhì)生產(chǎn)力和社會變革工具,也是一種前所未有的經(jīng)濟競爭、軍事競爭與政治競爭武器,給國家安全和社會穩(wěn)定帶來嚴峻挑戰(zhàn)。而要應對人工智能研發(fā)和應用帶來的技術風向變化,需要用計算思維來理解人工智能、以人工智能技術進步來治理人工智能所帶來的安全風險。
【關鍵詞】武器化 人工智能風險 計算政治 大國競爭
【中圖分類號】F49 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.09.009
【作者簡介】董青嶺,對外經(jīng)濟貿(mào)易大學國際關系學院教授、博導,國家安全計算實驗室(CLNS)主任。研究方向為大數(shù)據(jù)科學與國際關系交叉研究,內(nèi)容涵括大數(shù)據(jù)海外輿情監(jiān)測與沖突預警、國際關系自然語言處理與社會情感挖掘、機器學習與國際關系智能分析。主要著作有《大數(shù)據(jù)與機器學習:復雜社會的政治分析》《復合建構(gòu)主義:進化沖突與進化合作》等。
當前,伴隨著社會生活數(shù)字化和智能化趨勢的不斷發(fā)展,人工智能被用作一種國際競爭“武器”的態(tài)勢日漸明顯。這突出表現(xiàn)在:以數(shù)據(jù)公司和數(shù)據(jù)科學家為代表的人工智能精英正在成長為新的政治力量,新的社會結(jié)構(gòu)和國際秩序正圍繞著人工智能應用展開;[1]現(xiàn)代社交網(wǎng)絡和數(shù)字平臺的蓬勃發(fā)展,使越來越多的政治活動被編程化的“社交機器人”和各種“算法偏見”所操控,[2]“智慧驅(qū)動型外交”正在引領人工智能時代的跨國政治傳播變革。尤其是在深度信息偽造、虛假信息傳播和政治“污名化”等方面,生成式人工智能技術正在改變傳統(tǒng)國際傳播策略與公共外交戰(zhàn)略。由此可見,人工智能工具及其算法應用不僅日益成為各國新質(zhì)生產(chǎn)力的重要組成部分,而且也逐漸發(fā)展為各國綜合國力競爭的技術新利器。此外,以自主決策系統(tǒng)和致命性自主武器系統(tǒng)(LAWS)為標志的人工智能軍事化應用,正在引發(fā)新一輪軍備競賽。以智能決策和自主攻擊為特征的軍事機器人不僅重構(gòu)了戰(zhàn)爭的形態(tài),更對人類社會的倫理底線和全球安全治理體系構(gòu)成了嚴峻挑戰(zhàn)。高度自主化的智能網(wǎng)絡和漫無節(jié)制的數(shù)據(jù)使用正在制造一個風險不可預測、責任難以追溯的新型安全困境。毋庸諱言,人工智能技術正以前所未有的深度和廣度嵌入政治運行與戰(zhàn)略競爭的基本邏輯之中,締造了一個“數(shù)據(jù)即生活、算法即權(quán)力、智能即統(tǒng)治”的時代。
數(shù)智社會:人工智能應用與“內(nèi)嵌”的安全風險
放眼未來,人工智能驅(qū)動的社會轉(zhuǎn)型已然拉開序幕,未來社會本質(zhì)上就是一個以人工智能驅(qū)動為基礎的數(shù)智社會。形形色色的人工智能工具和智能體不僅改變了人類現(xiàn)有的連接方式、交往方式、工作方式和學習方式,也因其全域滲透性、嵌入性,正在重構(gòu)人類社會的時與空、虛與實以及人與機之間的界限。[3]在此背景下,傳統(tǒng)國際競爭將加速演變?yōu)橐詳?shù)據(jù)、算法和算力為核心的“計算競爭”。首先,在軍事領域,人工智能正越來越多被用作一種新式作戰(zhàn)武器。有學者認為,人工智能武器的研發(fā)與應用,特別是無人值守系統(tǒng)與智能作戰(zhàn)平臺的部署,將會革命性改變戰(zhàn)爭規(guī)則與交戰(zhàn)方式,給軍備競賽、危機管控和戰(zhàn)爭倫理帶來前所未有的挑戰(zhàn)。[4]在人工智能革命的驅(qū)動下,未來戰(zhàn)爭很可能會走向以智能對抗為主導特征的混合戰(zhàn)爭與智能戰(zhàn)爭形態(tài)。其次,在外交領域,計算外交正成為一種新型外交工作方式。依托超強算力支撐和可選擇的人工智能工具箱,計算外交將傳統(tǒng)國際關系理論、政治理論、決策科學與計算方法融于外交全過程,具體體現(xiàn)為外交態(tài)勢感知、外交決策過程、外交戰(zhàn)略執(zhí)行與外交工作流程的算法化、自動化和智能化,諸如自動情報感知、仿真模擬政策執(zhí)行以及即時追蹤政策反饋都將成為外交智慧化轉(zhuǎn)型的典型特征。[5]再次,在國內(nèi)政治領域,人工智能機器人正被用作一種政治干預手段。作為數(shù)字政治中編程化的虛擬人格,不同類型政治機器人(也稱“數(shù)字水軍”或“機器軍團”)不僅可以獨立進行人機互動,還可以在機器與機器之間進行互粉、互轉(zhuǎn)和相互交流,使得政治信息操作可以在各個虛擬賬戶之間形成信息協(xié)同,進而創(chuàng)造“信息涌現(xiàn)”、人工生成輿論潮流。[6]就此而言,政治機器人常被別有用心的政治行為體隱秘地用于制造并支持各種誤導性言論,并通過“僵尸網(wǎng)絡”和自動代理強化錯誤信息和虛假信息的傳播,放大問題爭議點、煽動仇恨言論,制造政治兩極分化,進而影響政治行為體的選擇偏好,趁機攫取政治支持。
綜上所述,在萬物皆可計算的數(shù)智時代,數(shù)據(jù)即資源、算法即規(guī)則。作為一種“嵌入式”隱蔽工具,人工智能正在悄然演變?yōu)樯鐣M步的核心驅(qū)動力和大國角力的焦點。在此背景下,人工智能逐步呈現(xiàn)“武器化”趨勢。就此而言,人工智能不僅已成為新的風險源和安全挑戰(zhàn),其本身也在嵌入社會結(jié)構(gòu)的過程中日漸成為權(quán)力塑造主體。這突出表現(xiàn)為以下兩方面。
第一,用于驅(qū)動人工智能決策的數(shù)據(jù)挖掘可能會帶來隱私泄露與政治脅迫。一些主張數(shù)據(jù)開放的學者認為,數(shù)據(jù)的價值在于開放、流動與不斷被使用,如果通過數(shù)據(jù)分析可以挖掘更多決策信息、精準定位安全對象和客觀預測競爭對手的戰(zhàn)略意圖,則基于數(shù)據(jù)的人工智能應用將會極大改善安全決策的質(zhì)量、提高資源配置效率并最終促進和擴大國家利益。[7]然而,反對的觀點也極為尖銳,一旦毫無節(jié)制的數(shù)據(jù)分析變成安全政策的工具,由機器人參與或操控的戰(zhàn)爭決策很可能會使全球武裝沖突常態(tài)化,科學家、編程人員和游戲玩家等各色人員都有可能利用無人系統(tǒng)參與武裝沖突,機器攻擊程序的開源傳播和低廉制作成本,將塑造人人都擁有相互傷害能力的沖突進程。[8]就此而言,“如果未來有一天,機器和計算實現(xiàn)了對人類世界的全面接管,那么這種放棄就是末日的開端”。更為激進的觀點甚至想象,未來戰(zhàn)爭極有可能演變?yōu)橐环N“超個性化戰(zhàn)爭”(The Hyper-Personalization of War),[9]即在高度數(shù)字化的戰(zhàn)場環(huán)境中,敵對方或可通過網(wǎng)絡手段持續(xù)追蹤作戰(zhàn)人員的個體化數(shù)據(jù),包括其在線行為、家庭結(jié)構(gòu)乃至子女就學信息,進而制造“個性化威脅”、形成認知領域的“精準打擊”,使士兵無法專注作戰(zhàn)任務。毫無疑問,技術的迅猛發(fā)展固然極大提升了社會運行效率與個人生活的便利性,然而也暴露出相伴而生的脆弱性:從可穿戴設備到自動駕駛系統(tǒng),從智能家居到3D打印技術,凡此種種皆可能被黑客操控,誘發(fā)災難性的安全風險。因此,在人工智能時代,我們的社會比以往任何時期都更加依賴技術,也更易受其反噬所傷,呈現(xiàn)出一種技術賦能與風險同步增長的狀態(tài)。
第二,用于實現(xiàn)人工智能功能的算法模型具有穿透性、嵌入性和泛在性。簡單來說,穿透性指的是算法能夠輕松越過國家的物理疆界,對他國進行悄無聲息的政治擾動,以至于傳統(tǒng)的國家物理疆界和主權(quán)原則形同虛設,在此意義上很多國家的內(nèi)部動蕩與“網(wǎng)絡顏色革命”正日趨演變?yōu)樗麌惴ǜ深A的結(jié)果;嵌入性是指算法作為智能社會系統(tǒng)管理的一部分,總是被嵌入特定的社會情境,由某些特定行為體所開發(fā)和部署并應用于具體領域,通過嵌入性的調(diào)配資源和支配行動全面參與到人類社會生產(chǎn)、分配和決策等關鍵環(huán)節(jié)中,日趨演變?yōu)轵?qū)動各領域創(chuàng)新涌現(xiàn)、塑造人類認知并改變資源分配格局的重要力量;而泛在性則是指計算機與網(wǎng)絡形成了一個“無時不在、無處不在”的計算環(huán)境,算法與多元領域的深度耦合將物理空間與虛擬空間融合成一個龐大的數(shù)字生態(tài)系統(tǒng),智能技術在嵌入社會結(jié)構(gòu)的過程中通過隱性或顯性的規(guī)則形成了嵌入式、滲透性的泛在化權(quán)力??傮w而言,用于實現(xiàn)人工智能功能的泛在化算法是所有事務自動化和智能化執(zhí)行的核心,掌握核心算法即意味著擁有定義社會規(guī)則的絕對話語權(quán)。正是考慮到算法的穿透性、嵌入性和泛在性,智能社會的秩序重構(gòu)正在以算法為中心展開,那些掌握算法開發(fā)、部署和使用的行為體將重塑權(quán)力分配格局。由此,伴隨著大量公共事務的決策從人的判斷日趨轉(zhuǎn)向機器的“判斷”,人類事務治理也日趨演變?yōu)樗惴ǖ闹卫恚粋€由算法決策所建構(gòu)的“算法社會”已隱約可見。
人工智能異化:技術濫用與非道德的機器
簡單來說,人工智能可能帶來的威脅是多方面的,而且越來越復雜。在智能化浪潮的驅(qū)動下,人工智能將無所不在,傳統(tǒng)的國際競爭正在悄然演化為以數(shù)據(jù)和算法為核心的人工智能競爭。就此而言,人工智能既是一種新質(zhì)生產(chǎn)力和社會變革工具,也是一種前所未有的經(jīng)濟競爭、軍事競爭與政治競爭武器,給國家安全和社會穩(wěn)定帶來嚴峻挑戰(zhàn)。
首先,人工智能極大降低了網(wǎng)絡虛假信息生成的技術門檻和經(jīng)濟成本,助長了網(wǎng)絡虛假信息的傳播和錯誤信息的泛濫。這突出表現(xiàn)為以下三個方面。一是各國政府、政黨組織、社會團體乃至恐怖組織正投入大量資源構(gòu)建龐大的“網(wǎng)絡數(shù)字水軍”與“社交機器人軍團”,以系統(tǒng)化的方式實施計算宣傳。他們可以通過部署智能算法操縱的機器人,在社交平臺上有組織地操控話語空間,制造虛假共識,誤導輿論認知,進而實現(xiàn)其政治目標。更有甚者,將計算宣傳特別是“政治機器人軍團”納入“網(wǎng)絡戰(zhàn)武器庫”,作為國際競爭的關鍵戰(zhàn)略工具。二是用于支撐人工智能的任何算法模型,包括大語言模型,都帶有數(shù)據(jù)偏見和算法偏見,由此導致由人工智能所生成的內(nèi)容并不總是中立的,而是潛藏一定政治傾向。在此情形下,人工智能一方面可以賦能政治戰(zhàn)略的制定與執(zhí)行、造就新的政治權(quán)威;另一方面可能會因為輸出偏見而造成認知安全問題。三是算法賦能不僅使得虛假信息的甄別成本飆升,而且使技術上的偵測難度越來越大。過去數(shù)年間,假新聞泛濫現(xiàn)象正愈發(fā)凸顯。為應對這一挑戰(zhàn),事實核查人員需投入大量精力,對政治演說、媒體報道、學術出版物及政府統(tǒng)計數(shù)據(jù)進行系統(tǒng)性驗證。然而,由于虛假信息的海量性以及病毒式的繁殖與變異能力,僅有極少數(shù)爭議性內(nèi)容能夠接受全面的事實核查。據(jù)報道,美國假新聞檢測研究長期面臨學術關注不足、資金投入有限和制度支持匱乏等困境。相比之下,虛假信息的生成技術卻能獲得更多資源。這使得“制造謊言”遠比“消滅謊言”容易。在部分國家與地區(qū),假新聞已經(jīng)誘發(fā)擾亂公共輿論、操縱選舉結(jié)果與煽動游行示威等危機,嚴重破壞了國家政治穩(wěn)定。
其次,人工智能賦能編程技術降低了編程成本、提高了編程效率、擴大了編程技術的普及范圍,這在一定程度助長了網(wǎng)絡犯罪和金融欺詐。一方面,以生成式人工智能為代表的新一代人工智能技術迅猛發(fā)展,顯著降低了獲取復雜代碼程序與功能應用的技術門檻,使個體能夠更輕易地發(fā)動網(wǎng)絡攻擊,重構(gòu)了網(wǎng)絡安全的攻防格局。在此情形下,計算外交領域中有組織地網(wǎng)絡攻擊和協(xié)同輿論壓制呈現(xiàn)常態(tài)化與精細化趨勢。諸如利用ChatGPT所生成的AI代理人(AI Agent)模擬高度“類人化”的行為,通過注冊虛假賬戶、盜用他人身份信息、構(gòu)造虛構(gòu)的個人資料(如頭像、發(fā)布歷史、興趣偏好)以及生成大量虛假關注者網(wǎng)絡等手段,潛移默化地嵌入政治傳播鏈條。在此基礎上,人工智能通過生成并發(fā)布虛假政治聲明、偽造社會議題、擴散偏置信息等方式操控輿論。同時,輔之以程序化、自動化操作,如“自動點贊”“自動轉(zhuǎn)發(fā)”等方式,制造出虛假的政治互動氛圍,形成一種人機混淆的“情景幻覺”。此外,借助調(diào)用編程接口(API),政治機器人能夠模擬人類用戶與社交平臺之間的溝通模式,就特定議題展開預設式對話,進一步模糊了人機之間的界限。[10]另一方面,以FraudGPT為代表的人工智能作案工具的出現(xiàn),使得網(wǎng)絡犯罪分子能夠低成本開展高質(zhì)量的“網(wǎng)絡釣魚”活動,在幾秒鐘內(nèi)幾無破綻地復制銀行網(wǎng)站,此類AI代理可被用來制作數(shù)百萬個針對特定受害者的個性化騙局。此外,以深度偽造為代表的生成式人工智能還可用于欺騙生物識別驗證系統(tǒng),創(chuàng)建足夠復雜的欺詐性文檔和視頻,以繞過客戶識別系統(tǒng)和反洗錢程序,從而實現(xiàn)社會工程欺詐。
再次,人工智能技術被“武器化”運用于軍事、政治與外交領域,有可能會降低沖突門檻、誘發(fā)外交危機并造成倫理道德挑戰(zhàn)。這突出表現(xiàn)為以下三個方面。其一,作為一種滲透武器或隱蔽性破壞武器,人工智能技術正越來越多地被用于識別國家防御系統(tǒng)、企業(yè)網(wǎng)絡和關鍵基礎設施中的安全漏洞,通過自動化網(wǎng)絡偵察和滲透測試,人工智能可以自主決策、執(zhí)行非人類道德控制的網(wǎng)絡攻擊,這些攻擊很可能會使軍事和民用通信失效,破壞交通、電網(wǎng)或金融體系,從而對國家安全和民眾的生命財產(chǎn)安全構(gòu)成直接威脅。除潛在網(wǎng)絡威脅外,人工智能還降低了開發(fā)核武器、生物武器、自動黑客工具和惡意軟件的門檻,敵對國家和恐怖組織可能用有限資源制造非常規(guī)武器,從而加劇數(shù)智環(huán)境下的殺傷性武器擴散并帶來潛在道德風險。其二,人工智能訓練所內(nèi)嵌的算法偏見會強化國家間業(yè)已存在的政治信任危機,引發(fā)兩國民眾之間的相互猜疑和“網(wǎng)絡罵戰(zhàn)”,進而破壞兩國和平交往的民意基礎,加之算法誤操作或算法本身設計缺陷觸發(fā)的網(wǎng)絡攻擊,很可能對國際關系造成重大影響。此外,在人工智能技術輕松易得且難以追蹤溯源的情形下,極端分子或第三方的算法陷害極易將整個國家拖入敵對或戰(zhàn)爭風險。其三,自主武器的使用可能會改寫戰(zhàn)爭規(guī)則并沖擊戰(zhàn)略穩(wěn)定,引發(fā)新型軍備競賽。有學者擔憂,人工智能軍事武器的研發(fā)與應用將會使各國更難研判和評估彼此的軍事實力和戰(zhàn)略行動,大國間因人工智能應用而引發(fā)的猜疑和誤解將會加劇,“算法黑箱”問題將使軍備競賽風險進一步上升。[11]
綜上所述,作為一種新式競爭工具,人工智能武器能夠輕松越過國家的物理疆界,對他國進行悄無聲息的政治擾動和經(jīng)濟打擊,以至于傳統(tǒng)的國家主權(quán)原則形同虛設。在數(shù)智時代,人工智能將被廣泛且頻繁應用于社會場景。就此而言,人工智能不僅已成為新的風險源和安全挑戰(zhàn),其本身也在嵌入社會結(jié)構(gòu)的過程中具有了安全本體的意義。
治理人工智能風險:以計算思維塑造計算時代的安全防護
伴隨著ChatGPT和DeepSeek的爆火,人工智能“奇點”將至,人工智能在給人們的社會生活帶來便利和機會的同時,風險和威脅也如影隨形。置身人工智能時代,合理利用人工智能已成為塑造新型競爭優(yōu)勢、維護國家安全的重中之重。以美國為首的西方國家已把人工智能領域的競爭上升為國家優(yōu)先戰(zhàn)略,未來國際秩序的重塑也正在以人工智能競爭為核心賽道展開。借助人工智能工具對推特(現(xiàn)為X)、谷歌和微博等平臺信息進行挖掘與計算,安全觀察者得以實現(xiàn)對復雜政治社會動態(tài)的前瞻性把握。人工智能不僅能夠服務于動態(tài)追蹤大規(guī)模城市抗議的空間分布與時間演化路徑,識別潛在的恐怖主義活動線索,還可輔助解析國家層面的戰(zhàn)略安全風險。政治實踐者借助人工智能工具對利益攸關人群進行精細劃分、對政治態(tài)勢進行整體感知、對危機進行預警和預測,提升了決策的科學性和政治溝通的效率。毫無疑問,盡管圍繞數(shù)據(jù)獲取的正當性、“算法黑箱”問題及隱私倫理問題的爭議仍廣泛存在,但人工智能嵌入安全研究與安全維護的趨勢已難逆轉(zhuǎn)。在某種意義上,由技術引發(fā)的安全風險需要采用技術思維和技術手段對抗,人工智能已成為維護國家安全的新利器。
就此而言,基于人工智能的安全治理本質(zhì)是以計算對抗計算、用智能治理智能。簡單來說,安全治理的計算思維是一種典型的社會工程思維,它假定萬物皆數(shù)、萬物皆可計算,旨在利用系統(tǒng)科學方法和計算手段來理解社會系統(tǒng)的運行,即實現(xiàn)社會環(huán)境與社會行為的可監(jiān)測、可計算與可評估。通過多源數(shù)據(jù)的即時監(jiān)控和超高性能即時計算,人工智能工具正日益成為安全治理與政治決策的關鍵技術支點。通過對社交媒體、地理信息、傳感器數(shù)據(jù)及開源情報的深度整合與即時分析,人工智能系統(tǒng)不僅能夠?qū)崿F(xiàn)對突發(fā)事件的快速感知、精準定位與動態(tài)追蹤,還能夠自動生成事件報告與危機預警,大幅提升應急響應與態(tài)勢評估的時效性與準確性。更為關鍵的是,這使得安全研究者與政治決策者得以在事態(tài)臨界點到來之前精準掌握潛在的沖突爆發(fā)點,進而部署前置性的政治溝通、風險化解與預防性外交戰(zhàn)略。
正是考慮到人工智能革命對現(xiàn)代商業(yè)體系、知識生產(chǎn)機制和政治運行邏輯的基礎性支撐作用,各國政府紛紛出臺“AI治國方略”,強調(diào)科學決策不僅依賴歷史經(jīng)驗的真知灼見,更需基于客觀數(shù)據(jù)的態(tài)勢感知與精準識別。譬如,通過協(xié)同過濾算法篩選恐怖嫌疑人、以K-Means鄰近算法進行特征聚類分析、采用PageRank算法進行網(wǎng)絡鏈接分析,以及通過隨機森林算法進行分類預測等,這些基于人工智能算法的安全應用重在自動規(guī)避數(shù)據(jù)噪音、挖掘數(shù)據(jù)關聯(lián),進而建立特征模式識別和進行分類預測。概括來說,作為數(shù)據(jù)、算法與算力的綜合運用,人工智能驅(qū)動的安全戰(zhàn)略較傳統(tǒng)安全戰(zhàn)略具有突出的即時信息捕捉、遠程監(jiān)控和深度挖掘能力。算法之下,沖突全貌乃至沖突的每一個細節(jié)都一覽無余,有助于決策者在復雜危險的環(huán)境中精確識別沖突的類型及其特征,進而生成高效且具備較高可行性的危機管控行動和人道救援方案。總體而言,在對外溝通交往、國家安全維護和沖突預防領域,人工智能應用的場景時代已經(jīng)來臨,世界各國正在競相推進基于人工智能驅(qū)動的安全理論創(chuàng)新與實踐模式布局。
首先,需要推進具有普遍共識和平衡多方利益關切的國際治理標準建設。人工智能威脅超越了國界,如果缺乏全球協(xié)調(diào),人工智能的安全治理將無據(jù)可循、無規(guī)可依。就此而言,人工智能治理是一個全球性問題,而不僅僅是一個國家問題。鑒于人工智能應用的穿透性、嵌入性和泛在性,世界各國應齊心協(xié)力,確保政府和私營部門以及非營利部門在全球范圍內(nèi)就共同的原則和可執(zhí)行的保障措施保持一致,最低目標應是建立能夠確保人工智能安全發(fā)展的全球基線標準,并將人工智能安全措施納入國家政策體系與司法框架,同時推進跨國司法協(xié)調(diào)與執(zhí)法合作,確保各國行動合規(guī)且步調(diào)一致。換言之,通過遵守公認的最低國際標準,開發(fā)人員和服務提供商可以展示其人工智能系統(tǒng)的可預測性和可靠性。如果沒有這樣的全球基準框架,人工智能的安全治理很可能陷于支離破碎、漏洞叢出的境況,讓犯罪分子有機可乘。
其次,助推人工智能安全技術與標準研究并激勵市場提供安全產(chǎn)品供應。在某種程度上,人工智能技術的快速發(fā)展超過了安全標準的開發(fā)和實施速度,加之人工智能技術的復雜性和多樣性,以及人們擔心過于嚴格的標準可能會扼殺人工智能行業(yè)的創(chuàng)新和競爭,這使得制定人工智能通用標準具有挑戰(zhàn)性。此外,當下各國政府和市場對人工智能開發(fā)進行了大量投資,但與人工智能安全相關的產(chǎn)品研發(fā)資金仍然嚴重不足。盡管存在這些障礙,人工智能標準化的前景依然充滿希望,人們越來越認識到讓廣泛的利益相關者參與標準化過程的重要性,包括人工智能開發(fā)人員,消費者和監(jiān)管機構(gòu)等,特別是國際標準化組織(ISO)、電氣和電子工程師協(xié)會(IEEE)等團體正在積極開發(fā)人工智能標準,這些努力集中于人工智能系統(tǒng)的術語、道德考慮和技術規(guī)范。另外,在市場激勵方面,政府和投資機構(gòu)應充分發(fā)揮資金引導作用,可考慮為開發(fā)人工智能安全解決方案創(chuàng)造財務和運營激勵措施,包括重點投資和支持人工智能驅(qū)動的欺詐檢測、深度偽造身份驗證和高級網(wǎng)絡安全工具研究,應鼓勵將風險評估和對抗性測試整合到高風險人工智能應用程序中,并采用防御性人工智能機制來檢測和減輕對抗性操縱。
再次,建立人工智能透明度與問責機制、筑牢人工智能負責使用的安全門檻。隱私保護是監(jiān)管人工智能訓練數(shù)據(jù)的主要挑戰(zhàn),另外一個挑戰(zhàn)則來自數(shù)據(jù)偏差。如果用于訓練人工智能系統(tǒng)的數(shù)據(jù)存在偏見,人工智能系統(tǒng)很可能會產(chǎn)生不公平或歧視性的結(jié)果。因此,監(jiān)管數(shù)據(jù)以確保其具有代表性和無偏見至關重要。就此而言,建立嚴密的法規(guī)體系可以幫助建立數(shù)據(jù)隱私、偏見和透明度標準,從而促進人工智能負責任和合乎道德的使用。概括來說,監(jiān)管目標至少要涵蓋以下三點:一是數(shù)據(jù)的采集須是法律允許且經(jīng)用戶授權(quán)同意的,在技術上合乎隱私保護的各項基本要求;二是算法的訓練須是透明和可解釋的,否則基于算法的決策無法被問責;三是監(jiān)管的目的在于事前審查、事中防護與事后救濟,因而需要明確的風險評估機制和獎懲措施。當然,在不損害隱私或機密信息的情況下提高透明度可能較為困難,但是平衡安全和透明是安全使用人工智能所必需的。
綜上所述,人工智能已迅速成為我們?nèi)粘I畈豢苫蛉钡囊徊糠?,影響著政治、軍事、外交、醫(yī)療、教育、金融和娛樂等不同領域。但由于人工智能的技術復雜性、快速發(fā)展和跨多個行業(yè)的廣泛應用,監(jiān)管和治理人工智能風險越來越具有挑戰(zhàn)性。有效的人工智能治理機制需要立足理解人工智能的運行原理,以人工智能對抗人工智能、用人工智能治理人工智能,既要確保人工智能系統(tǒng)的可問責、透明度和公正性,也要促進良性競爭與防止濫用。
注釋
[1]董青嶺:《數(shù)據(jù)力量的崛起與新秩序的形成》,《世界知識》,2019年第20期。
[2][10]董青嶺:《數(shù)字外交中的深度偽造》,《中國信息安全》,2022年第10期。
[3][11]董青嶺、關意為:《算法的“武器化”:計算政治時代被嵌入的安全風險》,《東北亞論壇》,2025年第1期。
[4]朱啟超:《人工智能武器化的發(fā)展趨勢及治理策略》,《人民論壇》,2025年第2期。
[5]董青嶺、曹飛翠:《計算外交:基于智能驅(qū)動的外交革命》,《國際觀察》,2024年第2期。
[6]韓娜、孫穎:《國家安全視域下社交機器人涉華議題操縱行為探析》,《現(xiàn)代傳播》,2022年第8期。
[7]J. B. Aladetan, “Harnessing Big Data for National Security: A Review of Information Systems and Emerging Technologies in the U.S.,“ World Journal of Advanced Research and Reviews, 2024, 24(1).
[8]O. A. Osoba and W. Welser IV, “The Risks of Artificial Intelligence to Security and the Future of Work,“ RAND Expert Insights, 6 December 2017.
[9]C. J. Dunlap Jr., “The Hyper-Personalization of War Cyber: Big Data, and the Changing Face of Conflict,“ Georgetown Journal of International Affairs, 2014(15).
"Weaponization" of Artificial Intelligence and National Security in the Age of Digital Intelligence
Dong Qingling
Abstract: Currently, as the digital geopolitical competition among major powers intensifies, the trend of artificial intelligence "weaponization" has become increasingly evident. This is prominently manifested as follows: In the military field, artificial intelligence is increasingly being used by more and more countries as a military weapon; in the diplomatic field, computational diplomacy is triggering a round of smart diplomacy revolution; and in the domestic political arena, artificial intelligence is increasingly being used as a political intervention tool. Looking to the future, the social transformation driven by artificial intelligence has already begun. Under the impetus of the intelligent wave, artificial intelligence will be ubiquitous. Traditional international competition is quietly evolving into an artificial intelligence competition centered on data and algorithms. Against this backdrop, our society is more vulnerable and less secure than ever before. Artificial intelligence is not only new quality productive forces and a tool for social transformation, but also an unprecedented weapon for economic competition, military competition and political competition, posing severe challenges to national security and social stability. To cope with the technological trend changes brought about by artificial intelligence research and application, there is the need to understand artificial intelligence with computational thinking and manage the security risks brought about by the advancement of artificial intelligence technology.
Keywords: weaponization, artificial intelligence risks, computational politics, great power competition
責 編∕李思琪 美 編∕周群英
