www.a在线观看网站,亚洲黄色网站不仅仅,亚洲一级aⅴ无码毛片小说,亚洲美女自慰黄在线观看,亚洲国产欧美三级视频网站,国产成人与黑人AV在线播放,在线观看黄wwwxx

網站首頁 | 網站地圖

人民論壇網·國家治理網> 《國家治理》雜志> 正文

推動構建人工智能全球善治新范式

摘  要:當前全球人工智能治理正面臨治理機制碎片化、技術能力全球南北方差距擴大、話語權失衡,及多元主體協(xié)同不足等結構性挑戰(zhàn)。推動智能向善,使人工智能成為公共福祉而非地緣競爭工具,已成為全球治理重要議題。中國提出以全球善治為價值導向的治理框架,強調以人為本的倫理基礎、發(fā)展權平等的普惠導向、多邊協(xié)商的共治原則和戰(zhàn)略與實踐相結合的行動基礎。推動人工智能全球善治,需從能力建設、制度倡議、標準引導和協(xié)同治理四個維度構建行動路徑,推動構建以風險可控為前提、以共益為導向、以協(xié)同為特征的全球人工智能善治新范式。

關鍵詞:全球善治  人工智能治理  全球南方

【中圖分類號】 TP18;D812                   【文獻標識碼】A

人工智能正以前所未有的速度跨越國界,深刻重塑著生產方式、社會結構與全球權力格局。作為一種通用技術,人工智能被廣泛嵌入金融、醫(yī)療、教育、交通等關鍵系統(tǒng),并迅速延伸至國家安全、社會治理和價值判斷等核心領域。人工智能的全球治理早已超越技術監(jiān)管范疇,成為涵蓋倫理規(guī)范、發(fā)展權益與安全秩序的全球制度議題。當前,如何推動人工智能“向善”,使其成為公共福祉而非地緣競爭工具,已成為全球治理的迫切課題。

“善治”(Good Governance)作為聯合國可持續(xù)發(fā)展議程中的關鍵理念之一,其核心不僅是“有效”與“有序”的制度安排,更強調公正、包容與問責的治理過程。將善治邏輯引入人工智能領域,其含義得到進一步拓展:不僅要關注人工智能部署過程中的安全性、可控性與透明性,還要關注技術是否助益于社會整體發(fā)展、是否減少結構性不平等、是否強化而非削弱全球合作網絡等。簡言之,人工智能全球善治是一項以多邊多方協(xié)同與跨領域合作為路徑的制度性建構過程,旨在確保人工智能的發(fā)展在技術上安全可控,在倫理上合乎正義,切實服務于公共利益與人類福祉。

中國始終高度重視人工智能全球治理。2024年11月,習近平主席在二十國集團領導人第十九次峰會中指出:“要加強人工智能國際治理和合作,確保人工智能向善、造福全人類。”[1]2025年4月25日,中共中央政治局就加強人工智能發(fā)展和監(jiān)管進行第二十次集體學習時,習近平總書記強調:“要廣泛開展人工智能國際合作,幫助全球南方國家加強技術能力建設,為彌合全球智能鴻溝作出中國貢獻。”[2]在《全球人工智能治理倡議》中,中國明確“以人為本”“共商共建共享”的理念和“智能向善”的宗旨,強調人工智能應服務于人類福祉。[3]中國推動人工智能全球善治的理念主張,展現出中國作為負責任大國在數字時代的擔當。

人工智能全球善治的價值邏輯與時代意義

當前全球人工智能治理理念尚未統(tǒng)一,中國以“全球善治”為價值引領,系統(tǒng)提出以人為本、合作共贏的治理框架。我們可以從倫理基礎、公共產品、治理路徑和倡議實踐四個維度,揭示中國方案的核心理念與邏輯支撐,闡明其回應時代課題、塑造全球共識的戰(zhàn)略意涵。

正當性根源:以人為本與科技向善的全球倫理基礎。人工智能的迅猛發(fā)展,不僅催生技術范式的變革,也引發(fā)全球倫理與治理范式的再思考。當算法決策深入公共生活、數據影響權力分配格局,技術治理已不僅僅是效率或創(chuàng)新問題,而是涉及人類尊嚴、社會正義與全球公平的根本議題。[4]在這一背景下,“向善”的價值取向日益成為全球人工智能治理的重要倫理基準,也構成各國在參與全球治理時爭取認同與合法性的關鍵基礎。

當前全球人工智能治理存在明顯的工具主義傾向,即將技術視為中立工具,回避其對社會結構和文化價值的深層影響。在此框架下,治理議程往往服務于效率優(yōu)先、競爭優(yōu)先的邏輯,而忽視對人類福祉、社會信任和倫理規(guī)范的系統(tǒng)回應。這種工具主義傾向,與部分發(fā)達國家主導的技術霸權相互交織,進一步導致全球倫理話語失衡與發(fā)展鴻溝固化。

因此,構建以人為本的治理框架,成為全球善治的正當性根源。所謂“以人為本”,不僅意味著保障個人數據安全和隱私權,更重要的是確保技術發(fā)展方向與人類共同利益相一致,防止技術異化和失控風險。在全球治理層面,這一理念體現為推動倫理準則的制定、優(yōu)先保障公共利益,以及建立困難群體的保護機制。聯合國教科文組織于2021年通過的《人工智能倫理問題建議書》,是一種在全球層面尋求價值共識、倡導技術向善的嘗試,強調人類尊嚴、包容性和可持續(xù)發(fā)展,應成為人工智能治理的核心支柱。

在當前治理體系碎片化、技術競爭加劇的背景下,誰能占據價值合理性的道義高地,誰便能在制度構建中贏得更廣泛的國際支持與合作基礎。正因如此,堅持以人為本、科技向善的全球倫理,不僅是一種理念共識,而且是一種制度競爭力。

普惠性導向:發(fā)展權平等與“智能鴻溝”的公共產品回應。全球人工智能治理的重要挑戰(zhàn)之一在于,技術紅利與發(fā)展機會的嚴重不均,“智能鴻溝”日益成為繼“數字鴻溝”之后,全球治理不平等的新現象。算法模型、算力基礎設施、人才儲備和數據資源的高度集中,使得少數技術強國掌握著人工智能發(fā)展的主導權,而大多數發(fā)展中國家面臨能力受限、規(guī)則缺席和話語權缺乏的多重困境。

在這一格局下,推動人工智能治理的“普惠性”已不僅是道德訴求,更是全球治理公平性的制度基石。[5]不同于傳統(tǒng)的技術擴散路徑,人工智能的特殊性在于對底層能力的高度依賴——如數據處理能力、模型訓練資源和倫理算法識別機制等,這些能力的缺失使許多國家難以有效參與人工智能議程的設計與實施。

發(fā)展權的平等不僅是指平等使用技術,更包括在人工智能治理中享有平等的發(fā)展空間、戰(zhàn)略選擇權和安全保障機制。將全球南方國家能力建設,納入全球人工智能治理的價值譜系,意味著把人工智能視為一種具備國際公共產品屬性的制度性資源,要求治理架構在機制設計上實現更強的可及性和協(xié)助性。這種理念超越傳統(tǒng)“援助—受援”范式,更強調制度共建和能力共塑。它不僅關涉技術使用層面的問題,更關乎知識生成、標準設定和風險治理等深層環(huán)節(jié)的發(fā)展權能。[6]

近年來,多個全球多邊機制開始關注人工智能能力建設議題,如聯合國技術促進機制(TFM)在可持續(xù)發(fā)展框架下支持對人工智能能力的建設。2025年第十屆聯合國科學、技術和創(chuàng)新促進可持續(xù)發(fā)展多利益攸關方論壇(STI Forum),正式強調“通過開放源代碼工具、伙伴關系等方式,擴大全球南方國家人工智能能力建設”。然而,由于全球南方國家普遍面臨資金不足、機制碎片化和技術主導方意愿低下等問題,難以形成系統(tǒng)性回應。在這一背景下,倡導普惠性導向的人工智能全球善治,不僅體現出對技術治理公平性的重視,也為全球構建共享未來的智能治理秩序,提供了理論正當性和制度前提。

共治性原則:多邊協(xié)商與制度均衡的治理路徑。人工智能作為通用性、戰(zhàn)略性的新興技術,治理問題天然跨越國界,需要不同國家、文化與制度的廣泛參與。在這種背景下,推動多邊協(xié)商與制度均衡,成為全球人工智能治理邁向善治的基本前提。所謂“共治”,不僅要求技術標準的協(xié)同制定,更要求制度安排的包容設計和參與機制的對等構建。這一理念體現全球治理正義的價值取向,即各國應在規(guī)則制定與機制協(xié)商中,擁有平等的話語權與制度空間。

然而,現實中以美國為核心的“科技小圈子”正在削弱這一共治愿景。經濟合作與發(fā)展組織發(fā)布的《人工智能原則》、七國集團的“廣島人工智能進程”,未能吸納廣大發(fā)展中國家的聲音,甚至對部分國家形成制度排斥。美歐在《安全港協(xié)議》和《歐美隱私盾牌》協(xié)定失效后,試圖通過《歐盟-美國數據隱私框架(DPF)》增強跨境數據流動標準的對接,但在與全球南方國家對接時,美歐都喪失了這種耐心。這種排他性路徑加劇了全球制度碎片化風險,也使得不同制度模式之間的信任壁壘進一步固化。

面對這一趨勢,推動人工智能全球治理走向真正的多邊共建,需要在制度設計上注重兩方面平衡:一是參與權的平衡,即確保各發(fā)展階段國家都能進入議程協(xié)商和規(guī)則設計的早期環(huán)節(jié);二是治理模型的平衡,避免單一模式主導全球規(guī)范,尊重不同國家在數據治理、技術應用和倫理判斷上的路徑差異。多邊協(xié)商機制建設,不應止步于形式上的代表性,更應關注實質上的制度共識與執(zhí)行協(xié)同。通過在聯合國系統(tǒng)中強化全球南方議題表達、在區(qū)域治理平臺中探索跨文化協(xié)調機制、在技術外交中推動利益融合,全球人工智能治理才能凝聚共識,走向合作。

行動性基礎:戰(zhàn)略倡議與實踐探索相結合。未來實現全球人工智能善治的關鍵,不僅在于理念提出的領先性,更在于實踐方案的可驗證性與可擴展性。人工智能的快速發(fā)展對治理機制的適應性提出前所未有的挑戰(zhàn),善治不僅要求共識層面的理念,更依賴于實踐維度的行動配套。

面對技術快速演進帶來的系統(tǒng)性風險,中國持續(xù)夯實自身的風險治理基礎。近年來,通過出臺《互聯網信息服務算法推薦管理規(guī)定》《生成式人工智能服務管理暫行辦法》等法規(guī),推動形成“備案—測試—評估—問責”閉環(huán)治理結構,并在多個城市試點算法風險分級、模型水印標注與內容審查機制,為高風險技術設定清晰邊界。

在這一基礎上,中國將治理經驗轉化為具有廣泛適用性的制度倡議,提出《全球發(fā)展倡議》《全球人工智能治理倡議》等,系統(tǒng)闡述智能向善、普惠共享、開放包容等重要原則,并積極推動將文化多樣性、語言包容性等要素,納入聯合國教科文組織《人工智能倫理問題建議書》等國際規(guī)范文本。與此同時,中國在二十國集團、金磚國家、亞太經濟合作組織等多邊平臺,牽頭開展算法責任、數據主權等議題對話,推動世界各國從規(guī)則共識走向項目共建。

中國還通過共建“數字絲綢之路”等國際合作,支持發(fā)展中國家建設人工智能能力培訓中心,推動算法審計工具、跨境數據治理沙盒與普惠模型開源方案的落地,著力提升全球南方國家的治理能力與制度適應性。這一系列行動表明,中國正通過“先本土治理—再國際賦能”的路徑,把價值理念轉化為具體工具與可推廣機制,推動構建以風險可控為前提、以共益為導向、以協(xié)同為特征的全球人工智能善治新范式。

人工智能全球善治面臨的結構性張力與實踐障礙

盡管關于人工智能全球治理的討論日益活躍,但現實中仍面臨制度碎片化、能力失衡、信任赤字,以及技術內生風險交織等多重張力。一方面,人工智能治理機制高度分散、全球南北方國家“數字鴻溝”擴大、規(guī)則話語權失衡和多方主體協(xié)同乏力,持續(xù)削弱全球集體行動能力;另一方面,人工智能本體具有算法黑箱、模型偏見、數據歧視和不可預測的涌現行為等技術難題,進一步放大治理的不確定性和安全風險。只有同時紓解外部制度瓶頸與內部技術復雜性,全球人工智能善治才能從理念走向可執(zhí)行路徑。

治理機制碎片化:多邊制度協(xié)調不足。當前全球人工智能治理尚處于多方起勢、規(guī)則博弈的早期階段,整體呈現出“制度供給多而散”的特征。盡管經濟合作與發(fā)展組織、聯合國教科文組織、人工智能全球合作組織等國際平臺,陸續(xù)出臺一系列人工智能倫理指南與治理建議,共同確立一套包括以人為本、公平與非歧視、透明度與可解釋性、安全性與可靠性的倫理原則,但各自的實施機制、治理重點與適用范圍存在顯著差異,難以構成系統(tǒng)性、協(xié)同性的多邊治理機制。這種碎片化的制度生態(tài),不僅造成全球治理規(guī)則的競合態(tài)勢,也弱化人工智能作為全球公共產品所需的穩(wěn)定預期與集體行動能力。

一方面,各國際組織對人工智能治理的規(guī)范側重與價值導向并不一致?!督浐辖M織人工智能原則》強調“基于風險的靈活治理”,更關注對私營部門創(chuàng)新環(huán)境的保護;聯合國教科文組織則強調倫理導向,突出對人工智能開發(fā)、使用過程中的人權保障與社會影響控制。七國集團則在2023年廣島峰會中推動“廣島人工智能進程”,提出技術透明性與“可信人工智能”的治理標準,雖帶有一定普適性意圖,但在成員范圍、議題設置上,仍體現出強烈的集團化傾向。

另一方面,現有治理平臺大多由發(fā)達國家主導,缺乏面向發(fā)展中國家的制度延展與能力兼容機制。以人工智能全球合作組織為例,盡管宣稱“包容性對話”,但在實際運作中成員結構與話語主導依然集中于歐美國家,令全球南方國家難以在制度塑造中發(fā)揮實質影響。此外,多數機制仍以倫理規(guī)范和軟性建議為主,缺乏強制性執(zhí)行架構,導致實踐中標準落實程度不一,易被技術本位主義或商業(yè)利益邏輯取代。

制度碎片化導致各國在人工智能研發(fā)、部署、跨境數據治理與責任界定方面,缺乏共識與協(xié)同。例如,在人工智能生成內容的可追溯性、算法偏見治理、數據跨境共享等關鍵問題上,不同國家和組織各自為政,難以形成統(tǒng)一規(guī)制。這一制度真空不僅阻礙全球信任體系與互認機制的建立而且為單邊主義、技術霸權與治理“內卷”提供空間,從而對全球人工智能善治前景構成長期挑戰(zhàn)。

技術能力不對稱:全球南方國家與全球北方國家“智能鴻溝”拉大。全球人工智能發(fā)展正在加劇智能鴻溝,使得本已存在的南北差距在算力基礎、數據主權與算法能力等關鍵領域呈現出結構性拉大趨勢。[7]當前人工智能發(fā)展的關鍵要素,包括高質量數據、強大的算力基礎設施、頂尖人才和研發(fā)資金,高度集中于少數技術領先國家和頭部企業(yè)手中,令廣大發(fā)展中國家在人工智能能力建設上,陷入“起步即落后”的路徑依賴困境。

在算力基礎方面,美國、歐洲等少數經濟體,主導全球高性能計算資源的部署與更新換代。非洲和拉丁美洲等地區(qū),在高性能計算中心數量與部署密度上明顯滯后。[8]即便有部分發(fā)展中國家試圖借助云平臺發(fā)展本地的人工智能,但帶寬瓶頸、服務成本和數據流動壁壘,仍制約其算力可及性。

數據主權和數據資源獲取能力的不對稱,也成為全球人工智能治理面臨的深層障礙。當前生成式人工智能系統(tǒng),大多依賴于海量多語種文本、圖像與語音數據,然而發(fā)展中國家在數據收集、清洗與本地語料體系構建方面存在嚴重短板。由于全球主流平臺與工具的開發(fā)商大多來自發(fā)達國家,人工智能系統(tǒng)的嵌入可能產生語義偏向及訓練語料不均衡現象,這些在無形中加劇全球南方國家知識體系與文化表述的邊緣化。

人才資源流動,也呈現單向流失的趨勢。人工智能領域頂尖研究人員大多集中在歐美高校、科研機構與科技企業(yè),而來自全球南方國家的人工智能人才,則面臨“訓練于本土、就業(yè)于北方”的現象。2019年,印度人工智能領域本科畢業(yè)生幾乎全部選擇出國深造,而到2022年,僅20%的人才選擇返回印度。[9]此外,受政治環(huán)境不穩(wěn)定和經濟因素影響,非洲和南亞的人工智能人才傾向于遷移至歐美等發(fā)達國家,同樣加劇全球南方國家人工智能發(fā)展困境。

這些差距并非僅僅體現為技術指標上的落后,更重要的是,它們深刻影響發(fā)展中國家在人工智能時代的議程設置能力、利益表達渠道和標準話語權的獲取能力。在沒有強有力外部支持機制的情形下,這種能力失衡將演化為“數據殖民”“算法依附”“治理空心化”等新型不平等現象,從而對全球人工智能善治目標構成威脅。

話語權失衡:標準輸出存在文化偏向。人工智能全球治理在形式上日益多邊化,實質上卻仍面臨明顯的話語權失衡。尤其在倫理規(guī)范、風險邊界與價值導向等軟法領域,個別發(fā)達國家借助技術先發(fā)優(yōu)勢與標準輸出機制,逐步確立一套以自由主義個體權利為核心的“全球模板”,在無形中將其特定歷史背景與文化偏好嵌入全球治理框架。

以2021年聯合國教科文組織發(fā)布的《人工智能倫理問題建議書》為例,雖然該文本強調包容性與普適性,但其諸多條款在執(zhí)行層面反映出西方語境中的倫理假設,如高度重視“個人隱私”“自由意志”“算法自主性”等理念,而較少觸及發(fā)展中國家所面臨的結構性問題,如數字基礎設施不足、算法不平等或數據主權缺位。這種話語體系的先行建構,雖表面上是共識性文件,卻可能形成“隱性排他”,使全球南方國家在標準博弈中處于被動位置。

部分全球技術企業(yè),也在客觀上成為標準的“隱性塑造者”。大型科技公司,如谷歌公司、Meta公司和OpenAI(開放人工智能)開發(fā)的人工智能系統(tǒng),不僅壟斷應用市場,更通過訓練語料、內容審查邏輯與接口協(xié)議等方式,將自身文化邏輯嵌入跨國平臺與算法規(guī)則中。這種“去中心化的中心化”,導致全球多語種、少數族群與本土知識體系的表述權持續(xù)被邊緣化,進而引發(fā)認知不對稱與治理摩擦。

發(fā)展中國家因缺少平臺建設與制度參與的技術基礎,在全球人工智能治理話語體系中的制度性權力有限。在經濟合作與發(fā)展組織、人工智能全球合作組織等治理機制中,全球南方國家代表性不足,一些倡議和文件制定過程中缺乏多樣性參與機制,難以形成跨文化、跨制度體系的真正協(xié)商。這種平臺結構上的排他性,加劇發(fā)展中國家的信任赤字,使其對現有治理架構產生抵觸情緒。話語權的結構性不平衡,不僅削弱人工智能全球治理的合法性,而且直接影響規(guī)則共建、責任共擔的可能性。要實現真正的全球向善,亟須構建多文化互鑒、跨體系協(xié)商的價值共識平臺。

主體協(xié)同動力不足:參與路徑模糊、機制支撐缺位。在人工智能全球治理的多邊化進程中,雖然參與主體日益多元,覆蓋政府、企業(yè)、科研機構、國際組織等,但真正實現多方協(xié)同的有效機制尚未建立,治理體系在參與邏輯、角色分工與責任劃界上,仍面臨明顯困境。

在制度設計上,現有國際治理平臺大多以國家間協(xié)商為主導,非國家行為體的正式介入機制仍屬有限。以聯合國教科文組織、經濟合作與發(fā)展組織、二十國集團等相關機制制定為例,在人工智能倫理規(guī)范或治理文件制定過程中,雖邀請部分企業(yè)與專家參與,但他們多數以“咨詢”身份出現,缺乏制度化發(fā)言權或持續(xù)性參與權。這種“外部參與”模式,無法形成真正的跨主體協(xié)同,也難以確保政策執(zhí)行中的反饋閉環(huán)。

在主體角色界定上,當前國際機制普遍缺乏對政府、企業(yè)、智庫與社會組織等多方主體的功能定位。例如,企業(yè)在技術研發(fā)和數據治理中扮演著重要角色,卻缺乏明確的責任邊界與參與通道;智庫與高校在話語建構和風險識別方面具有優(yōu)勢,但其建議機制與政策吸納路徑不清晰;而社會組織與公眾在倫理爭議與可持續(xù)性議題上具有獨特立場,卻往往被邊緣化。這種參與角色的模糊,容易造成資源冗余與責任虛化,削弱協(xié)同治理的效率與效能。

在區(qū)域治理機制中,南方國家多面臨“能力缺位”與“機制缺席”的雙重困境。一方面,許多發(fā)展中國家尚未建立跨部門、跨主體的人工智能治理架構,導致政策分工不清、執(zhí)行鏈條斷裂;另一方面,在全球治理平臺中,南方國家參與能力受限,難以通過聯盟機制或議程設置爭取自身利益,從而在多邊合作中處于話語邊緣。

跨主體之間缺乏系統(tǒng)性的協(xié)同機制,也是重要短板。目前尚缺乏能將政府治理意圖、企業(yè)技術能力與學界倫理視角有機整合的平臺,難以構建系統(tǒng)聯動、責任共擔的協(xié)作網絡。即便如人工智能全球合作組織等平臺嘗試多方參與,也常因治理議程過于宏觀、協(xié)調流程冗長而流于形式等問題,未能真正實現參與式治理。因此,推動人工智能全球善治邁向制度化協(xié)同,需要構建功能明確、責任清晰、機制穩(wěn)定的多元協(xié)同體系。這不僅意味著在制度層面引入更多參與主體,也要求對其權責、流程與機制進行制度化設計,真正將多邊協(xié)商落實為多方共建。

推進人工智能全球善治的行動方略

針對人工智能全球善治困境,中國不僅提出價值理念,更在制度建構與機制設計上不斷探索可行路徑。

能力建設維度:筑牢技術底座,推動普惠賦能。全球人工智能善治的落地,不僅依賴規(guī)則設計,更依賴風險感知能力與實踐驗證機制。一方面,中國需持續(xù)深化自身在算法審查、數據安全、倫理監(jiān)管等方面的治理實踐,形成具備可操作性、可評估性與具有廣泛適配性的本土經驗;另一方面,應基于這一技術底座,系統(tǒng)賦能全球南方國家的治理能力建設,為將治理共識轉化為行動力提供保障。

在推動全球人工智能善治的過程中,中國應優(yōu)先夯實自身的技術治理基礎,為能力賦能提供現實支撐。一方面,可迭代完善本土監(jiān)管體系,在算法備案、模型安全評估、數據保護與倫理審查等環(huán)節(jié),構建貫穿“事前—事中—事后”的閉環(huán)流程。通過強化模型可解釋性評測、開展算法安全壓力測試、提高生成內容審查與溯源能力,逐步沉淀一套體系化、可遷移的治理工具包。另一方面,應面向高風險應用場景,如大模型、個性化推薦、深度合成等,提升風險識別與分級響應能力,明確合規(guī)邊界與治理彈性,為前沿技術健康落地提供可復制、可共享的實踐范式。

在這一基礎上,中國可逐步將本土經驗轉化為面向全球南方國家的能力賦能路徑。在人才共建方面,建議通過加強與“一帶一路”共建國家高校合作,設立聯合實驗室或研究生項目,提供涵蓋風險感知、倫理設計與治理建模的課程體系,支持本土化教育體系建設。在技術共享方面,可鼓勵中國企業(yè)開放輕量化模型、開源工具與低門檻開發(fā)接口,降低全球南方國家在低算力條件下的開發(fā)壁壘。在規(guī)則賦能方面,建議編制“發(fā)展中國家人工智能治理指南”與政策參考包,結合當地數字主權與文化偏好,協(xié)助推動本地化治理規(guī)則的制定。在平臺保障方面,可借鑒現有發(fā)展援助機制,籌建“全球南方人工智能賦能中心”,作為培訓、資源對接與政策支持的一體化樞紐,常態(tài)化支持發(fā)展中國家的技術治理能力成長。通過從強化自身風險治理出發(fā),再延伸至系統(tǒng)性賦能路徑,中國可在應對人工智能技術復雜性的同時,推動全球人工智能治理向更加普惠、更加可持續(xù)的方向演進。

制度倡議維度:打造多層次、廣覆蓋的人工智能全球治理制度平臺矩陣。制度建設是人工智能全球治理的根基,而制度平臺是理念擴散與實踐落地的關鍵載體。目前國際機制存在平臺分散、制度碎片化等問題,難以有效推進人工智能向善理念的全球共識與落地轉化。中國可通過推動構建多層級、多議題、跨區(qū)域的平臺矩陣,以彌合制度落差,助力善治理念制度化。

第一類是戰(zhàn)略倡議型平臺,如設立“全球人工智能向善論壇”,聚焦倫理、發(fā)展、公平等議題,積極利用全球發(fā)展倡議對話會、世界人工智能大會、世界互聯網大會等會議組織,打造具有中國引導力的常設對話平臺。第二類是區(qū)域協(xié)同型機制,如推動中非人工智能合作或加強中國—東盟數字治理合作,以地緣與經濟發(fā)展階段為基礎,推動基礎設施共建、標準互認、數據治理合作等議題,強化全球南方國家的制度發(fā)聲。第三類是功能議題型合作機制,圍繞算法倫理、智能就業(yè)沖擊等具體領域,建設“人工智能監(jiān)管沙盒”與“全球算法評估平臺”,為技術治理提供政策試點與經驗反饋。第四類是多元參與型機制,吸納企業(yè)、智庫與技術社區(qū)共建平臺,如建立“企業(yè)人工智能治理聯盟”“數字公共產品合作計劃”,并推動中國企業(yè)參與聯合國、國際電信聯盟等技術標準制定,增強制度話語權。

標準引導維度:推進可信人工智能中國標準的國際轉化。個別國家憑技術與話語優(yōu)勢,正將“技術—倫理—法規(guī)”一體化標準全球輸出,強化中心—邊緣格局。中國推動可信人工智能國際化,既是參與規(guī)則塑造之需,也是肩負倡導普惠、公正、可控之責。與“風險中心”監(jiān)管不同,中國強調“以人為本、風險可控、發(fā)展為要”的均衡導向,更具文化適配性與可推廣性。[10]

可信人工智能標準體系需體現價值嵌入的三重底線,即倫理、公平、責任可解釋的倫理底線,數據安全與模型濫用預防的安全底線,以及保障創(chuàng)新空間的發(fā)展底線。2023年國家網信辦通過的《生成式人工智能服務管理暫行辦法》,提供了可執(zhí)行框架,為價值嵌入提供政策支撐。應推動可信人工智能標準的多元協(xié)同制定機制,可依托中國信通院、國家新一代人工智能治理專業(yè)委員會等機構組織,吸納企業(yè)、高校、智庫,通過共建“國家標準+行業(yè)共識+國際適配”路徑,推出《可信人工智能國際標準白皮書》,提升中國方案在國際標準化組織、電氣電子工程師學會等國際組織中的影響力??赏ㄟ^構建標準出海平臺機制,提升中國標準的可傳播性與可接受度。當前,中國企業(yè)在國際治理平臺上仍多以接受者或旁觀者身份出現。可推動華為、阿里、騰訊等具備國際影響力的科技企業(yè),聯合高校智庫共同設立“全球可信人工智能實踐基地”,在“一帶一路”共建國家試點落地部分可信標準,形成示范效應。

標準引導必須鼓勵技術全球化背景下的治理本地化適配。不同國家在社會價值觀、發(fā)展階段和制度文化等方面存在差異,標準國際化過程中要避免“一刀切”式價值外溢,應鼓勵在可信人工智能的核心原則下進行多樣性表達。這既是中國所秉持的共商共建共享的全球治理觀的體現,也有助于建立廣泛的國際標準共識,打破西方中心化治理框架。

協(xié)同治理維度:打造以“政企智”協(xié)同為核心的善治共同體。全球人工智能治理正日益呈現出多方主體交織互動格局,單一政府主導已難以應對復雜議題。中國需推動形成政府、企業(yè)、智庫等主體協(xié)同“走出去”的復合型治理網絡,主動嵌入全球人工智能治理關鍵節(jié)點。

在企業(yè)層面,應鼓勵具有國際影響力的科技公司,從全球規(guī)則的接受者轉向共建者,積極參與聯合國教科文組織、經濟合作與發(fā)展組織及行業(yè)聯盟的標準談判與治理協(xié)定制定,通過展示技術解決方案與倫理合規(guī)能力的雙重優(yōu)勢,贏得更多國際信任,為中國參與全球人工智能治理爭取更多實質性話語權。在智庫與高校層面,可支持智庫和高校積極參與聯合國教科文組織全球人工智能倫理與治理觀察站、全球人工智能安全峰會系列論壇、人工智能全球合作組織下設的工作組等項目,將中國的善治理念和東方哲思轉譯為全球政策語言,增強政策方案的國際適配力和傳播力。在政府層面,加強人工智能能力建設國際合作。建議面向聯合國、非盟、金磚國家、東盟等區(qū)域組織,建立全球人工智能善治對話機制,推動駐外使領館與企業(yè)、智庫形成常態(tài)聯動,統(tǒng)籌標準試點、政策研究與國際傳播,促進中國善治理念的務實落地。建議設立人工智能國際合作協(xié)調機制,統(tǒng)籌外交、科技、產業(yè)、教育等領域,確保國際合作的協(xié)調統(tǒng)一與延續(xù)性。

協(xié)同治理既可以各自走出去,也可以集體走進去。政府提供戰(zhàn)略引領,企業(yè)貢獻技術能力,智庫承擔價值轉化。這種多方主體聯動、內外協(xié)同推進的格局,將有助于推“智能向善”從倡議走向實踐,也為中國在全球人工智能治理進程中發(fā)揮更具建設性、系統(tǒng)性和可持續(xù)性的作用創(chuàng)造條件。

【本文作者為復旦大學國際問題研究院教授;本文系國家社科基金重點項目“總體國家安全觀視域下的數字主權研究”(項目編號 :23AZZ002)的階段性成果】

注釋略

責編:石 晶/美編:石 玉

責任編輯:孟雨非