構建生成式人工智能的安全治理新機制
在數(shù)字經濟與智能革命浪潮中,生成式人工智能已深度融入基層政務信息處理、媒體內容創(chuàng)作等領域,以知識生成延展性重塑生產要素配置,成為新質生產力發(fā)展的核心支撐。黨的二十屆四中全會通過的《中共中央關于制定國民經濟和社會發(fā)展第十五個五年規(guī)劃的建議》中強調要“加強網絡、數(shù)據(jù)、人工智能、生物、生態(tài)、核、太空、深海、極地、低空等新興領域國家安全能力建設”,凸顯了網絡、數(shù)據(jù)、人工智能等數(shù)字技術領域在國家安全中的重要意義。事實上,傳統(tǒng)的“先發(fā)展后治理”路徑不僅可能陷入“技術發(fā)展初期難以預測風險,后期風險成型又難以管控”的科林格里奇困境,還可能錯失全球AI競爭中的風險防控窗口期。唯有以總體國家安全觀為指引,構建韌性防御與激勵創(chuàng)新并重的治理機制,方能實現(xiàn)生成式人工智能治理中安全與發(fā)展的雙贏。
生成式人工智能的國家安全風險研判
有效治理的前提,是對生成式人工智能的國家安全風險形成系統(tǒng)研判。當前風險呈現(xiàn)多維度、跨領域、強關聯(lián)特征,但聚焦政治、經濟、社會安全三大核心領域的根本性風險,可為治理提供精準靶向。
政治安全層面,生成式人工智能的挑戰(zhàn)已從潛在威脅轉為現(xiàn)實沖擊,突出表現(xiàn)為虛假信息工業(yè)化生產與文化價值隱性侵蝕。與傳統(tǒng)意義上的謠言不同,AIGC虛假信息生成門檻極低,普通人借助簡易工具即可完成,且能精準適配地域“需求”。這正是中央網信辦“清朗·整治‘自媒體’發(fā)布不實信息”專項行動將其列為重點整治對象的核心原因。更隱蔽的風險在于AI訓練數(shù)據(jù)存在內嵌的文化偏好,別有用心者可通過數(shù)據(jù)植入,在文學創(chuàng)作、歷史重構中潛移默化地影響認知。而這容易模糊青少年群體的主流價值觀認知,侵蝕國家文化安全根基。
經濟安全領域,生成式人工智能使得崗位替代成為社會熱議話題,同時有關技術的“卡脖子”問題則成為產業(yè)安全的最大軟肋。目前,由AI引起的就業(yè)結構失衡風險已顯現(xiàn),但與此同時,適配AI時代的職業(yè)培訓體系尚未完全成型。更需警惕的是技術依賴風險,我國人工智能產業(yè)所需要的高端CPU、GPU仍依賴進口,自主芯片在算力密度、能耗比上還有差距。部分國家試圖通過小院高墻策略實施芯片出口限制與技術封鎖,而這一行為一旦導致產業(yè)鏈核心環(huán)節(jié)斷裂,將直接威脅我國AI產業(yè)供應鏈安全與科技自主權。
社會安全維度,風險已直接觸及公眾安全感,其中AI詐騙與隱私泄露尤為突出。AI擬聲、擬像技術可通過個人語音片段或照片精準模仿他人特征,催生親情詐騙、商務欺詐等新型犯罪。隱私安全更如定時炸彈:醫(yī)療、教育等垂直領域大模型收集的海量敏感數(shù)據(jù),既是黑客牟利目標,更可能通過模型推演泄露關鍵信息,如某能源企業(yè)利用AI優(yōu)化產能時,模型竟可以通過生產數(shù)據(jù)推算出能源儲備與核心設備參數(shù),直接關涉國家能源安全。
總體國家安全觀引領治理框架構建
生成式人工智能的治理絕非零散措施的堆砌,需以總體國家安全觀為指引構建“理論指導—實踐路徑—主體協(xié)同”的完整框架。
大安全理念要求突破單一技術風險視角,將意識形態(tài)、社會秩序、文化傳承等納入全局研判,實現(xiàn)風險的整體性、前瞻性治理;以人民為中心的目標明確AI發(fā)展需堅守科技向善,把保障人民生命財產、規(guī)范隱私信息風險作為底線;底線思維方式強調主動搶占規(guī)則制定權與技術制高點,對主權、穩(wěn)定等核心問題預置應對措施;發(fā)展與安全統(tǒng)籌原則要求,避免一刀切監(jiān)管抑制創(chuàng)新與無監(jiān)管導致風險擴散兩種極端;人類命運共同體意識則指向積極參與國際規(guī)則制定,通過技術安全合作應對跨境風險,避免被國際合作規(guī)則邊緣化。
治理機制的核心構建路徑
從治理機制構建看,需聚焦“主體、方式、依據(jù)”三大核心,形成權責清晰、技術適配、規(guī)范完備的治理體系。
治理主體層面,應構建政府主導、企業(yè)盡責、公眾參與的協(xié)同機制。政府需優(yōu)化職能配置與監(jiān)管信息共享,企業(yè)協(xié)會牽頭制定數(shù)據(jù)分級分類、風險識別等實操標準,企業(yè)則應加大安全技術研發(fā)投入,在公眾層面需強化安全意識培育,通過AI風險舉報平臺構建全民監(jiān)督網絡,讓公眾成為治理的“千里眼”。
治理方式上,應摒棄單向行政監(jiān)管模式,踐行技術治技術、產業(yè)促治理的思路。建立精細化訓練數(shù)據(jù)分級制度,如醫(yī)療數(shù)據(jù)需區(qū)分基本信息、病史記錄、基因數(shù)據(jù),明確不同級別數(shù)據(jù)的使用權限與存儲規(guī)范;數(shù)據(jù)跨境監(jiān)管推行白名單+黑名單模式,普通數(shù)據(jù)經安全評估可出境,敏感數(shù)據(jù)禁止出境,兼顧安全與國際合作。同時,要破解數(shù)據(jù)壟斷,通過公共數(shù)據(jù)共享平臺保障中小企業(yè)合規(guī)數(shù)據(jù)獲取,以反壟斷培育健康產業(yè)生態(tài);國際上則倡導技術普惠,反對技術脫鉤與單邊制裁,為我國AI企業(yè)拓展發(fā)展空間。
治理依據(jù)方面,需實現(xiàn)硬軟互補。硬法層面應在充分調研后出臺高位階人工智能法,明確AI法律屬性、管理體制與責任劃分,解決生成內容版權歸屬等爭議問題,同時,針對自動駕駛、深度合成等特定高風險場景,制定專門法規(guī),實現(xiàn)場景化精細治理。軟法層面需強化倫理準則的實操性,依托行業(yè)協(xié)會制定的各類生成式人工智能行業(yè)倫理準則,應避免空泛表述。企業(yè)必須建立倫理審查委員會,對上線模型開展風險評估,涉及公眾利益的應用需公開審查結果。此外,要將嚴重違反倫理的企業(yè)納入失信名單,以市場準入限制強化約束效力。
生成式人工智能是推動發(fā)展的引擎還是威脅安全的隱患,關鍵在于規(guī)范治理方向而非限制技術本身的發(fā)展。以總體國家安全觀為指引,將安全理念嵌入技術研發(fā)、產業(yè)發(fā)展、應用推廣全鏈條,才能確保技術向善、造福人類。(東南大學法學院 馬近斐)
編輯:遲明緒




京公網安備 11010502000576號