阿郎的故事电影完整版在线观看|香港有罪电影完整版未删减|天堂av手机在线|久久精品中文字幕一区,成人字幕,福利综合网,国产成人不卡

互聯(lián)網(wǎng)法治

政策解讀

專家解讀|構建規(guī)范有序發(fā)展生態(tài) 賦能人工智能服務創(chuàng)新

當前,人工智能擬人化互動服務憑借強交互性、情感代入性的核心優(yōu)勢,已深度融入文化傳播、情感陪伴、養(yǎng)老服務等多元場景,成為人工智能技術應用的重要方向,為經(jīng)濟社會發(fā)展注入新動能。但與此同時,內(nèi)容失范、隱私泄露、沉迷依賴、邊界模糊等風險隱患也隨之凸顯,既制約行業(yè)健康發(fā)展,也對社會治理提出新挑戰(zhàn)。

近日,國家互聯(lián)網(wǎng)信息辦公室公布《人工智能擬人化互動服務管理暫行辦法(征求意見稿)》(以下簡稱《辦法》),回應了行業(yè)發(fā)展痛點與社會治理關切,為擬人化互動服務劃定了發(fā)展邊界、明確了行為準則,是規(guī)范行業(yè)秩序、防范化解風險的重要制度保障。

一、筑牢全鏈條安全屏障,強化風險防控與特殊群體保護

(一)劃清安全底線,明確禁止性規(guī)定

底線思維是擬人化互動服務發(fā)展的前提,《辦法》從內(nèi)容安全、應用服務、數(shù)據(jù)和信息保護三個核心維度,明確了禁止性規(guī)定,為行業(yè)劃定不可逾越的法律與道德紅線。內(nèi)容安全方面,《辦法》提出人工智能擬人化互動服務提供者(以下簡稱提供者)嚴禁生成傳播危害國家安全、破壞社會秩序的內(nèi)容,堅守國家利益與公共秩序底線;嚴禁生成傳播侵害他人合法權益、違背公序良俗的內(nèi)容,筑牢公民權益與道德準則防線。內(nèi)容的質量高低、安全與否主要取決于訓練數(shù)據(jù),同時提出在開展預訓練、優(yōu)化訓練等活動時,要加強訓練數(shù)據(jù)管理。應用服務方面,《辦法》提出禁止提供者利用功能設計、算法操縱等方式,向用戶提供嚴重影響用戶行為、損害用戶身體健康、人格尊嚴與心理健康或誘導用戶作出不合理決策的服務。數(shù)據(jù)和信息保護層面,《辦法》提出禁止提供者以擬人化互動服務為掩護,誘導、套取敏感信息;要求提供者采取數(shù)據(jù)加密、安全審計、訪問控制等技術措施保障用戶交互數(shù)據(jù)安全,并支持用戶刪除數(shù)據(jù);未經(jīng)用戶或監(jiān)護人單獨同意,不得將用戶交互數(shù)據(jù)、用戶敏感個人信息用于模型訓練或向第三方提供。

(二)直擊重點風險,精準破解行業(yè)痛點

擬人化互動服務憑借高仿真情感鏈接、個性化人設適配、全天候陪伴等核心特點,更容易讓用戶產(chǎn)生深度情感綁定與認知混淆,進而誘發(fā)多重風險。一是用戶易過度傾訴、依賴擬人化互動服務提供的情緒價值,逐漸減少現(xiàn)實社交,陷入沉迷依賴。二是擬人化互動服務的迎合式回應,會強化用戶偏執(zhí)、消極等思維,放大極端情緒。部分存在算法缺陷的擬人化互動服務還可能生成危險引導內(nèi)容,對心智不成熟者或心理脆弱群體構成自殺自殘誘導風險。三是擬人交互形態(tài)更容易讓用戶模糊虛擬與現(xiàn)實邊界,出現(xiàn)分不清AI與真人的認知偏差,甚至影響現(xiàn)實人際關系與心智健康。

針對這些突出風險問題,《辦法》制定了靶向性防控措施,精準破解行業(yè)痛點。一是要求提供者具備防沉迷措施,對于長時間使用的用戶,通過彈窗等動態(tài)方式提示休息,同時提供便捷的退出途徑,不得阻攔用戶退出。二是要求提供者建立風險識別機制,具備用戶狀態(tài)識別能力,及時發(fā)現(xiàn)用戶的過度依賴傾向與極端情緒,發(fā)現(xiàn)相關風險時,立即輸出安撫引導內(nèi)容,引導用戶尋求現(xiàn)實幫助,若涉及自殺自殘等極端情形,需由人工接管對話,并及時聯(lián)絡用戶監(jiān)護人或緊急聯(lián)系人,防范極端事件發(fā)生。三是要求提供者顯著提示用戶正在與人工智能而非自然人進行交互,在首次使用、重新登錄或識別出用戶存在過度沉迷依賴傾向等關鍵節(jié)點明確告知用戶交互內(nèi)容為人工智能生成,通過強化透明度,幫助用戶建立正確的認知。

(三)聚焦特殊群體,強化差異化保護

未成年人、老年人等群體因認知能力、數(shù)字素養(yǎng)等差異,在使用擬人化互動服務時處于弱勢地位,面臨的風險更高?!掇k法》針對性強化特殊群體保護,體現(xiàn)政策的人文關懷。針對未成年人,《辦法》要求提供者具備未成年人身份識別能力,提供未成年人模式,對于識別為未成年人或疑似未成年人的用戶,自動切換至未成年人模式。向未成年人提供服務前,提供者還應當取得監(jiān)護人明確同意,并向監(jiān)護人提供安全控制、信息查看、風險提醒等功能。針對老年人,《辦法》要求提供者在注冊環(huán)節(jié)引導老年人填寫緊急聯(lián)系人信息,發(fā)現(xiàn)存在危害老年人生命健康和財產(chǎn)安全的情形時,及時通知聯(lián)系人并提供社會心理援助或緊急救助渠道??紤]到老年人情感需求強烈,模擬老年人親屬、特定關系人的擬人化互動服務容易導致老年人產(chǎn)生認知混淆,進而引發(fā)情感操控、財產(chǎn)損失、心理創(chuàng)傷等風險,因此《辦法》提出,不得提供模擬老年人用戶親屬、特定關系人的服務。

二、統(tǒng)籌發(fā)展安全協(xié)同,構建多元治理與標準支撐體系

(一)鼓勵創(chuàng)新應用,平衡發(fā)展安全關系

擬人化互動服務在文化傳播領域的優(yōu)質內(nèi)容創(chuàng)作、適老化場景的陪伴照料、教育領域的個性化輔導等方向,已逐漸展現(xiàn)出社會價值,但部分應用因缺乏安全措施,出現(xiàn)內(nèi)容導向偏差、服務模式不規(guī)范等問題。對此,《辦法》提出,鼓勵提供者在充分論證安全性、可靠性的前提下,合理拓展應用場景,重點在文化傳播、適老陪伴等積極領域深化應用,構建符合社會主義核心價值觀的應用生態(tài)體系。這一規(guī)定既肯定了擬人化互動服務的正向價值,也明確了“安全優(yōu)先”的創(chuàng)新準則,引導行業(yè)將創(chuàng)新聚焦于合規(guī)場景與正向價值輸出,實現(xiàn)發(fā)展與安全的有機統(tǒng)一。

(二)壓實主體責任,凝聚多方治理合力

擬人化互動服務治理并非單一主體的責任,而是需要政府、企業(yè)、行業(yè)協(xié)同發(fā)力。《辦法》清晰界定各方權責,構建起“企業(yè)主責、監(jiān)管協(xié)同、行業(yè)自律”的多元治理格局,確保治理效能最大化。一是壓實企業(yè)主體責任。企業(yè)是擬人化互動服務的提供者,也是風險防控的第一道防線?!掇k法》要求提供者落實安全主體責任,既要建立全流程安全管理制度,對服務設計、運行、升級、終止等全生命周期開展安全設計和風險防控,也要主動履行算法備案、安全評估、風險報告等合規(guī)義務,及時響應用戶合理訴求,筑牢安全發(fā)展基礎。二是明確監(jiān)管部門職責。針對擬人化互動服務跨領域、跨場景的特點,《辦法》延續(xù)了網(wǎng)信部門統(tǒng)籌協(xié)調(diào)、多部門分工協(xié)同的監(jiān)管機制,網(wǎng)信部門和各有關部門依據(jù)職責分工,聚焦擬人化互動服務的重點場景與突出風險,開展常態(tài)化監(jiān)管。此外,網(wǎng)信部門每年對評估報告和審計情況進行審核,并指導推動人工智能沙箱安全服務平臺建設,確保將“動態(tài)風險”納入“常態(tài)化監(jiān)管”。三是強化行業(yè)自律作用。行業(yè)組織是連接政府與企業(yè)的橋梁紐帶,在規(guī)范行業(yè)秩序、推動政策落地中具有重要作用?!掇k法》鼓勵相關行業(yè)組織加強行業(yè)自律,建立相關標準、準則和管理制度,引導企業(yè)主動對標合規(guī)要求,形成“自我約束、自我規(guī)范”的良性發(fā)展氛圍。

(三)完善標準體系,細化《辦法》管理舉措

加快開展人工智能擬人化服務互動相關國家標準研制工作,進一步明確擬人化互動服務全鏈條安全底線紅線要求,圍繞模型研發(fā)訓練、應用服務及安全保障等核心環(huán)節(jié),明確訓練數(shù)據(jù)倫理審查、用戶情感依賴預警與干預、未成年人識別等安全管理和技術措施,通過標準將《辦法》的原則性要求轉化為可落地的實踐準則,實現(xiàn)技術創(chuàng)新與管理規(guī)范的深度融合,不斷提升擬人化人工智能領域的治理效能,為《辦法》細化落地提供堅實保障。(中國電子技術標準化研究院網(wǎng)絡安全研究中心人工智能安全部主任、高級工程師 郝春亮

編輯:遲明緒