老鷹
“不少作業(yè)和論文的AI痕跡過于明顯,這樣下去,學生的獨立思考能力可能會被削弱?!痹诟咝=淌谖膶W概論的王老師的擔憂,正成為越來越多一線教育工作者的共識。AI在帶來效率與便利的同時,也帶來了過度依賴、信息繭房裹挾等問題,對青少年的學習生活和健康發(fā)展構(gòu)成挑戰(zhàn)。
初三學生遇難題直接“拍照搜”,考試時沒有AI輔助,遇到基礎(chǔ)問題無從下手,成績下滑;短視頻平臺經(jīng)常推送美妝、穿搭內(nèi)容,高中生模仿后產(chǎn)生非理性消費;12歲男孩每天與智能音箱對話數(shù)小時,心理測試顯示其共情能力低于同齡人平均水平;女生將AI生成的虛假“明星聊天記錄”轉(zhuǎn)發(fā)致謠言四起。
以上案例是AI時代部分孩子相關(guān)能力減弱的幾個縮影。在AI技術(shù)深度重塑青少年學習與社交生態(tài)的當下,部分青少年正面臨系統(tǒng)性挑戰(zhàn):學習能力因AI標準化解題路徑而出現(xiàn)結(jié)構(gòu)性退化,消費決策陷入算法推薦的依賴性困境,社交互動被虛擬化交互替代導致真實溝通能力弱化,信息甄別則因海量AI生成內(nèi)容而陷入認知危機。這種影響呈現(xiàn)雙重性——在提升效率的同時,也潛藏認知退化、自我迷失乃至法律風險的隱憂。
去年中國青少年研究中心對全國7個省份的8500余名未成年人進行了調(diào)查,結(jié)果顯示,有六成多未成年人使用過AI,而其中僅有三成多家庭為孩子制定了AI使用管理規(guī)則。這說明未成年人使用AI的比例較高,但對未成年人相關(guān)保護嚴重滯后。而且,除了家庭內(nèi)部對未成年人使用AI缺乏必要約束之外,其他各方也需要反思。
在AI技術(shù)深度重塑教育生態(tài)的當下,學校作為青少年核心能力培育的關(guān)鍵陣地,亟須構(gòu)建科學的AI教育引導體系,以規(guī)避學生陷入AI“智能陷阱”的風險。為此,應(yīng)針對學生使用AI過程中出現(xiàn)的認知危機,制定詳盡的行為指南,通過分場景規(guī)范(學習/社交/信息消費)、動態(tài)監(jiān)測機制及家校協(xié)同,培養(yǎng)學生獨立思考和信息甄別能力,同時明確AI使用邊界,防止過度依賴。
同時,運營商應(yīng)通過技術(shù)干預、內(nèi)容監(jiān)管與用戶教育三方面協(xié)同發(fā)力,構(gòu)建未成年人AI保護體系。既要利用生物識別(如人臉識別)與實名認證技術(shù),自動識別未成年人身份,強制啟用“未成年人模式”;又要將AI生成內(nèi)容劃分為“教育輔助”“娛樂休閑”“社交互動”三類,實施差異化監(jiān)管。
2021年12月,教育部辦公廳印發(fā)通知,要求加強教育APP管理,明確提出對于那些提供和傳播“拍照搜題”等不良學習方法的作業(yè)APP,暫時下線。此舉就是為了保護未成年人獨立思考和自主學習的能力。然而在今天,不少AI工具仍對用戶不加區(qū)別地提供“拍照搜”服務(wù),這對未成年人的獨立思考能力產(chǎn)生了不利影響。
根據(jù)《未成年人保護法》《未成年人網(wǎng)絡(luò)保護條例》等法律法規(guī),無論是運營商還是平臺,都應(yīng)在依法依規(guī)推出“未成年人模式”的基礎(chǔ)上,將保護未成年人獨立思考等能力視為核心責任,以問題為導向,采取更具針對性和實效性的措施。
對此,須增強算法監(jiān)管的透明化與可審計性,建立健全企業(yè)責任機制,為行業(yè)規(guī)范發(fā)展提供制度保障。同時,既要研究制定未成年人使用AI的專項指南,也要部署學校和家庭加強針對性教育。唯有如此,才能有效規(guī)避AI對未成年人的潛在傷害。
編輯:林楠特