当前,人工智能尤其是生成式大模型正在以“低门槛、高效率、强渗透”的方式进入课堂、作业、教研与管理。它带来了效率红利,但也把一组更难、更现实的问题推到教育面前。

今年全国两会期间,全国政协委员,民盟上海市委副主委、上海市静安区副区长龙婉丽建议,制定教育场景生成式AI使用负面清单和推荐清单,强调杜绝“代劳式”使用,并按学段、学科、任务类型细化。她还建议,要把学术诚信教育前置到义务教育阶段,把“引用规范、事实核验、来源标注、AI输出可疑点识别”纳入课堂常规训练。


龙婉丽

在龙婉丽看来,人工智能尤其是生成式大模型会给教育带来一系列新的挑战。一是未成年人数据与隐私保护存在风险。教育处理大量未成年人信息,且往往涉及敏感信息,如学习轨迹、行为数据、心理与健康相关线索、家庭情况等,一旦随手调用公网大模型把学生作品、作业、对话记录上传到第三方平台,就可能形成数据出域与再利用风险。二是生成式AI“代劳化”趋势日渐明显。不少一线教师与家长表示孩子越来越会“出答案”,却越来越不愿“走过程”。一旦“能力外包”成为习惯,学生会在不自知中失去耐心、推理力与判断力,甚至影响到学习品质与学术诚信。三是模型输出的不确定性,可能导致教育的不稳定性。生成式AI构建学生画像时,易因数据片面、算法偏见产生价值偏差和错误引导。四是缺少教育可用的可信基础设施与治理闭环。学校既难统一数据安全与合规要求,也难形成可复用的教学范式与评价机制,更难压实平台与供应商责任。

对此,她有针对性地提出了四点建议。一是把“未成年人数据不出域”作为AI+教育工程底线。建设省市级(或地市级)教育人工智能公共底座,提供面向教育行业的统一入口、统一身份认证、统一访问策略、统一日志审计与留痕等,以及可控可审计的模型与算力服务。在制度上明确,教育数据能不出域就不出域;确需出域的,必须有合规评估、脱敏与授权机制,并可追溯、可问责。

二是把“学习过程还给学生”作为AI+教育的育人主导。制定教育场景生成式AI使用负面清单和推荐清单,强调杜绝“代劳式”使用,并按学段、学科、任务类型细化。把学术诚信教育前置到义务教育阶段,把“引用规范、事实核验、来源标注、AI输出可疑点识别”纳入课堂常规训练。对未成年人过度依赖、沉迷AI风险设置防火墙,设计分级使用权限,引入使用时长与任务类型限制。

三是把“育人闭环”作为AI+教育的治理支点。加强AI+教育的人文底座建设,把AI素养从技能课升级为通识教育和价值教育。把人文学科中嵌入人工智能课程,教导学生进行事实核验、观点区分、偏见识别、价值讨论,不仅教会“怎么用”,更要教会“什么时候不用、为什么不用”。给每个学段一条人文底线能力目标,让“人味”成为核心能力。如小学能分清“我自己想的/AI给的”,学会表达与倾听;初中能做基本核验与引用,能谈“为什么这样做对/不对”;高中能做观点论证与辨析,能运用“价值判断+证据支持”解决真实问题。建立面向教师的可用、敢用、会用支持体系,可包含AI教学支持中心,配备专职教研员与伦理顾问,指导、带领基层教师开展人工智能教育,实时响应课堂实践中的技术适配与价值争议,并提供合规培训与风险案例学习。

四是把“信创适配 + 国产安全可控”作为AI+教育的技术防线。把信创适配前置为立项门槛,关键组件接口标准化,确保数据与日志可迁移、可验证销毁,避免被单一厂商锁定。在产品端明确供应商对数据合规、内容安全、漏洞处置、版本变更可回滚与应急响应的硬责任;在学校端建立数据、权限、调用三本台账,流程写清“谁审批、谁复核、谁负责”在个人端涉及敏感数据、对外发布、评价结论必须人工复核与签名留痕。