중국 AI 전략 전환: 미성년자 보호 병행
전문가 해설
제가 볼 때 이 문제는 중국만의 논쟁이 아니라 전 세계 교육 시스템이 공통적으로 직면한 구조적 전환의 신호라고 생각합니다. 미국에서는 ChatGPT 등장 이후 대학들이 에세이 평가 방식을 구술시험이나 과정 중심 평가로 전환하고 있고, 유럽 일부 국가에서는 교실 내 AI 사용 가이드라인을 제도화하고 있습니다. 중국 역시 AI 산업을 국가 전략 산업으로 육성하는 동시에, 미성년자 보호와 알고리즘 관리 규제를 병행해 왔습니다. 이는 AI를 막기보다는 ‘어떻게 통제하고 구조화할 것인가’에 초점이 이동하고 있음을 보여줍니다. 장기적으로 보면 AI는 지식 접근의 비용을 급격히 낮추는 기술이기 때문에, 단순 암기나 정답 중심 교육은 구조적으로 약화될 가능성이 큽니다. 다만 중국처럼 입시 중심 구조가 강한 사회에서는 AI가 오히려 ‘결과 최적화 도구’로 작동해 경쟁을 더 정교하게 만들 가능성도 배제할 수 없습니다. 결국 향후 교육 경쟁력은 AI 사용 여부가 아니라, AI를 활용하면서도 독립적 사고력을 유지·강화하는 제도 설계에 달려 있다고 판단됩니다. 한국 역시 사교육 의존도가 높은 구조를 갖고 있는 만큼, AI가 학습 격차를 완화할지 아니면 확대할지에 대한 면밀한 정책 설계가 필요해 보입니다.
요약
최근 AI가 교육 관련 기능을 출시하여家长와 학생들에게 관심이 집중되고 있다. 이에 따라 AI가 교육 현장에 도입되면서 여러 문제점이 제기되었다. AI는 교육의 새로운 형태를 만들어내지만,同時적으로도 교육의 공정성과 일관성을 지키는 것이 중요하다.
最近,某人工智能应用推出了一系列教育相关的功能,比如拍题答疑、作业批改等,引发了家长的广泛关注,还引发了不少孩子的吐槽。与此同时,“孩子到底能不能用AI”这一话题,也成为教育学界热议的焦点。
AI进入基础教育领域,可谓一石激起千层浪。它波及的主要层面至少有3个:教育目标的震荡、教育公平与分化的问题,以及教师角色与权威结构的重构。
其实,任何有关AI与教育发展的讨论都牵动人心。首先,教育在中国社会不只是个人成长的路径,更是最重要的社会流动机制。当AI进入教育场域,它改变的不仅是“怎么学”,更可能重塑“谁有资格上升”“努力是否仍然有效”“公平是否还能被感知”等根本性问题。任何对学习路径的技术重构,都会被立即解读为对既有竞争秩序的干预。
其次,中国教育具有高度结果导向的特征,这与AI的“结果生成能力”形成了强烈共振。在AI的主导下,学习正被制度性地重构为“结果的获取”。有人认为,AI会打破中国的应试教育,我没有那么乐观。相反,我认为,AI让“不经过学习过程而获得学习成果”在技术上变得前所未有地容易。传统教育当中的考试、升学、排名、评价体系,本就是围绕可量化的结果构建的;在这种“结果消费”逻辑中,学习的正当性来自其是否“立刻有用”。而如果把AI过度当做“有用性”工具,学习者有可能从认知的生产者退化为认知产品的使用者,甚至出现“结果提升—能力停滞”的反常现象。这一点其实是教育工作者最担忧的。
第三,家庭是AI教育焦虑的放大器。在AI时代,家长对孩子学业乃至职业选择的焦虑被进一步放大。在教育领域,我们常听到一句话:“不要让孩子输在起跑线上。”在高度依赖家庭投入的教育结构中,家长既是投资者、监管者,也是风险的最终承担者。因此,是否使用AI工具,很容易被等同于“是否让孩子在起跑线上落后”的关键变量。这使得任何有关AI辅助学习、替代作业、智能辅导的讨论,都会迅速演变为集体性的焦虑扩散,而非冷静的对策评估。
由此可见,AI进入教育之所以引发如此大的关注,不仅在于技术本身的颠覆性,更在于它触动了与代际传递相关的高度制度化、情感化的社会核心议题。讨论AI与教育的关系,就不能仅仅把它当作一个技术应用问题,而应视之为一个关乎公平、努力、代际责任乃至社会未来想象的综合性命题。
因为我自己是老师,同时目前又在研究人工智能,经常会收到一些AI与教育关系方面的提问。其中一个最常被问到的问题就是:“孩子长期用AI,到底会不会变笨?”
这个问题其实是有陷阱的,简单地回答“会”或“不会”都会误导。准确地说,孩子长期使用AI,未必会“变笨”,但极有可能在某些关键认知能力上,出现退化或偏移。
如果“变笨”指的是总体智商下降,目前尚没有可靠证据支持这一点。但如果“变笨”指的是以下能力的弱化,那么风险是真实存在的——延迟满足与耐受挫折的能力,从零开始构建问题的能力,在不确定中持续思考的能力,将碎片信息整合为结构性理解的能力。
打个比方,这些能力并不等同于“知识量”,而更像是一种心智肌肉,依赖反复使用、持续负重与主动调动而得以维持。知识可以被储存、被调用,甚至被外包;但思考能力却只能在亲自参与中形成。正如身体的肌肉,一旦停止锻炼,并不会立刻消失,却会在不知不觉中松弛、退化,直至失去原有的力量。
AI潜在的问题正在这里。问题不在于技术是否“给答案”,而在于可能过早终止思考过程,而思考,又必须是由人亲力亲为的。
AI往往处在“工具”与“代理”之间的灰色地带。对学生而言,如果AI成为其“认知代理”,可能带来较高风险。其典型表现是:作业直接让AI生成,遇到不理解的内容也不追问,把“能交差”等同于“已掌握”。这样一来,不仅思考过程被外包,错误也被掩盖,学习就变成了“结果消费”。它所导致的,是问题分解能力的萎缩、中间推理能力的空心化,以及自我校正能力的外包。长此以往,孩子并非“什么都不会”,而是越来越不擅长独立思考、分辨信息的真假。
反过来,如果AI成为学生的“认知支架”,它的目标就不是提供最终结果,而是工具性地支持学生完成其尚不能独立完成的任务。若AI被恰当地设计和使用,它至少可以在问题启动阶段、推理展开阶段、反思与迁移阶段3个关键节点发挥作用。
这就要求学生以正确的方式使用AI:先自己思考,再让AI评估;要求AI展示推理路径,并与自己的推理过程对照;让AI反问、质疑、举反例,把它当作“高强度陪练”。
在这种模式下,AI发挥的不是替代作用,而是增强作用。学生被增强的能力包括:元认知(即对自身思考过程的觉察与调控)、迁移能力(能否举一反三),以及表达与修正能力。如此使用AI,孩子完全可以比没有AI的同龄人更出色。
对儿童和青少年来说,最大的挑战还不是获取知识的多寡,而是他们的心智结构如何成形。儿童和青少年往往并不会主动质疑技术系统的合理性,他们更可能把反复使用的系统,当作世界“本来就如此”的一部分。一旦AI在学习情境中长期扮演“总是可用、总是给出答案”的角色,它实际上就在参与心智规范的制定。
AI的危险在于:它总是快速给出答案,甚至带有讨好用户的倾向;它几乎不制造必要的挫败感。然而,人要想获得成长,难免经历迷茫、卡顿、试错,并在此基础上培养不轻言放弃的品格。
如果孩子的认知世界长期由AI调节,那么会出现一种偏差人格:这种偏差并非病理意义上的“异常”,而是一种在特定技术环境中被合理化、被强化的适应性人格。在面对认知困难、延迟回报、失败或不确定性时,心理承受阈值较低、情绪波动显著;内在目标生成与自我监控能力差;关系性权威错位等。
这一点怎么强调也不过分:在儿童与青少年的教育语境中,AI的核心问题从来不只是能不能教会更多知识,而是看它正在协助塑造一种怎样的心智结构。
由此看来,长期使用AI,并不会直接让孩子变笨,但可能会让他们更容易放弃成为思考的主体。要纠正这一点,关键并不在于限制AI的能力,甚至让孩子远离AI,而是要让他们在使用AI的过程中,成为一个真正的思考者。
比如,在作业设计上,可以划定一些“硬边界”:问题必须由学生自己提出;让思考过程保持可见,禁止只提交最终答案;规定学生必须在不借助AI的情况下,口头或手写解释其完成作业的核心逻辑;布置一些难以由AI完成的作业。
对于高年级学生,可以实行作业类型转向,例如:比较不同AI的回答;批判AI的假设前提;设计让AI犯错的任务,再由学生修正。此时AI不再是“作弊工具”,而是被分析的对象。而老师的任务,则是训练学生与AI对话,而非单纯接受AI输出。
归根结底,这些都是为了让学生在使用AI时,保证“大脑在场”。真正的分水岭不在于技术本身,而在于技术使用中,是否保留了那些必须由人独立完成的思考环节。学生使用AI是“变笨”了还是“变聪明”了,取决于AI被当作什么来使用。这并非由AI的能力决定,而是由人与AI的关系结构决定。
在课堂上,我常对学生讲一句话:不要让自己的大脑成为别人的跑马场。而在今天,下一代面临的新课题是:不要让自己的大脑成为AI的跑马场。
AI进入基础教育领域,可谓一石激起千层浪。它波及的主要层面至少有3个:教育目标的震荡、教育公平与分化的问题,以及教师角色与权威结构的重构。
其实,任何有关AI与教育发展的讨论都牵动人心。首先,教育在中国社会不只是个人成长的路径,更是最重要的社会流动机制。当AI进入教育场域,它改变的不仅是“怎么学”,更可能重塑“谁有资格上升”“努力是否仍然有效”“公平是否还能被感知”等根本性问题。任何对学习路径的技术重构,都会被立即解读为对既有竞争秩序的干预。
其次,中国教育具有高度结果导向的特征,这与AI的“结果生成能力”形成了强烈共振。在AI的主导下,学习正被制度性地重构为“结果的获取”。有人认为,AI会打破中国的应试教育,我没有那么乐观。相反,我认为,AI让“不经过学习过程而获得学习成果”在技术上变得前所未有地容易。传统教育当中的考试、升学、排名、评价体系,本就是围绕可量化的结果构建的;在这种“结果消费”逻辑中,学习的正当性来自其是否“立刻有用”。而如果把AI过度当做“有用性”工具,学习者有可能从认知的生产者退化为认知产品的使用者,甚至出现“结果提升—能力停滞”的反常现象。这一点其实是教育工作者最担忧的。
第三,家庭是AI教育焦虑的放大器。在AI时代,家长对孩子学业乃至职业选择的焦虑被进一步放大。在教育领域,我们常听到一句话:“不要让孩子输在起跑线上。”在高度依赖家庭投入的教育结构中,家长既是投资者、监管者,也是风险的最终承担者。因此,是否使用AI工具,很容易被等同于“是否让孩子在起跑线上落后”的关键变量。这使得任何有关AI辅助学习、替代作业、智能辅导的讨论,都会迅速演变为集体性的焦虑扩散,而非冷静的对策评估。
由此可见,AI进入教育之所以引发如此大的关注,不仅在于技术本身的颠覆性,更在于它触动了与代际传递相关的高度制度化、情感化的社会核心议题。讨论AI与教育的关系,就不能仅仅把它当作一个技术应用问题,而应视之为一个关乎公平、努力、代际责任乃至社会未来想象的综合性命题。
因为我自己是老师,同时目前又在研究人工智能,经常会收到一些AI与教育关系方面的提问。其中一个最常被问到的问题就是:“孩子长期用AI,到底会不会变笨?”
这个问题其实是有陷阱的,简单地回答“会”或“不会”都会误导。准确地说,孩子长期使用AI,未必会“变笨”,但极有可能在某些关键认知能力上,出现退化或偏移。
如果“变笨”指的是总体智商下降,目前尚没有可靠证据支持这一点。但如果“变笨”指的是以下能力的弱化,那么风险是真实存在的——延迟满足与耐受挫折的能力,从零开始构建问题的能力,在不确定中持续思考的能力,将碎片信息整合为结构性理解的能力。
打个比方,这些能力并不等同于“知识量”,而更像是一种心智肌肉,依赖反复使用、持续负重与主动调动而得以维持。知识可以被储存、被调用,甚至被外包;但思考能力却只能在亲自参与中形成。正如身体的肌肉,一旦停止锻炼,并不会立刻消失,却会在不知不觉中松弛、退化,直至失去原有的力量。
AI潜在的问题正在这里。问题不在于技术是否“给答案”,而在于可能过早终止思考过程,而思考,又必须是由人亲力亲为的。
AI往往处在“工具”与“代理”之间的灰色地带。对学生而言,如果AI成为其“认知代理”,可能带来较高风险。其典型表现是:作业直接让AI生成,遇到不理解的内容也不追问,把“能交差”等同于“已掌握”。这样一来,不仅思考过程被外包,错误也被掩盖,学习就变成了“结果消费”。它所导致的,是问题分解能力的萎缩、中间推理能力的空心化,以及自我校正能力的外包。长此以往,孩子并非“什么都不会”,而是越来越不擅长独立思考、分辨信息的真假。
反过来,如果AI成为学生的“认知支架”,它的目标就不是提供最终结果,而是工具性地支持学生完成其尚不能独立完成的任务。若AI被恰当地设计和使用,它至少可以在问题启动阶段、推理展开阶段、反思与迁移阶段3个关键节点发挥作用。
这就要求学生以正确的方式使用AI:先自己思考,再让AI评估;要求AI展示推理路径,并与自己的推理过程对照;让AI反问、质疑、举反例,把它当作“高强度陪练”。
在这种模式下,AI发挥的不是替代作用,而是增强作用。学生被增强的能力包括:元认知(即对自身思考过程的觉察与调控)、迁移能力(能否举一反三),以及表达与修正能力。如此使用AI,孩子完全可以比没有AI的同龄人更出色。
对儿童和青少年来说,最大的挑战还不是获取知识的多寡,而是他们的心智结构如何成形。儿童和青少年往往并不会主动质疑技术系统的合理性,他们更可能把反复使用的系统,当作世界“本来就如此”的一部分。一旦AI在学习情境中长期扮演“总是可用、总是给出答案”的角色,它实际上就在参与心智规范的制定。
AI的危险在于:它总是快速给出答案,甚至带有讨好用户的倾向;它几乎不制造必要的挫败感。然而,人要想获得成长,难免经历迷茫、卡顿、试错,并在此基础上培养不轻言放弃的品格。
如果孩子的认知世界长期由AI调节,那么会出现一种偏差人格:这种偏差并非病理意义上的“异常”,而是一种在特定技术环境中被合理化、被强化的适应性人格。在面对认知困难、延迟回报、失败或不确定性时,心理承受阈值较低、情绪波动显著;内在目标生成与自我监控能力差;关系性权威错位等。
这一点怎么强调也不过分:在儿童与青少年的教育语境中,AI的核心问题从来不只是能不能教会更多知识,而是看它正在协助塑造一种怎样的心智结构。
由此看来,长期使用AI,并不会直接让孩子变笨,但可能会让他们更容易放弃成为思考的主体。要纠正这一点,关键并不在于限制AI的能力,甚至让孩子远离AI,而是要让他们在使用AI的过程中,成为一个真正的思考者。
比如,在作业设计上,可以划定一些“硬边界”:问题必须由学生自己提出;让思考过程保持可见,禁止只提交最终答案;规定学生必须在不借助AI的情况下,口头或手写解释其完成作业的核心逻辑;布置一些难以由AI完成的作业。
对于高年级学生,可以实行作业类型转向,例如:比较不同AI的回答;批判AI的假设前提;设计让AI犯错的任务,再由学生修正。此时AI不再是“作弊工具”,而是被分析的对象。而老师的任务,则是训练学生与AI对话,而非单纯接受AI输出。
归根结底,这些都是为了让学生在使用AI时,保证“大脑在场”。真正的分水岭不在于技术本身,而在于技术使用中,是否保留了那些必须由人独立完成的思考环节。学生使用AI是“变笨”了还是“变聪明”了,取决于AI被当作什么来使用。这并非由AI的能力决定,而是由人与AI的关系结构决定。
在课堂上,我常对学生讲一句话:不要让自己的大脑成为别人的跑马场。而在今天,下一代面临的新课题是:不要让自己的大脑成为AI的跑马场。