里约热内卢联邦大学的研究显示,虽然AI能缩短学习时间,但剥夺了大脑深入理解所需的“必要困难”,导致长期记忆效果显著下降。
如今,数以百万计的大学生正习惯于把学业任务交给生成式人工智能,利用这些程序在几秒钟内回答复杂问题或撰写论文。这种便捷的“认知外包”虽然极大地提高了初期的学习效率,但代价可能比我们想象的要沉重。里约热内卢联邦大学的André Barcaui教授最近在《社会科学与人文开放》期刊上发表的一项研究表明,过度依赖AI辅助学习,实际上正在削弱我们的长期记忆。
这项研究揭示了学习过程中一个核心的心理学原则,即“必要困难”。这意味着,当学生在理解新知识时面临适度的挑战和挣扎,大脑会建立更牢固的记忆通路,从而提高长期学习效果。而人工智能提供的即时且完美的答案,恰恰消除了这些能够稳定新记忆的“心理磨炼”。
为了验证这一动力学过程,André Barcaui招募了120名工商管理专业的本科生。他们被随机分成两组,完成一项关于人工智能伦理、社会影响和技术基础的课题研究。第一组学生使用ChatGPT作为辅助工具来解释概念和构建展示内容,而第二组则被禁止使用聊天机器人,只能依靠课程笔记、学术数据库和标准搜索引擎。
研究记录了一个显著的效率差异:AI辅助组平均仅花费3.2小时完成任务,而传统组则需要5.8小时。然而,真正的转折发生在45天后的惊喜测试中。
在那个旨在衡量概念理解能力的考试中,传统学习组的平均正确率为68.5%,而AI组仅为57.5%。这种负面影响在学习高度专业化的技术话题时表现得尤为明显。即使在排除学习时长差异的影响后,传统组的表现依然更优,这说明学习质量本身存在差异。传统学习者在阅读和手动连接想法的过程中被迫练习了信息检索,而AI用户则陷入了看似高效却未能锻炼大脑的陷阱。
这种现象会导致一种“胜任力错觉”,即软件让用户误以为自己已经掌握了知识。André Barcaui教授强调,生产力并不能取代真才实学,不加节制地使用人工智能可能会萎缩人类的综合分析和批判性思维能力。由于缺乏读写过程中的“认知摩擦”,人们可能会逐渐失去表达复杂想法和质疑信息的能力。
他指出,AI应当被定位为能力的“副驾驶”而非“自动驾驶仪”,它的作用应该是扩展人类的能力极限,而不是消除必要的努力。虽然这项研究受限于特定的学科领域和一定的参与者流失率,但它依然给教育界敲响了警钟。人类未来的价值将越来越多地从执行力转向提出正确问题并对数据进行批判性筛选的能力。