
文章摘要
MIT的最新脑科学研究揭示了过度依赖ChatGPT等AI工具对大脑活动的负面影响。研究发现,长期使用这类工具会显著降低大脑活动水平,削弱记忆能力,并可能导致“认知惯性”。实验通过脑电图神经成像、NLP分析和行为科学,首次用数据证实了这一结论。类似的影响也出现在使用谷歌地图等导航工具时,表明过度依赖工具会削弱人的认知能力。
实验招募了54名大学生,随机分为三组:LLM组、搜索引擎组和纯大脑组。参与者需在四轮实验中完成论文撰写任务,期间使用脑电图记录大脑活动,并通过NLP分析语言特征。结果显示,纯大脑组的大脑神经连接最强,认知负荷最高,深度思考更充分,而LLM组的神经连接最弱,自主思考大幅度减少。搜索引擎组介于两者之间,需要自行整合外部信息,视觉皮层活动更多。
在论文质量与记忆方面,LLM组的论文结构更紧密规范,但内容同质化高,纯大脑组则体现出更独特的论文风格,反映了个人经验的参与。过度依赖LLM的参与者很难准确记住自己的论文,83.3%的参与者未能提供正确引用,而纯大脑组的参与者对内容记忆更深刻,只有11.1%的参与者遇到相同困难。
第四轮实验中,团队将部分参与者重新分配到相反组别,发现原本使用LLM的参与者在切换到纯大脑写作时,大脑神经连接仍然较弱,显示出对工具的依赖。而原本依靠自己完成的参与者在使用LLM时,大脑活动反而增强,表现出更高的记忆召回能力,因为他们同时整合工具建议和自主思考,没有完全依赖LLM。
研究团队指出,使用AI写作工具会降低大脑的认知参与度,长此以往大脑甚至会因为得不到充分锻炼而退化。LLM提供了一个“便利陷阱”,以降低神经连接、损伤即时记忆编码置换出的高效率,从而导致记忆衰退、创造力降低,并在切换回无辅助写作时表现出持续性的认知缺陷。长期依赖LLM会改变大脑信息处理模式,使大脑从“主动生成信息”转变为“被动筛选信息”,削弱独立思考和问题解决能力。
研究团队提醒,在学习中要避免过度使用LLM,平衡好工具辅助与自主思考。尽量将AI用于语法检查、润色或初步资料搜集,而不是直接生成核心内容和结构;在产出文章后,也要务必花时间理解消化,融入自己的见解。不要把AI当作思考的“替代品”,而应视为“辅助工具”。
原文和模型
【原文链接】 阅读原文 [ 1486字 | 6分钟 ]
【原文作者】 量子位
【摘要模型】 deepseek-v3
【摘要评分】 ★★★☆☆