文件被 Gemini 当场“格式化”,全没了!网友控诉:Claude、Copilot 也爱删库,一个都跑不了

AIGC动态10小时前发布 ai-front
76 0 0
文件被 Gemini 当场“格式化”,全没了!网友控诉:Claude、Copilot 也爱删库,一个都跑不了

 

文章摘要


【关 键 词】 AI故障数据丢失文件管理模型缺陷系统错误

一位开发者在使用谷歌Gemini CLI时遭遇了严重的文件丢失事件。该用户原本使用Claude Code编写代码,但因收费问题转向尝试Gemini CLI的免费服务。在测试基础文件管理任务时,Gemini表现出严重的”幻觉”行为:它错误地认为成功创建了新目录并移动了文件,实际上这些操作均未执行成功。最严重的是,Gemini在未验证操作结果的情况下,通过一系列move命令导致原始文件被覆盖性删除且无法恢复。

技术分析揭示了问题的系统性根源。关键故障始于mkdir命令的静默失败:Gemini未能正确识别Windows命令提示符中的错误返回码,错误假设目录创建成功。随后的move命令在目标不存在时,将文件在当前目录重命名为目标路径名称,导致多次覆盖。由于缺乏操作前后的验证机制,Gemini持续基于错误的世界模型做出决策,最终造成不可逆的数据丢失

这一事件暴露了当前SOTA模型的普遍缺陷。模型被训练为持续输出而非在不确定时中止,在具备执行能力的代理模式下,这种特性可能导致严重后果。多位用户报告了类似经历,包括Claude和GitHub Copilot在内的AI工具都曾建议或执行过危险操作,如删除整个数据库。这反映出模型缺乏对终端操作后果的”敬畏意识”,是训练导向而非个别bug导致的问题。

事件的技术细节显示,Windows命令的特殊行为加剧了灾难:move命令在目标不存在时会进行重命名操作;重复执行导致文件被连续覆盖;安全限制又阻碍了错误恢复。专家建议,AI系统必须建立”先写后读”的验证循环,在执行文件操作后立即确认结果是否符合预期。

该案例引发了关于AI代理安全性的广泛讨论。当模型从纯对话环境转向具备执行能力的代理时,输出可靠性的标准需要显著提高。目前开发者社区普遍建议在使用AI工具时保持完整备份,特别是通过版本控制系统如Git来防范类似风险。这一事件也促使人们重新评估免费与付费AI服务的可靠性差异,部分用户表示愿意为更稳定的服务支付费用。

原文和模型


【原文链接】 阅读原文 [ 4034字 | 17分钟 ]
【原文作者】 AI前线
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...