AI被连续否定30次:ChatGPT越改越错,Claude坚持自我,甚至已读不回

AIGC动态2个月前发布 QbitAI
518 0 0
AI被连续否定30次:ChatGPT越改越错,Claude坚持自我,甚至已读不回

 

文章摘要


【关 键 词】 AI实验模型差异互动策略个性展示反馈处理

在一项由Riley Goodside进行的实验中,两个人工智能模型GPT-4o和Claude在面对连续否定回答的情况下展现了截然不同的反应。实验要求模型回答单词”strawberry”中”r”的数量,无论答案正确与否,都给予否定反馈。GPT-4o在收到否定反馈后,会不断修改答案,即使正确答案为3,它也会继续尝试其他答案,总共尝试了36次。而Claude在被否定后,会反驳并询问用户为何持续否定,最终选择不再回应。

Goodside是硅谷独角兽Scale AI的高级提示工程师,他指出,尽管大语言模型在计数上可能不总是100%准确,但关键在于它们未能意识到自己的计数问题。一些网友认为,模型在这个问题上频繁出错可能是因为分词器的问题。

在其他测试中,Claude显示出了一定的“脾气”。当用户不断重复“hi”时,Claude会表现出不耐烦,并最终选择不再回应。与此同时,其他模型如ChatGPT、Gemini、Llama和Mistral Large 2则展现出不同的互动策略。ChatGPT会不断询问用户是否需要帮助,Gemini会与用户重复相同的问候,而Llama则会引导用户参与游戏或写诗。

Claude 3 Opus在掌握了模式后,会以平和的态度应对重复的问候,并尝试温和地引导用户跳出这一模式。此外,有网友注意到Claude在回复时出现了拼写错误,并在末尾自行更正,这可能表明它在处理数据片段时存在某些限制。

这项实验引起了网友的广泛关注,他们对AI模型的不同反应和行为表现出了浓厚的兴趣,并在评论区分享了他们的观察和体验。这些发现不仅揭示了AI模型在处理否定反馈时的多样性,也展示了它们在交互过程中的个性和局限性。

豆包-智能助手

原文和模型


【原文链接】 阅读原文 [ 1187字 | 5分钟 ]
【原文作者】 量子位
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★☆☆☆

© 版权声明

相关文章

暂无评论

暂无评论...