AI懂我,甚至比我自己还准?一场关于“人类口味是否可预测”的真实实验

AIGC动态3小时前发布 Si-Planet
65 0 0
AI懂我,甚至比我自己还准?一场关于“人类口味是否可预测”的真实实验

 

文章摘要


【关 键 词】 AI口味预测实验过程大模型差异预测准确率人类品味

本文围绕AI能否预测人类口味展开,Edmar Ferreira通过自身浏览数据实验给出答案。

AI预测人类口味实验的背景与动机:很多人认为自己的品味独特难以被捕捉,机器无法复制。但随着生成式AI爆发,作者想知道如今的机器是否能读懂并预测“人类的口味”,于是决定用自己的浏览历史做实验。

实验面临的问题与挑战:品味难以“数字化”,它是人类区分于机器最后的堡垒。真正的喜好藏在暗处,且不稳定,会随人生阶段、文化接触和环境迁移而演化。不过,这也可能为新一代AI提供结构化理解的切口。

大模型与传统推荐系统的差异:传统推荐系统像懒散的媒人,无法深入理解用户喜好。而大语言模型(LLMs)能理解上下文、文化语境与概念之间的微妙联系,理论上具备更强的个性化推荐能力。

实验过程与结果:作者收集自己在Hacker News和Readwise Reader Shortlist的浏览数据。无上下文时,AI预测准确率低;添加“品味提示”后,准确率大幅提升;微小提示优化也有稳定提升;“二选一”相对判断方式效果更好,在Hacker News实验中准确率最高达80.9%。

实验揭示的深层差异与隐忧:实验验证LLMs可理解、编码并应用个体偏好,但也显示出差异。加入“品味准则”能显著提升准确率;“二选一”判断更接近人类行为逻辑;在多元内容场景下,AI预测准确率下降。

预测与不可预测之间的思考:基础模型无上下文时几乎乱猜,说明人的兴趣判断私密且非共识。但加入“品味”提示后,模型能超80%准确预测点击行为。不过,AI虽在接近人类,但真正细腻的感知、偶然的共鸣等仍保留在人类身上,只是这20%的不可预测性或许已不远。

原文和模型


【原文链接】 阅读原文 [ 2687字 | 11分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 doubao-1-5-pro-32k-250115
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...