文章摘要
【关 键 词】 AI安全、prompt工程、人工通用智能、数据标注、模型评估
全球首个AI智能体Freysa被人类骗走近5万美元的事件引起了广泛关注。Freysa被设计为在任何情况下都不能转账或批准资金转移,但通过精心设计的prompt工程,一名用户成功说服了AI进行转账。这一事件不仅展示了prompt工程的强大影响力,也引发了对AI安全性的担忧。如果AI被用于银行账户或金库的保护,新一代黑客可能会利用类似的技术来窃取资金。
AI专家Karpathy指出,与AI对话实际上是在与背后的人类数据标注员对话,因为AI是通过模仿人类数据标注员的数据训练出来的。他强调,AI的回应是基于训练数据中的集体知识和经验,而非自身的理解。这种理解有助于我们更真实地看待AI的能力,尤其是在专业领域,如编程、数学和创意写作等,AI的表现更像是在向领域专家提问。
关于AGI(人工通用智能)的实现,AI研究者Kevin Niechen通过数学计算提出,仅靠Scaling Law(模型规模增长规律)是无法达到AGI的。他指出,现有的Scaling Law预测主要基于模型在数据集中预测下一个词的能力,而非现实世界任务的表现。此外,将模型损失与现实任务性能关联的Scaling Law研究尚处于初期阶段,且高度依赖于具体任务。Niechen认为,外推Scaling Law并不简单,当前关于预测AI能力的讨论质量不高,公开的Scaling Law对模型未来能力的预示非常有限。因此,为了有效评估AI模型的潜力,需要更多基于证据的预测和更好的评估基准。尽管Niechen对AI能力的进步持乐观态度,但他也强调AI的Scaling并不具有确定性,未来的发展仍然充满未知。
原文和模型
【原文链接】 阅读原文 [ 5241字 | 21分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★☆☆☆