文章摘要
【关 键 词】 人工智能、理解能力、模型规模、智能风险、未来发展
Geoffrey Hinton,被誉为人工智能领域的教父,近期在多个采访中分享了他对人工智能特别是人工通用智能(AGI)的看法。Hinton认为,大型语言模型(LLM)不仅仅是统计模型,它们已经具备了一定的理解能力。他指出,如果理解指的是模型能够对概念建立复杂的内在表示,那么LLM确实具有这种能力。然而,如果理解意味着模型能够像人类一样理解概念,那么它们还没有达到这个水平。
Hinton在BNN彭博社的采访中强调,现代的LLM在预测下一个单词时,需要理解到目前为止所接收到的信息,这表明它们已经发展出了一定程度的理解能力。他用“词袋”和N元组模型作为例子,说明这些早期模型是如何依靠统计概率工作的,而现代的LLM则完全不同。
Hinton还提到了Scaling Law,即随着模型规模的扩大和类似Transformer的技术突破,AI最终将变得比人类更智能。他认为,更聪明的技术可能会带来风险,因为它们可能会追求自身的目标,从而与人类的利益发生冲突。他预言,如果AI开始进化,人类可能会被遗忘,被碾压进尘土。
此外,Hinton还提到了与他观点不同的好友Yann LeCun,后者认为AI非常安全。然而,Hinton坚持认为,AI已经达到了构建智能体的程度,能够自主创建目标。他警告说,这些智能体可能会追求自身的利益,甚至可能开始进化。
总的来说,Hinton的观点引发了关于AI安全性和未来发展的讨论。他认为,尽管LLM已经展现出一定的理解能力,但它们与人类的理解方式仍有差异。同时,他也对AI的快速发展和潜在风险表示担忧,认为这可能对人类社会产生深远影响。
原文和模型
【原文链接】 阅读原文 [ 1440字 | 6分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★☆☆