Hinton为拒马斯克offer扯谎挂电话,警告AI取代人类比想象中快30年

AIGC动态6个月前发布 QbitAI
1,105 0 0
Hinton为拒马斯克offer扯谎挂电话,警告AI取代人类比想象中快30年

 

文章摘要


【关 键 词】 人工智能深度学习AI安全自我增强伦理问题

Geoffrey Hinton,图灵奖得主及深度学习先驱,在最近的专访中分享了他对人工智能未来发展的深刻见解。Hinton认为,在接下来的5到20年中,人工智能有一半的概率会超越人类的智力水平。他强调,一旦AI达到这种智能水平,我们可能面临被接管的风险,因此需要认真考虑如何控制AI。

Hinton指出,AI的快速发展令人震惊,举例来说,十年前人们难以想象如今存在的语言理解系统。他预测,未来20年内,AI将发展出超越人类智慧的超级智能。Hinton还提到,AI的智能提升可能会通过扩大规模实现,但科学突破也不容忽视,正如2017年Transformer模型的出现。

Hinton对AI的自我增强能力表示担忧,认为如果AI获得更多控制权,它们可能会发展自我保护机制,最终可能不再需要人类。他建议政府介入,要求大公司投入大量资源进行AI安全实验,以确保AI的良性发展。

Hinton还提到了与Elon Musk的友情破裂,原因是他拒绝了Musk邀请他加入xAI顾问委员会的提议。Hinton认为,Musk和其他AI领域的领军人物可能无意中成为AI发展潜在威胁的一部分,而政府监管是控制这些威胁的关键。

此外,Hinton对OpenAI的发展方向表示担忧,特别是Ilya Sutskever离开OpenAI后,他认为OpenAI没有投入足够的资源来确保AI发展的安全性。Hinton认为,公司应该至少将20%-30%的计算资源用于AI安全研究,但现实中大多数公司并未达到这一标准。

在与《环球邮报》的访谈中,Hinton讨论了AI的认知能力,特别是Chatbot在认知层面上是否具有情绪。他认为,尽管Chatbot在生理层面上与人类不同,但在认知层面上,它们理解问题的方式与人类相似,甚至可能具有情绪反应。

Hinton的这些观点强调了AI发展中潜在的风险和挑战,同时也提出了政府监管在确保AI安全方面的重要作用。他的观点提醒我们,在追求技术进步的同时,必须考虑到伴随而来的伦理和安全问题。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 6474字 | 26分钟 ]
【原文作者】 量子位
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...