文章摘要
【关 键 词】 人工智能、深度学习、AI安全、自我增强、伦理问题
Geoffrey Hinton,图灵奖得主及深度学习先驱,在最近的专访中分享了他对人工智能未来发展的深刻见解。Hinton认为,在接下来的5到20年中,人工智能有一半的概率会超越人类的智力水平。他强调,一旦AI达到这种智能水平,我们可能面临被接管的风险,因此需要认真考虑如何控制AI。
Hinton指出,AI的快速发展令人震惊,举例来说,十年前人们难以想象如今存在的语言理解系统。他预测,未来20年内,AI将发展出超越人类智慧的超级智能。Hinton还提到,AI的智能提升可能会通过扩大规模实现,但科学突破也不容忽视,正如2017年Transformer模型的出现。
Hinton对AI的自我增强能力表示担忧,认为如果AI获得更多控制权,它们可能会发展自我保护机制,最终可能不再需要人类。他建议政府介入,要求大公司投入大量资源进行AI安全实验,以确保AI的良性发展。
Hinton还提到了与Elon Musk的友情破裂,原因是他拒绝了Musk邀请他加入xAI顾问委员会的提议。Hinton认为,Musk和其他AI领域的领军人物可能无意中成为AI发展潜在威胁的一部分,而政府监管是控制这些威胁的关键。
此外,Hinton对OpenAI的发展方向表示担忧,特别是Ilya Sutskever离开OpenAI后,他认为OpenAI没有投入足够的资源来确保AI发展的安全性。Hinton认为,公司应该至少将20%-30%的计算资源用于AI安全研究,但现实中大多数公司并未达到这一标准。
在与《环球邮报》的访谈中,Hinton讨论了AI的认知能力,特别是Chatbot在认知层面上是否具有情绪。他认为,尽管Chatbot在生理层面上与人类不同,但在认知层面上,它们理解问题的方式与人类相似,甚至可能具有情绪反应。
Hinton的这些观点强调了AI发展中潜在的风险和挑战,同时也提出了政府监管在确保AI安全方面的重要作用。他的观点提醒我们,在追求技术进步的同时,必须考虑到伴随而来的伦理和安全问题。
原文和模型
【原文链接】 阅读原文 [ 6474字 | 26分钟 ]
【原文作者】 量子位
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★