图灵奖的获奖者们,担心成为 AI 界的「奥本海默」

AIGC动态5小时前发布 geekpark
83 0 0
图灵奖的获奖者们,担心成为 AI 界的「奥本海默」

 

文章摘要


【关 键 词】 AI图灵奖强化学习技术失控大公司

2024年图灵奖授予了安德鲁·巴托和理查德·萨顿,两位在强化学习领域做出杰出贡献的科学家。他们的研究成果为AlphaGo和ChatGPT等突破性技术奠定了基础。然而,在获得这一计算机界最高荣誉后,两位科学家却对当前人工智能的发展方向表达了强烈的担忧。他们批评大公司过于注重商业利益,忽视了技术的社会影响和潜在风险。巴托和萨顿认为,当前AI公司正在“架起一座未经测试的桥梁”,让公众承担未经充分验证的技术风险。

这一现象并非孤例。2018年图灵奖得主约书亚·本希奥和杰弗里·辛顿也曾多次警告大公司对人工智能的滥用。辛顿甚至辞去谷歌职务以更自由地表达自己的观点。这些科学家的共同点在于,他们既是AI技术的奠基者,也是其发展方向的批评者。他们担心,大公司在追求技术进步的同时,忽视了技术的潜在危害,可能导致不可控的后果。

强化学习作为AI领域的核心技术之一,其原理是通过试错和反馈机制让机器自主优化行为。这一技术不仅在围棋等复杂游戏中取得了突破,还被广泛应用于自动驾驶、机器人控制和大语言模型等领域。然而,巴托和萨顿指出,强化学习的“黑箱”特性使得AI的行为模式难以解释,这增加了技术失控的风险。他们强调,技术的发展应伴随着对潜在负面影响的控制和规避,但目前的大公司并未真正做到这一点。

当前AI行业的发展模式也引发了广泛争议。大公司通过巨额投资推动技术进步,但这种“烧钱堆料”的方式被认为偏离了技术研究的初衷。根据德意志银行的研究,科技巨头在AI领域的总投资已达3400亿美元,远超许多国家的年度GDP。微软前高管史蒂芬·辛诺夫斯基指出,这种规模化的困境不符合技术发展史中成本逐渐下降的趋势。多位专家警告,AI行业正陷入一场类似核武器竞赛的军备竞赛,可能催生出超级人工智能(ASI),从而对人类文明构成威胁。

科学家们的担忧不仅限于技术本身,还包括大公司在AI发展中的角色。他们认为,AI的开发和治理需要更广泛的参与和更严格的监管。巴托和萨顿借用“造桥”的比喻,强调科技属于全人类,而资本只属于大公司。他们呼吁,AI的发展应更加注重社会责任和伦理考量,而非单纯追求商业利益。

在AI狂热的当下,这些科学家的声音显得尤为珍贵。他们从过去塑造了当下,也有立场去怀疑未来。他们的警告提醒我们,AI技术的发展不仅是技术问题,更是关乎人类文明未来命运的重大议题。正如巴托和萨顿所言,唯有在技术发展与风险控制之间找到平衡,才能确保AI真正造福人类。

原文和模型


【原文链接】 阅读原文 [ 3634字 | 15分钟 ]
【原文作者】 极客公园
【摘要模型】 deepseek/deepseek-v3/community
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...