美国启动「曼哈顿计划2.0」,AI进入奥本海默时刻?60亿砸向无人机,已有800个AI项目

AIGC动态4个月前发布 AIera
915 0 0
美国启动「曼哈顿计划2.0」,AI进入奥本海默时刻?60亿砸向无人机,已有800个AI项目

 

文章摘要


【关 键 词】 AI军事应用无人战斗机技术监管道德责任国际讨论

美国军方在人工智能领域的投入显著增加,目前已有800多个活跃的AI项目,并在2024年预算中为AI申请了18亿美元资金。未来五年,美国计划再拨款60亿美元用于无人协作战斗机的研发。这一趋势标志着AI在军事领域的应用正迅速扩展,引发了全球范围内对AI武器化的广泛关注。

武器公司Elbit通过其广告展示了AI无人机在城市战斗中的应用,这些自杀式无人机能够自主搜索并攻击目标。这种技术的发展已经从概念走向现实,引发了关于人类将决策权让渡给机器的讨论。美国国防部的“复制者计划”和空军的无人战斗机研发计划都体现了AI在军事领域的深度融合。

科技公司如Anduril和Palantir在军事AI领域取得了显著进展,获得了巨额合同。Anduril的创始人Palmer Luckey与五角大楼签订了无人驾驶战机项目合同,而Palantir则参与了美国陆军的AI项目,并获得了4.8亿美元的合同。这些公司的技术已经在军事行动中得到应用。

然而,随着AI技术在军事领域的应用,监管和道德问题也日益凸显。研究人员警告,许多公司和技术的运营透明度和问责度极低,形成了所谓的“双重黑箱”。在这种情况下,公众很难了解这些系统是否正确或符合道德地运作。此外,关于AI系统的道德责任和监管的讨论也变得复杂,各方对于如何实施人类监督缺乏共识。

国际社会对AI武器化的监管问题展开了讨论。在维也纳举行的一次会议上,来自143个国家的代表讨论了在战争中使用AI和自主武器的监管问题。尽管联合国安理会尚未就此达成全面性条约,但有关方面呼吁至少应确保生死决策掌握在人类手中。然而,美国等国家和军火商对增强监管的呼声表示反对。

总体来看,AI在军事领域的应用正迅速发展,但同时也带来了监管和道德方面的挑战。如何在确保国家安全的同时,对AI武器化进行有效监管,是一个亟待解决的问题。

豆包-智能助手

原文和模型


【原文链接】 阅读原文 [ 2621字 | 11分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明

相关文章

暂无评论

暂无评论...