
文章摘要
在温哥华 TED 2025 大会上,OpenAI 创始人山姆·奥特曼与 TED 创始人克里斯·安德森展开了一场关于 AI 技术伦理与责任的深刻对话。安德森通过竞品模型 Claude 提出了一个尖锐问题:奥特曼在推动 AI 技术发展时的伦理依据和权威性来源是什么?如果出现错误,他将如何承担责任?这一问题直指 AI 技术发展中的核心矛盾——权力与责任的脱节。
奥特曼的回应显得轻描淡写,他巧妙地将问题转移,强调 AI 的发展是“无可避免的现实”,并认为抗拒 AI 技术意味着被“击败”。这种宿命论的思维方式似乎免除了他在技术开发中的现实责任,但也引发了更多关于 AI 权力来源的质疑。安德森并未就此罢休,他引用托尔金《魔戒》中的腐败比喻,指出硅谷科技领袖的权力和财富正在膨胀,质疑他们是否能够驾驭这股力量,还是已经被其吞噬。
对话中,奥特曼对 AI 未来愿景的描述令人不安。他提到,AI 将陪伴人的一生,观察并彻底了解用户,成为他们的延伸和伙伴。这一愿景虽然描绘了 AI 的潜力,但也暴露了其与公众对隐私和监控的抗拒之间的脱节。安德森将其比作电影《她》中的情节,暗示 AI 可能在未来深度介入人类生活,甚至代表用户做出改变人生的决定。
关于 AI 的风险,奥特曼表现出一种矛盾的态度。他一方面强调 OpenAI 对安全的重视,另一方面却对开源模型可能被滥用的风险显得漫不经心。安德森指出,OpenAI 正在追求一个定义不明确的通用人工智能(AGI)目标,而这一目标可能给人类带来灭顶之灾。奥特曼承认,OpenAI 内部对 AGI 的定义尚未达成一致,这进一步暴露了公司在技术发展中的不确定性。
对话还触及了 AI 对就业和创意产业的影响。奥特曼认为,AI 既是工具也是挑战,它可能取代部分工作,但也为从业者提供了更强大的能力。他提出新的商业模式,希望让那些在风格层面启发了 AI 生成内容的创作者获得公平回报。然而,这种乐观的展望并未完全消除公众对 AI 冲击的担忧。
在监管问题上,奥特曼改变了之前的立场,从支持政府许可转为推荐使用外部安全测试框架。他强调,OpenAI 始终以谨慎态度处理安全问题,但公众对具体安全策略的制定和执行并无发言权。这种权力集中在少数技术专家手中的现状,引发了广泛的不安。
安德森建议召开小型专家峰会,为全球制定 AI 安全标准,但奥特曼更倾向于从数亿用户处收集反馈。这一看似民主的做法,实际上掩盖了用户只能从既定选项中选择的现实。正如安德森所言,人们无法通过投票来决定奥特曼和他的同事们是否应该做出这些重大决定。
对话的最后,安德森表达了对奥特曼的敬畏,但也暗示了更深的恐惧。真正令人恐惧的不是奥特曼本人,而是这套允许少数技术专家做出事关全球决策的制度。这种法理来源的缺失令人不安,但人类已经在懵懂之间走到了现在。
这场对话揭示了 AI 时代下我们面临的困境:被迫信任科技领袖的个人品质,但他们的企业架构和激励机制却越来越倾向于追求利润和权力。奥特曼的观点总结涵盖了 AI 对就业、创意产业、开源竞赛、产品开发、科学发现、安全担忧、监管定义以及个人责任等多个方面,但最核心的问题——重塑人类命运的伦理依据和权威性来源——始终悬而未决。
原文和模型
【原文链接】 阅读原文 [ 4018字 | 17分钟 ]
【原文作者】 AI前线
【摘要模型】 deepseek/deepseek-v3/community
【摘要评分】 ★★★★★