文章摘要
【关 键 词】 人工智能、政策研究、AGI准备、非营利组织、AI安全
Miles Brundage,前OpenAI研究员,分享了他离开OpenAI的原因和未来计划。Brundage在OpenAI工作六年多,从研究科学家到政策研究主管,再到AGI Readiness高级顾问。他决定离开,以便从行业外部影响人工智能的发展,减少偏见,并追求更多的研究和出版自由。Brundage计划创办或加入非营利组织,专注于人工智能政策研究和宣传,以确保人工智能的安全和有益。
Brundage认为,无论是OpenAI还是其他前沿实验室,都没有为AGI(人工通用智能)的就绪做好准备。他强调,企业和世界是否准备好AGI,取决于安全文化、监管、事实演变等多种因素。尽管如此,他仍然认为OpenAI是一个令人兴奋的地方,对团队在安全文化和流程方面的投资感到高兴。
对于是否应该为OpenAI工作,Brundage认为这是大多数人都希望做的最具影响力的事情之一。他强调,在OpenAI工作的人应该认真对待他们的行为和言论对组织文化的影响,并可能在管理先进能力时产生积极或消极的路径依赖。
Brundage对人工智能政策的看法是,人工智能的好处和坏处都在增加,需要政府、非营利组织、民间和产业界的决策者做出深思熟虑的选择。他认为,人工智能的能力正在迅速提高,政策制定者需要更快地采取行动。他对六个相互关联的主题特别感兴趣:AI发展的评价与预测、前沿AI安全与安保监管、AI的经济影响、加速发展对人有益的AI应用、计算治理以及总体的“AI大战略”。
Brundage计划在未来几个月与潜在的联合创始人和合作者进行交流,以明确他的新组织的具体方向和工作重点。他的兴趣是面向全球的,但可能会把重点放在美国、欧盟人工智能法案的早期实施以及各种多边努力上。
原文和模型
【原文链接】 阅读原文 [ 8229字 | 33分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★