超270个大模型下,如何解决“国外一开源,国内就创新”的AI安全治理挑战?|钛媒体AGI

超270个大模型下,如何解决“国外一开源,国内就创新”的AI安全治理挑战?|钛媒体AGI

 

文章摘要


【关 键 词】 AI治理大模型安全风险技术创新开源模型

阿里巴巴集团联合发布的《大模型技术发展及治理实践报告》揭示了AI技术治理与安全问题的重要性。全球AI企业数量已达3.6万家,其中美国占33.6%,中国占16%。中国已备案并对外服务的AI大模型超过270个,总注册账户数超过13亿。北京作为国内大模型产业的领头羊,备案大模型数量达到105个,头部企业占全国一半以上,赋能超过1.4万家企业。

尽管大模型技术不断进步,但安全风险和治理问题也日益凸显。全球共识认为,应有效治理大模型,确保其始终处于人类控制之下,降低安全风险,更好地服务人类发展。国内AI行业面临自主创新基础不牢、竞争力模型不多、盈利模式不明确等问题。北京互联网信息办公室副主任潘锋强调,政府部门需建立大模型全生命周期管理体系,统筹推进算力、数据等基础要素供给,夯实AI发展基础。

阿里巴巴作为全国80%科技企业和超过一半AI大模型公司的头部AI和云服务商,提供通义大模型,并持续建立安全架构。过去一年,阿里投入大量资源到AI算力基础设施建设中,”通义千问”API调用价格一年间下降了97%。目前,全球开发者基于阿里自研”通义”开源模型二次开发的衍生模型已突破8万个,阿里AI模型社区”魔搭”(ModelScope)提供超15000个优质AI模型,汇聚了600万AI开发者,累计下载量超过1亿次。

报告指出,大模型安全问题一直是学术界和工业界关注的热点。为提升大模型安全性,常见的技术可分为内生安全技术和外层护栏技术。然而,这两类技术都有缺陷。报告提出新概念”宪法人工智能(Constitutional AI)”,即通过人为设定宪法准则,对模型进行微调和强化学习,让模型和宪法准则对齐,减少人工监督工作量。

中国电子技术标准化研究院副院长范科峰表示,在AI时代,发展与安全相辅相成。AI安全标准化工作是AI安全治理的重要支撑,也是推动技术健康发展的基本保证。未来,AI技术发展与治理需要更广泛、更紧密的协作与配合。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 1479字 | 6分钟 ]
【原文作者】 钛媒体AGI
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...