文章摘要
【关 键 词】 AI监管、法案否决、创新阻碍、专家分歧、安全风险
加州州长Gavin Newsom否决了SB-1047法案,这一决定受到了AI领域内许多专家的欢迎。SB-1047法案旨在通过追究开发者责任来防止AI系统造成大规模人员伤亡或引发超过5亿美元损失的网络安全事件。然而,该法案遭到了业界和学界的广泛反对,因为它可能会阻碍AI的创新和研究。
州长在否决信中指出,SB-1047法案对AI部署可能带来的威胁过于放大,并且仅关注最昂贵的大规模模型,这可能会给公众一种错误的安全感。他认为,即使是较小的专有模型也可能同样危险,而法案对AI实施的监管是以遏制利于公众利益的创新为代价的。
AI领域的知名专家,如斯坦福教授李飞飞和AI泰斗吴恩达,对SB-1047的公开反对起到了关键作用。他们认为,法案的通过会对AI生态系统产生寒蝉效应,阻碍研究和创新。州长的决定被认为是对AI领域负责任治理的一次胜利。
SB-1047法案中包含了一些争议性的规定,例如要求开发成本超过1亿美元的大模型防止造成“重大伤害”,并且如果模型被用于非法活动,开发商也会受到处罚。此外,法案还要求开发者评估模型的衍生产品,防止可能造成的伤害,并且承担模糊定义的“关键伤害”责任。
批评者认为,法案过于杞人忧天,不仅会阻碍AI的创新,而且对当今AI的安全性也没有帮助。法案用所谓的“紧急开关”预防世界末日,但对Deepfake、虚假信息等已出现的安全风险却视而不见。
尽管法案后来的修正案在措辞上更加宽松,减少了加州政府追究AI实验室责任的权力,但SB-1047仍会给大型AI公司带来影响,对初创企业来说,这种打击可能是毁灭性的。州长的决定让AI公司松了一口气。
此外,SB-1047法案甚至导致了AI领域的一些知名专家之间的分歧。LeCun、李飞飞和吴恩达等公开反对法案,而Yoshua Bengio和Geoffrey Hinton则强烈支持法案。Bengio和Hinton认为,法案是相对宽松的立法,取消基本措施将是一个历史性错误。
原文和模型
【原文链接】 阅读原文 [ 2071字 | 9分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★