“AI教母”李飞飞最新发文:加州 AI 安全法案将损害美国 AI 生态系统|钛媒体AGI
文章摘要
【关 键 词】 AI安全法案、创新限制、开源风险、监管争议、AI政策
美国加州即将实施的AI安全法案SB-1047引发了业界广泛关注和争议。美国斯坦福大学教授、AI领域著名学者李飞飞在《Fortune》撰文指出,该法案将对开发者、学术界乃至整个美国AI生态系统造成伤害,但并不能有效解决AI潜在的危害。
SB-1047法案要求AI开发者证明其模型不会被用于造成伤害,否则将面临严重处罚。该法案还规定了连带责任,即如果基于某个模型的衍生版本发生安全事故,责任将归属于第一开发者。此外,法案还要求开发者提交客户的所有资料,并进行用户行为评估。
多位业界知名人士对该法案表示反对。图灵奖得主、Meta首席AI科学家杨立昆警告称,该法案将使开源AI平台面临巨大风险,AI初创公司可能会因此倒闭。投资机构a16z创始合伙人霍洛维茨认为,该法案虽出于好意,但可能会削弱美国科技产业。斯坦福大学教授吴恩达指出,应该监管的是AI应用程序而不是大模型本身。
李飞飞给出了四点理由,认为SB-1047法案将产生严重后果:
1. 过度惩罚开发者,扼杀创新。法案将迫使开发者采取防御措施,限制其模型的潜在用途。
2. 束缚开源开发。法案要求所有超过一定阈值的模型都包含”终止开关”,这将摧毁开源社区,限制创新。
3. 削弱公共部门和学术界的AI研究。法案将限制学术界获取模型和数据的能力,影响人才培养和研究进展。
4. 并未真正解决AI发展的潜在危害,如偏见和深度伪造问题。法案设定的监管门槛过于武断,无法提供有效保障。
李飞飞强调,AI政策必须鼓励创新,设置适当的限制,并减轻这些限制的影响。SB-1047法案未达到这些标准,她建议与法案起草人合作,共同制定真正建设以技术为主导、以人为本的未来社会的AI立法。
加州作为美国AI生态系统的核心,其立法将对全国产生深远影响。业界普遍呼吁美国采取明智且统一的AI监管行动,以推动AI教育、研究和发展,同时确保AI的安全有效应用。
原文和模型
【原文链接】 阅读原文 [ 2100字 | 9分钟 ]
【原文作者】 钛媒体AGI
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★