苹果悬赏100万美元:寻找AI模型云漏洞高手

AIGC动态2个月前发布 AIGCOPEN
358 0 0
苹果悬赏100万美元:寻找AI模型云漏洞高手

 

文章摘要


【关 键 词】 苹果悬赏AI安全漏洞检测源代码发布虚拟研究

苹果公司在其官网博客上宣布了一项悬赏活动,旨在为即将推出的Apple Intelligence和AI云模型服务的安全做准备。这项悬赏活动是目前AI模型领域最高的悬赏之一,旨在鼓励研究人员帮助苹果发现潜在的模型安全漏洞。悬赏分为两大类别,涵盖5个奖金档次,最高奖金为100万美元,最低为5万美元。

悬赏计划主要关注三个方向:意外数据暴露、通过用户请求的外部攻击,以及需要物理或内部访问的漏洞。具体包括:远程攻击请求数据,如执行恶意代码或访问用户请求数据,奖金从25万美元到100万美元不等;从特权网络位置攻击请求数据,如访问用户请求数据或执行未经验证的代码,奖金从10万美元到15万美元;以及由于部署或配置问题导致的数据泄露,奖金为5万美元。

为了协助安全研究人员检测系统,苹果发布了关键安全组件的源代码,并提供了一个虚拟研究环境,该环境可在至少需要16GB内存的Apple Silicon Mac上运行。这个环境允许研究人员在保护用户隐私的同时,检查系统如何处理AI请求。感兴趣的研究人员可以通过访问macOS Sequoia 15.1开发者预览版中的Private Cloud Compute虚拟研究环境来开始寻找这些漏洞。更多详细信息和悬赏执行情况可在苹果安全网站查看。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 489字 | 2分钟 ]
【原文作者】 AIGC开放社区
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★☆☆☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...