模型被投毒攻击,如今有了新的安全手段,还被AI顶刊接收
文章摘要
联邦学习(FL)是一种分布式的协作学习方法,它允许多个数据所有者或客户在不泄露数据隐私的情况下共同训练机器学习模型。
然而,大多数现有的FL方法依赖于集中式服务器进行全局模型聚合,这可能导致单点故障和系统安全性问题。
为了解决这些问题,FLock系统采用了点对点投票机制和奖励与削减机制,这些机制由区块链上的智能合约支持,以检测和阻止恶意行为。
FLock的理论和实证分析都证明了该方法的有效性,表明该框架对恶意客户端行为具有鲁棒性。
在传统的机器学习范式中,数据通常是集中式的,但这种方式对数据隐私和安全存在担忧。
FL作为一种解决方案,可以在不共享原始数据的情况下进行模型训练,从而保护数据隐私。
尽管如此,现有的FL方法通常无法保证客户端上传模型更新的质量,容易受到恶意行为的影响。
一些解决方案尝试结合复杂的密码协议来减轻这些问题,但这会带来显著的计算开销。
FLock.io公司及其合作研究者提出了一种基于区块链和分布式账本技术的安全可靠的FL系统框架,称为FLock。
FLock系统受到证明权益(PoS)区块链共识机制和桌面游戏《The Resistance》的启发,设计了一种全新的全局聚合多数投票机制。
在这个机制中,FL参与者需要抵押资产或代币,并通过独立验证和投票来决定是否接受全局模型更新。
这种设计旨在通过奖励诚实行为并惩罚不诚实行为,最终使恶意参与者的长期平均收益为负,从而将其排除出FL系统。
FLock的实验结果显示,该方案在有恶意节点的情况下仍然保持了稳健的性能。
恶意参与者的抵押代币随着时间的增加而减少,而诚实参与者的抵押代币则相反。
此外,恶意参与者的存活时间会随着惩罚力度的增大而缩短,但较大的惩罚力度也可能导致部分诚实节点的存活时间缩短。
FLock提出了一种基于区块链、智能合约和代币经济学的FL框架,证明了区块链和FL结合的可行性,并展示了区块链在防御投毒攻击方面的潜力。
FLock的方案已被进一步落地实现,并推出了首个版本的去中心化AI模型训练平台,面向开发者和任务创建者。
FLock团队也在探索更多维度的去中心化AI安全解决方案,如利用零知识证明解决FL中心节点作恶的问题。
此外,FLock.io公司最近完成了六百万美元的种子轮融资,由Lightspeed Faction领投。
原文和模型
【原文链接】 阅读原文 [ 2662字 | 11分钟 ]
【原文作者】 机器之心
【摘要模型】 gpt-4
【摘要评分】 ★★★★☆