文章摘要
【关 键 词】 AI安全、端云协同、数据保护、硬件安全、机密计算
随着生成式人工智能(AI)技术的快速发展,AI手机、AI PC和AI汽车等设备变得日益普及。这些设备在提供便利的同时,也引发了对安全性的担忧,因为它们在运行过程中会收集和生成大量敏感用户数据。这些数据包括个人信息、通信记录、浏览历史和生物特征数据等,一旦泄露,可能会给用户带来财产损失、身份盗用和工作中断等严重后果。
为了应对这一挑战,端云协同成为了AI应用的发展趋势。在这种模式下,终端设备负责数据的采集和预处理,而云端则承担复杂的计算任务和数据访问。这种分工合作的方式可以提高AI应用的性能和效率。然而,这也意味着需要在云端建立一个可信的环境来保护用户数据的安全。
云端可信环境的构建需要采用硬件级安全技术,如英特尔® 软件防护扩展(Intel® SGX)和英特尔® 信任域扩展(Intel® TDX),这些技术可以在内存中创建安全区域,保护敏感数据和代码。此外,还需要构建远程认证和密钥管理体系,确保只有经过验证的用户和设备才能访问云端资源。
在构建云端可信环境的过程中,CPU发挥着关键作用。与GPU或专用加速器相比,CPU具有对整个系统的全面控制能力,可以对数据的传输、存储和处理进行全面的监控和管理。例如,英特尔® 至强® 处理器就提供了SGX和TDX技术,这些技术可以为AI应用提供全方位的数据保护。
在实际应用中,阿里云企业级ECS实例g8i方案就采用了第五代英特尔® 至强® 可扩展处理器,构建了有弹性可信边界的机密计算新方案。此外,平安科技等企业也探索了基于SGX技术的安全联邦学习或隐私保护的机器学习应用。
随着AI技术的不断发展,对数据隐私和安全的需求将日益凸显。构建云端可信环境不仅为云上用户数据提供全方位的保护,也为大模型、生成式AI的个人化落地以及端云协同模式下的数据安全与隐私保护提供了有价值的参考。而英特尔® 至强® 处理器在这一过程中发挥着重要作用,为AI应用和数据的安全保障提供了可行、可用、易用和好用的保障。
原文和模型
【原文链接】 阅读原文 [ 3504字 | 15分钟 ]
【原文作者】 量子位
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★