
文章摘要
阿里巴巴Qwen团队于2024年6月16日宣布推出支持苹果MLX架构的Qwen3模型,这一举措标志着中国开源大模型在苹果设备上的本地化运行迈出了重要一步。Qwen3模型提供了4种精度和8个尺寸,用户可以根据硬件资源选择合适的模型,从而在搭载苹果芯片的设备上实现更流畅、高效的AI应用。这一技术发布不仅是对苹果MLX框架的全面支持,更是对数据隐私和个性化体验需求的积极响应。
MLX是苹果专为Apple Silicon芯片设计的高效机器学习框架,具备类PyTorch的API、兼容Numpy语法、支持C++/Swift扩展等特点,能够在iPhone、iPad、Mac等设备上高效运行模型。Qwen3模型对MLX的支持,使得苹果设备的高性能神经引擎和统一内存架构得以充分利用,从而在MacBook、iPad等设备上实现更快的推理速度和更低的能耗。此次Qwen3提供了32个MLX适配模型,涵盖从0.6B到235B的8个尺寸,以及4bit、6bit、8bit、BF16四种精度,用户可以根据硬件资源选择合适的模型精度,满足从轻量级AI助手到复杂AI内容创作的不同需求。
阿里通义千问开源负责人林俊旸表示,这一更新虽然看似小,但由于模型众多且需要大量测试,因此花费了不少时间。这种“量体裁衣”式的优化,体现了阿里与苹果硬件的积极协同,帮助苹果解决了在多样化硬件上为用户提供一致且高效AI体验的难题。值得注意的是,Qwen3发布前夕,苹果MLX Community成员已在X上宣布完成了Qwen3的适配,而此次Qwen官方团队的发布,则标志着这一技术路线将获得持续、稳定、可靠的官方支持。
Qwen系列模型已成为全球范围内最具影响力的开源模型之一,在Hugging Face等开发者社区中下载量和关注度稳居第一梯队。开发者社区对Qwen3的适配表现出极大热情,大量苹果开发者已在社区引导下自发部署和测试Qwen模型。然而,苹果在AI领域的进展相对缓慢,2024年上半年在中国智能手机市场的份额持续面临压力,部分原因在于iPhone 16系列上市初期未能提供Apple Intelligence功能。相比之下,华为、小米、OPPO、vivo等中国本土手机厂商早已将端侧AI大模型作为核心卖点,并快速迭代相关功能。
Qwen的主动适配,不仅展示了阿里在苹果生态中的技术实力,也为苹果提供了一个“即插即用”的合作伙伴,推动其在AI领域的进一步发展。国行版的Apple Intelligence仍在继续,而Qwen的适配无疑为这一进程注入了新的动力。
原文和模型
【原文链接】 阅读原文 [ 1490字 | 6分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 deepseek-v3
【摘要评分】 ★★★☆☆