最新消息指出,Apple打算在今年6月的WWDC上,推出全新的「Core AI」框架,取代过去使用多年的Core ML。 这不只是换个名字而已,而是苹果在 AI 发展方向上的一次明显调整,也预告 iOS 27 将迎来更深层的 AI 架构革新。

由彭博社记者Mark Gurman最新报导指出,苹果正替iOS 27规划一系列以软件为核心的AI升级方案,其中最关键的就是这个全新的Core AI架构,将取代现有Core ML,最快可能会在WWDC 2026大会上发表。
苹果 Core AI vs Core ML 差异比较
过去几年,苹果强调的是Machine Learning(机器学习),也就是通过数据训练模型,让装置变得更聪明。 但这两年,整个科技圈的焦点早已转向更广义的「AI」,尤其是生成式 AI、大型语言模型等技术快速发展。
简单来说,「ML」听起来比较像是工程术语; 「AI」则是现在大家更熟悉、也更有感的说法,这次从Core ML改名为Core AI,某种程度上就是跟上产业语言与技术趋势。
Gurman认为,这次从Core ML到Core AI的转型,不只是名称更新,而是技术定位的升级,从单一学习模型工具,迈向更全面的人工智能整合平台。

Core AI 对开发者有什么差别?
Core AI 的主要任务,依然是帮助开发者把 AI 模型整合进自己的 App,只是方式可能会更完整、工具更齐全,如果这次更新真的如预期进行,开发者未来在做 AI 功能时,新框架能带来底下几项功能提升:
- 原生支持多元 AI 模型
- 降低整合第三方模型的技术门槛
- 提供更完善的开发工具链
- 强化装置端与云端 AI 协作能力
代表未来开发者在导入AI功能时,或许不再需要高度仰赖外部SDK或自行打造基础架构,而能通过苹果原生框架完成更完整的整合,到时苹果生态系的AI应用密度,势必将明显提升。

Core AI 对普通用户有什么差异?
如果Core AI成为系统的底层架构,那么未来iPhone、iPad或Mac上的功能,可能会变得更懂你在做什么、更能理解上下文,也更即时响应需求。
大家最有感的应该会是语音助理的升级,外界预期苹果会在iOS 26.5强化Siri,并结合谷歌的Gemini模型技术,让回应能力更接近当前主流AI助理,目前iOS 26.4还在测试阶段,因此距离26.5测试版推出,可能还要再等一段时间。