苹果iOS 27将让用户自选第三方AI模型

据TechCrunch报道,苹果计划在即将推出的iOS 27系统中引入一项革命性功能:用户可根据不同任务需求,自由选择使用哪家公司的第三方AI模型。这一“选择你自己的冒险”式设计,打破了苹果一贯的封闭生态,标志着其在AI战略上的重大转向。从文本生成到图像处理,从语音助手到日程管理,用户将能在系统层面灵活切换不同AI引擎,享受更个性化、更强大的智能服务。此举不仅回应了市场对AI多样性的呼声,也暗示苹果正加速从自研模型向开放平台过渡。

据科技媒体TechCrunch独家报道,苹果计划在2026年发布的iOS 27系统中推出一项颠覆性功能——用户将能像翻阅一本“选择你自己的冒险”(Choose Your Own Adventure)书籍一样,为自己手机上的不同任务挑选心仪的第三方AI模型。这一消息若属实,将是苹果在人工智能领域迄今为止最大胆的开放举措。

从“围墙花园”到“AI集市”

长期以来,苹果以封闭生态著称,其AI能力主要依赖自研的Siri、Core ML及内部模型。然而,随着ChatGPT、Gemini、Claude等第三方大模型的崛起,用户对AI的期待已远超Siri所能提供的范畴。据知情人士透露,苹果高层意识到仅靠内部团队无法在所有AI赛道保持领先,因此决定在iOS 27中开放一个“AI模型市场”——用户可在设置中为“写作助手”“图像生成”“语音交互”“数据分析”等不同场景,分别指定由OpenAI、Google、Anthropic或Meta等公司的模型来提供服务。

“我们想让用户成为自己手机的AI导演。”一位不愿具名的苹果工程师在匿名论坛中写道,“他们可以决定让GPT-6来写诗,让Gemini来规划路线,让自家的模型处理隐私敏感数据——这就像选择不同的工具来完成不同的工作。”

核心实现与隐私权衡

据悉,iOS 27将引入一个名为“AI Engine Switcher”的系统级控制面板。用户首次开机或升级系统后,会被引导选择不同AI功能的默认模型,并可根据后续需求随时切换。苹果强调,所有第三方模型都将运行在安全沙箱(Secure Enclave)中,且需通过苹果的隐私合规审核。部分模型将支持端侧推理,以降低数据上传风险;对于必须联网的云模型,苹果声称会采用“差分隐私”和“匿名化路由”技术保护用户数据。

但这一设计也引发争议。安全专家指出,第三方AI模型可能自带后门或数据留存机制,苹果的审核体系能否杜绝风险尚存疑问。此外,不同模型的能力差异可能导致用户体验割裂——例如,用户用Claude写的邮件突然换成Gemini回复,风格可能不一致。苹果的解决方案或许是提供“一致性滤镜”,但具体细节尚未披露。

行业背景:苹果迟到的开放

事实上,科技巨头开放AI平台已非新鲜事。微软早在2023年就将OpenAI模型融入Copilot,并允许开发者接入其他模型;Google的Vertex AI平台更支持多模型路由。苹果的此次跟进,一方面是为了应对竞争对手在AI领域的先发优势,另一方面也是安抚日益挑剔的开发者群体——许多iOS开发者抱怨被锁死在苹果有限的AI能力中。

业内分析师认为,苹果此举可能带来连锁反应:首先,它将迫使主流AI公司为iOS系统优化模型,从而推动跨平台标准化;其次,用户的选择权可能倒逼苹果加速自研模型迭代,否则用户会大面积流向第三方;最后,这也可能成为苹果反垄断审查的新靶心——若苹果对第三方模型收取过高佣金或限制竞争,将引发新一轮监管博弈。

编者按:风险与机遇并存的“AI自由”

让用户自行选择AI模型,表面看是赋予了自由,实则将决策负担转嫁给了普通消费者。绝大多数用户并不具备评估模型优劣的专业知识,他们可能会被品牌效应或营销话术误导,选择并不适合自己需求的模型。苹果或许需要引入某种“AI模型评分系统”或“场景推荐引擎”,帮助用户做出明智选择。

另一方面,这一策略也暗示苹果可能正在放弃“提供完整统一体验”的执念。在乔布斯时代,苹果相信“用户不知道他们想要什么”;而在库克治下,苹果越来越倾向于听取用户声音。从隐私标签到应用追踪透明度,再到如今的AI模型自主权,苹果正在将越来越多的控制权交给用户——这究竟是进步还是妥协,或许只有时间能给出答案。

无论如何,iOS 27的这步棋已经让整个AI行业为之侧目。如果一切顺利,我们或许将迎来一个“AI模型即插即用”的新时代,而苹果正试图成为这个新生态的守门人。

本文编译自TechCrunch