蘋果內部消息透露,其人工智能平臺“Apple Intelligence”正加速邁向2.0版本,計劃在接下來兩年內帶來一系列重大更新。這次迭代將主要圍繞Siri底層架構的重塑、第三方AI模型的深度整合以及原生應用的智能化拓展展開。
“Apple Intelligence”平臺的發展步入新階段,Siri作為其核心組成部分,將迎來一場“大語言模型”革命。據悉,代號“LLM Siri”的新一代語音助手將摒棄傳統的規則引擎,轉而采用蘋果自主研發的千億參數級大語言模型。這一轉變將使Siri能夠實現更加流暢的多輪對話,并通過“App Intents”框架跨應用執行復雜指令,例如自動整理并分享特定照片。然而,由于需要協調多部門接口,這一功能預計將在2026年春季隨iOS 19.4版本推出。
蘋果在構建開放生態方面邁出重要一步,正考慮將ChatGPT、谷歌Gemini、Perplexity等主流AI模型納入其兼容性測試名單。未來,用戶或可在系統設置中自由切換不同的AI引擎,這一舉措被視為蘋果構建“AI服務層”的關鍵一環。此舉不僅將提升用戶體驗,還將進一步推動AI技術的普及和應用。
蘋果原生應用也在逐步融入AI技術。根據代碼分析,音樂App將測試AI生成播放列表封面的功能,郵件App將提供智能附件整理服務,而健康App則將能夠根據用戶習慣生成個性化的運動計劃。這些基礎特性有望在今年秋季隨iOS 18版本首發,為用戶帶來更加智能化的使用體驗。
為了確保用戶體驗的平穩過渡和開發者有足夠的時間進行適配,蘋果將采取分階段發布策略。2025年秋季發布會將重點展示AI基礎功能的落地情況,而2026年的WWDC開發者大會則將主推“LLM Siri”及開放生態戰略。這種軟硬件協同的推進模式,既避免了大規模一次性升級可能帶來的用戶體驗斷層,也為開發者提供了更多的準備時間。