蘋果公司近日揭曉了其在人工智能領域的最新進展,這一更新主要涉及為Apple Intelligence功能提供動力的模型,這些功能廣泛集成于iOS、macOS等操作系統之中。然而,蘋果公布的數據顯示,其最新模型的性能并未超越部分競爭對手的舊版本,特別是在與OpenAI等行業巨頭的對比中顯得遜色。
在官方博客中,蘋果詳細闡述了其兩款主要模型的表現。首先是“蘋果設備端(Apple On-Device)”模型,這款模型專為iPhone等設備設計,無需網絡連接即可運行。經過人類評估者的測試,該模型生成的文本質量與谷歌、阿里巴巴的同規模模型相當,但并未展現出明顯優勢。另一款更為強大的“蘋果服務器(Apple Server)”模型,雖然旨在公司數據中心運行,但在測試中卻落后于OpenAI一年前推出的GPT-4。
蘋果在圖像分析能力方面的表現同樣不盡如人意。據蘋果數據顯示,在對比測試中,人類評估者更傾向于選擇meta的Llama 4 Scout模型,而非蘋果的Apple Server模型。這一結果頗為出人意料,因為Llama 4 Scout在多項測試中并未能超越谷歌、Anthropic和OpenAI等領先的人工智能實驗室的模型。
此番基準測試結果再次引發了業界對蘋果人工智能研究部門競爭力的關注。近年來,蘋果在AI領域的發展步伐顯得相對緩慢,備受矚目的Siri個性化升級也一再推遲,甚至引發了部分用戶的不滿和訴訟,指責蘋果宣傳了尚未實現的AI功能。
盡管如此,蘋果此次更新的“Apple On-Device”模型仍具備一定的亮點。該模型擁有約30億參數,主要用于文本生成、總結和分析等功能,參數數量在一定程度上反映了模型的解決問題能力。從本周起,第三方開發者已可通過蘋果的Foundation Models框架接入該模型,進行進一步的應用開發。
蘋果強調,“Apple On-Device”和“Apple Server”兩款模型在工具使用和效率方面均有所提升,并支持約15種語言的理解。這一進步得益于蘋果擴展的訓練數據集,其中涵蓋了圖像、PDF文件、文檔、手稿、圖表、表格等多種類型的數據,為模型提供了更為豐富的學習資源。