在人工智能研究領域,一項名為CompressARC的新成果引發了廣泛關注。這項由Mamba團隊核心成員Albert Gu指導、CMU博士生Isaac Liao主導的研究,通過顛覆傳統訓練范式,在通用智能測試基準ARC-AGI-1上取得突破性進展——僅用76K參數的未預訓練模型,便在評估集中解決了20%的謎題。
與傳統依賴海量數據預訓練的模型不同,CompressARC開創性地采用"最小描述長度"(MDL)理論作為核心框架。該理論源于數學與計算機科學交叉領域,其核心思想認為:揭示現象本質規律的程序,往往具有最簡潔的代碼形式。研究團隊將這一哲學轉化為技術實踐——通過構建能生成目標謎題的最短計算機程序,使模型在推理階段自動學習隱含規則,而非被動記憶訓練數據。
實驗設計極具挑戰性:模型僅能接觸每個謎題的2個示例輸入/輸出對及1個測試輸入,完全不依賴外部訓練集。這種"單樣本學習"模式,迫使系統必須從有限信息中抽象出通用規則。為解決程序搜索空間爆炸的難題,研究團隊設計了包含固定運算流程的模板程序,將問題轉化為尋找最優種子值和神經網絡權重的優化過程。
技術實現層面,模型架構融合了多項創新:通過等變設計內置對旋轉、翻轉等幾何變換的天然理解;采用多張量數據結構存儲不同粒度的空間關系;核心運算模塊包含專門設計的幾何操作(如單像素平移)和拓撲操作(如累積最大值),這些無參數操作直接編碼了對抽象推理任務的先驗知識。整個網絡僅76K參數,其中90%用于通道維度的線性投影,核心邏輯通過硬編碼操作實現。
在優化算法上,研究團隊借鑒變分自編碼器原理,將程序長度最小化轉化為可微分問題。通過同時最小化KL散度(控制隨機噪聲z的信息量)和交叉熵(衡量輸出與真實謎題的匹配度),系統能在梯度下降過程中自動平衡規則復雜度與重構精度。這種設計使模型能用2000個推理步驟(約20分鐘/謎題)完成訓練,在評估集中達到20%的準確率,訓練集準確率更高達34.75%。
對比現有方法,該成果具有顯著差異:基于互聯網數據預訓練的o3模型雖在評估中取得88%的準確率,但其參數規模達數十億級;同類未預訓練神經網絡的最高成績為40.3%,但需接觸整個ARC-AGI訓練集。CompressARC的突破在于證明:通過壓縮原理引導的智能涌現,可能成為通往通用人工智能的獨立路徑。
這項研究的核心基準ARC-AGI-1由GoogleAI研究員Fran?ois Chollet于2019年提出,旨在評估AI處理未明確訓練過的新問題的能力。該測試包含80個手工設計的抽象推理謎題,涵蓋對象操作、模式識別、空間變換等認知任務,被學界視為衡量通用智能的核心標尺。CompressARC的成果,為破解這一挑戰提供了全新視角。
研究團隊負責人Isaac Liao的學術背景同樣引人注目:這位MIT計算機科學與物理學雙學位獲得者,在CMU攻讀博士期間專注于最小描述長度理論、變分推斷等前沿領域。其導師Albert Gu作為Mamba架構的提出者,此次合作再次驗證了跨學科研究在推動AI范式變革中的關鍵作用。




















