在人工智能領域,大模型雖展現出強大的對話能力,卻長期受困于“記憶缺陷”——每次對話結束后,新獲取的信息便煙消云散。這種“健忘”特性,讓AI在實際應用中屢屢碰壁:用戶反復糾正的錯誤,它依然會重復;臨時傳授的知識,轉眼就被清空。這種局限,正成為制約AI向更高階智能躍遷的關鍵瓶頸。
Google Research研究員Ali Behrouz在NeurIPS 2025大會上拋出一枚重磅炸彈:他提出的HOPE框架,試圖通過重構AI的記憶機制,讓機器真正具備“邊用邊學”的能力。這一突破性研究,直指當前大模型的核心痛點——訓練與推理的割裂。傳統模型像被設定好程序的機器,只能調用預訓練階段固化的知識,卻無法在交互中積累新經驗,這種“靜態智能”與人類動態學習的能力形成鮮明對比。
Ali Behrouz將現有模型的缺陷比作醫學上的“順行性遺忘癥”:患者能回憶過往,卻無法形成新記憶。大模型同樣如此——預訓練階段攝入的萬億級數據構成其“基礎記憶”,但上線后的新信息全靠上下文窗口臨時存儲,一旦超出容量限制便徹底丟失。這種設計導致AI始終停留在“出廠狀態”,無法像人類一樣通過錯誤修正和經驗積累實現自我進化。
HOPE框架的核心創新,在于構建了一套“雙軌制”記憶系統。前端“Titans”模塊模擬人腦海馬體的功能,通過動態評估信息價值自主調節學習強度,實現重要知識的精準捕捉;后端“連續記憶系統”(CMS)則將神經網絡劃分為高頻、中頻、低頻三層,形成類似計算機緩存-硬盤的分級存儲結構。新信息首先進入臨時緩存區,經篩選后逐步沉淀至長期記憶層,這種設計既保證了實時響應速度,又實現了知識的持久化存儲。
配套研發的M3優化器更是一大亮點。傳統優化器像短視的行者,僅關注當前梯度方向;而M3優化器則兼具“快慢動量”,既能快速響應局部變化,又能把握全局趨勢。這種設計使模型在參數更新時既能避免陷入局部最優,又能保持長期穩定性,為持續學習提供了數學保障。
對于開發者而言,HOPE框架的“兼容性”設計極具吸引力。現有模型無需從頭訓練,僅需通過調整各層更新頻率,即可實現記憶系統的升級。這種“微創手術”式的改造方式,大幅降低了技術遷移成本,讓Llama、Qwen等主流模型都能快速獲得持續學習能力。
盡管HOPE框架在理論層面展現出巨大潛力,但其商業化路徑仍面臨挑戰。部分專家擔憂,嵌套式優化結構可能增加參數調優的復雜性;另一些學者則指出,當前框架缺乏嚴格的數學證明,其穩定性需通過更多實驗驗證。這些爭議恰恰反映出,AI研究正從“參數競賽”轉向“機制創新”的新階段。
這場記憶革命背后,折射出AI發展理念的深刻轉變。當行業仍在比拼模型規模時,Google已將目光投向更本質的問題:智能的本質究竟是靜態的知識儲備,還是動態的學習能力?HOPE框架的嘗試表明,真正的智能不應是刻在芯片上的固定程序,而應像生物體一樣,在與環境互動中不斷生長進化。這種“成長性智能”的探索,或許正是通往通用人工智能的關鍵一步。





















