谷歌DeepMind首席執行官德米斯·哈薩比斯近日公開表示,將現有AI系統的規模擴展至極限,可能是實現通用人工智能(AGI)的核心路徑。這一觀點引發了硅谷科技界對"規模定律"應用邊界的持續討論。作為剛推出Gemini 3模型并獲得業界認可的AI領軍人物,哈薩比斯在上周的學術交流中指出:"當前AI發展的規模化進程尚未觸及天花板,這項技術最終可能直接構成AGI系統,或成為其關鍵組成部分。"
通用人工智能(AGI)指具備人類水平認知能力的智能系統,能夠理解、學習并完成人類可執行的各類任務。盡管全球頂尖科技企業都在投入資源研發,但這項技術至今仍停留在理論階段。支撐當前大模型發展的規模定律,本質是揭示模型參數規模、訓練數據量與計算資源投入之間的量化關系——通常表現為"參數規模越大、訓練數據越豐富、計算時間越長,模型性能越強"的規律。
哈薩比斯在闡述技術路線時也保持審慎態度。他承認單純依賴規模擴展可能推動AI向AGI演進,但同時指出:"要真正實現突破,或許還需要1-2項關鍵技術革新。"這種觀點與部分行業專家的擔憂形成呼應——隨著公開數據資源逐漸耗盡,持續擴大模型規模將面臨數據獲取瓶頸;而建設超大規模數據中心帶來的能源消耗與環境影響,也使訓練成本呈指數級增長。有研究機構測算,當前頂尖大模型的訓練能耗已相當于數百個家庭的年用電量。
在硅谷的另一極,前meta首席AI科學家楊立昆(Yann LeCun)公開質疑規模定律的普適性。這位今年4月在新加坡國立大學演講時直言:"多數真正具有挑戰性的智能問題,無法通過簡單堆砌數據和算力解決。"他以人類認知機制為例,強調視覺感知、物理推理等能力需要特定的認知架構支撐,而非單純依賴數據規模。這種觀點與其正在研發的"世界模型"項目密切相關——該系統試圖通過構建三維空間數據模型,模擬人類對物理世界的理解方式,形成有別于大語言模型的技術路徑。
據知情人士透露,楊立昆離職meta后創立的新公司,將專注于開發不依賴文本數據的空間智能系統。這種技術路線若取得突破,可能為AGI研發開辟全新方向。當前科技界普遍認為,無論規模擴張派還是架構創新派,其技術路線都面臨數據質量、能源消耗、算力瓶頸等共同挑戰。如何在現有技術框架下實現質變,或通過范式革新突破物理限制,將成為決定AGI發展進程的關鍵因素。





















