一場關于人工智能未來發(fā)展方向的激烈爭論,在兩位頂級科學家之間展開。圖靈獎得主、“深度學習之父”Yann LeCun近日公開質疑當前硅谷主流的AI發(fā)展路線,認為依靠大模型實現(xiàn)通用人工智能(AGI)的設想完全不切實際。這一觀點迅速引發(fā)了DeepMind創(chuàng)始人Demis Hassabis的反駁,雙方圍繞智能的本質展開了深入探討。
在最新一期播客節(jié)目中,LeCun毫不留情地指出,當前主流的AGI發(fā)展路徑存在根本性缺陷。他批評業(yè)界過度依賴擴大模型規(guī)模、使用合成數(shù)據(jù)訓練以及人工后訓練的修正方式,認為這些方法只是用規(guī)模掩蓋了結構上的問題。他以人類大腦為例,指出雖然理論上具備圖靈完備性,但在實際計算任務中效率極低,遠不及專門的棋類引擎。這種高度專門化的特性,使得"通用"一詞用于描述人類智能并不準確。
LeCun進一步通過數(shù)學計算論證其觀點。他估算人類大腦連接組能表示的布爾函數(shù)上限為2^(3.2×101?),而一個簡單的視覺任務涉及的函數(shù)空間高達2^(2^1000000),兩者相差懸殊。這表明人類智能在可能函數(shù)空間中實際上是極端專門化的存在,只是由于絕大多數(shù)函數(shù)對我們而言如同隨機噪聲,才產(chǎn)生了通用的錯覺。基于此,他斷言當前大模型路線無法實現(xiàn)真正的AGI,并宣布將離開meta創(chuàng)辦AMI Labs,專注于"世界模型"的研究。
針對LeCun的批評,Hassabis從概念辨析的角度展開回應。他指出對方混淆了"通用智能"與"普適智能"的區(qū)別:前者強調系統(tǒng)在不同任務間遷移學習的能力,后者則要求在所有任務上達到最優(yōu)性能。Hassabis認為,人類大腦作為已知最復雜的系統(tǒng),雖然受限于無免費午餐定理會產(chǎn)生一定專門化,但其能夠在科學發(fā)現(xiàn)、工程制造等領域取得驚人成就,正是高度通用性的最好證明。他強調,基于Transformer的大模型與人類大腦都是近似圖靈完備的系統(tǒng),擴大規(guī)模仍是實現(xiàn)AGI的關鍵路徑。
這場爭論背后,是兩種截然不同的技術路線之爭。LeCun押注的"世界模型"路線,試圖通過構建能夠理解物理世界的系統(tǒng)來實現(xiàn)智能突破;而Hassabis領導的DeepMind則沿著Transformer架構和擴展法則(Scaling Law)持續(xù)推進,近期在AlphaFold、Gemini等項目上取得重大突破。Hassabis更因蛋白質結構預測領域的貢獻,與團隊共同獲得2024年諾貝爾化學獎,這為他的觀點增添了實踐依據(jù)。
特斯拉CEO馬斯克也加入討論,公開支持Hassabis的觀點。這場爭論已超越學術范疇,成為關乎AI未來十年發(fā)展方向的重要分歧。隨著LeCun以35億美元估值為AMI Labs融資5億歐元,以及DeepMind持續(xù)加大模型規(guī)模投入,兩種路線的競爭將進入白熱化階段。五年后,這場爭論或許將迎來階段性答案,但無論結果如何,它已促使學界重新思考智能的本質與實現(xiàn)路徑。




















