近期,英國《衛報》報道了一項引人深思的研究發現,麻省理工學院的AI安全領域專家馬克斯·泰格馬克提出了一項令人警醒的預測。他參考了美國物理學家阿瑟·康普頓在“三位一體”核試驗前的概率計算方法,對高度發達的AI可能帶來的生存威脅進行了評估。
據悉,康普頓在1945年推進歷史性核試驗前,曾確認原子彈引發大氣層燃燒的可能性極低。泰格馬克借鑒這一思路,與三位麻省理工學生共同發表了一篇論文,其中提出了一個類似的概念——“康普頓常數”,用以衡量強AI失控的概率。
泰格馬克強調,AI企業不應僅憑直覺行事,而應通過嚴謹的計算來評估“人工超級智能”(ASI)失控的風險。他指出,就像康普頓在確認失控核聚變幾率極低后才批準核試驗一樣,打造超級智能的公司也必須計算出具體的失控概率,即“康普頓常數”。他說:“光說‘我們有信心’是不夠的,必須拿出具體數據。”
泰格馬克進一步提出,如果多家公司能夠聯合起來計算這一常數并形成共識,將有助于在全球范圍內推動AI安全機制的建立。他認為,這樣的合作對于確保AI技術的安全發展至關重要。
作為麻省理工學院的物理學教授及AI研究者,泰格馬克不僅是這一研究的推動者,還是致力于AI安全發展的非營利組織“未來生命研究所”的創辦者之一。2023年,該機構發布了一封公開信,呼吁暫停開發更強大的AI系統。這封信迅速獲得了超過3.3萬人的簽名支持,其中包括知名企業家埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克。
公開信中警告說,各大實驗室目前正陷入一場“失控競賽”,競相開發越來越強大的AI系統。然而,這些系統卻“人類無法理解、預測或可靠控制”,從而帶來了巨大的潛在風險。泰格馬克及其團隊的研究和呼吁,無疑為這一領域的發展敲響了警鐘。