2023.11.28 09:00

失敗的政變往往會加速他們試圖阻止的事情的發生!OpenAI裡的「AI末日預言者」已經輸掉了這場戰役

ADVERTISEMENT

過去一周,OpenAI的董事會在五天內更換了四位CEO。董事會原本指控首席執行長Sam Altman撒謊,但後來又收回這種說法,並拒絕說明這意味著什麼。該組織九成的員工簽署了一封公開信表示,如果董事會不做出改變,他們全部都要辭職。這一事件讓矽谷既震驚又恐懼。到了星期三,Altman重返其位,三名外部董事會成員中有兩人被替換,大家終於可以稍微休息一下。

簡單的說,這場混亂顯示了OpenAI的董事會以及其獨特的非營利和營利性結構並不符合其目的。也有人可能會建議,外部董事成員沒有適當的背景或經驗來監督一家價值900億美元、在一項極其重要的技術突破方面設定議程的公司。人們或許還可以說出更不客氣的話,而且這些說法可能都是真的,但這仍然是不完整的。

據我們所知(事實上我不得不說這也是一個問題),OpenAI內部的根本衝突是許多人在過去一年指出甚至嘲笑的。OpenAI的創建目的是試圖建造一種接近人類智慧的機器版本(所謂的「人工通用智慧」或「AGI」)。前提是,這在幾年內而不是幾十年內就有可能實現,並可能非常好,但同時也可能非常危險,不僅僅是對像民主或社會這樣的平凡事物,而是對人類本身。

ADVERTISEMENT

這就是這種奇怪組織結構的原因——為了控制風險。Altman一直在盡可能快地建造這個東西,,同時也經常大聲地說,這個東西極其危險,政府應該介入以控制任何建造它的嘗試。那麼,現在是什麼情況?

許多科技界人士認為,表達這種擔憂是嘗試直接的反競爭性管理。這特別適用於針對開源AI模型的更廣泛舉措(見於上個月白宮對AI的行政命令):人們認為OpenAI試圖讓政府禁止競爭。

這可能是真的,但我個人認為,那些聲稱人工通用智慧(AGI)既接近又危險的人是真誠的,這使得他們建造它的願望更加矛盾。這似乎是對OpenAI所發生事情的最佳解釋:那些認為我們應該放慢腳步、謹慎行事的人發動了對那些認為我們應該加速並且謹慎行事的人的政變。

ADVERTISEMENT

討論AGI時的部分問題和衝突在於它是一個抽象概念——一個思想實驗——沒有任何清晰或被充分理解的理論模型。阿波羅計劃的工程師知道月球有多遠,火箭有多大推力,但我們不知道AGI有多遠,也不知道OpenAI的大型語言模型有多接近,也不知道它們是否能達到那裡。

你可以花上數周的時間觀看機器學習科學家們關於這個問題的爭論影片,最終只能得出那些專家自己也不知道的答案是什麼。ChatGPT可能在五年內或五十年內,或根本不會發展到《魔鬼終結者》那樣的程度。這可能就像看著1920年代的雙翼飛機,擔心它可能進入太空軌道一樣。

這意味著大多數關於AI風險的談話變成了尋找隱喻的過程(它「就像」核武器,或小行星,或的確像阿波羅計劃)。或者它們重新翻出那些忘記了一大半的大學哲學課(帕斯卡的賭注!柏拉圖的洞穴!),或求助於權威論證(傑夫·辛頓擔心了!楊·勒昆不擔心!)。最終,這取決於你對風險的本能感受。如果你無法知道什麼是接近或不接近的,那是一個值得擔心的原因還是不值得擔心的原因?沒有正確答案。

ADVERTISEMENT

不幸的是,對於「末日預言者」來說,過去一周的事件加速了一切。一位現已辭職的董事會成員表示,關閉 OpenAI 將符合其使命(安全總比後悔好)。但數百家基於 OpenAI 應用程式介面建構的公司正在爭先恐後地尋找替代方案,這些替代方案既來自其商業競爭對手,也來自日益增長的不受任何人控制的開源專案浪潮。人工智慧現在將移動得更快、更加分散、更少控制。失敗的政變往往會加速他們試圖阻止的事情的發生。 

事實上,對末日預言者的一個常見批評是,他們認為一個強大的軟軟和幾位傑出的工程師可以改變世界的想法,只是另一種天真和簡單的科技烏托邦主義——它無法理解權力、複雜性和人類系統的真實本質。董事會上的末日預言者正好展示了這一點——他們不知道權力是如何運作的。

ADVERTISEMENT