2025.01.16 13:00

161年前,一位紐西蘭牧羊人預言了人工智慧接管地球的統治地位!預言與現代的驚人相似

ADVERTISEMENT

雖然對於人工智慧接管世界的擔憂似乎是個現代想法,可能來自於《戰爭遊戲》(War Games)或《魔鬼終結者》(The Terminator)的小說或電影情節,早在美國內戰時期,就有人類被機器統治的類似擔憂,儘管提出這個觀點的是一位住在紐西蘭的英國牧羊人。理論上,亞伯拉罕·林肯(Abraham Lincoln)在世時就可能讀過有關人工智慧接管世界的文章。

1863年6月13日,《基督城新聞報》(The Press)刊登的一封信警告了機械進化的潛在危險,並呼籲銷毀機器,這預示了我們現在稱之為人工智慧的發展,以及那些擔心人工智慧可能威脅人類生存的人們對人工智慧的抵制。這封信提出了可能是首次出版的呼籲,要求停止技術進步以防止機械統治人類。

這封題為〈機械中的達爾文〉(Darwin among the Machines)的信,最近因人工智慧政策與戰略研究所(Institute for AI Policy and Strategy)的彼得·威爾德福德(Peter Wildeford)在社群媒體上的提及而再次引發關注。信的作者山繆·巴特勒(Samuel Butler),以筆名「塞拉里烏斯」(Cellarius)投稿,但後來公開承認了他的觀點。信中將查爾斯·達爾文(Charles Darwin)的進化論與機器的快速發展直接進行了比較,認為機器可以進化出意識,並最終取代人類成為地球上的優勢物種。

ADVERTISEMENT

「我們正在創造我們自己的繼任者,」他寫道。「我們每天都在增強它們物理組織的美感和精密性;我們每天都在賦予它們更大的能力,並透過各種巧妙的裝置,為它們提供那種自我調節、自我運行的力量,這對它們來說將如同智力之於人類。在漫長的歲月中,我們將發現自己成為劣等種族。」

信中,他也描繪了人類將屈服於機器,最初人類或充當機械生命的看護者,幫助其維護和繁殖——巴特勒將這種關係比作人類與家畜之間的關係,然後這種關係發生逆轉,機器最終接管一切。

「我們認為,當我們上面試圖描述的這種狀態到來時,人類之於機器,將會像馬和狗之於人類一樣……我們給予它們經驗告訴我們對它們最好的東西……同樣地,我們有理由認為機器會善待我們,因為它們的存在依賴於我們,就像我們依賴於低等動物一樣,」他寫道。

ADVERTISEMENT

這篇文字預見了幾個現代人工智慧安全的關注點,包括機器意識的可能性、自我複製以及人類失去對技術創造的控制等。這些主題後來出現在艾薩克·阿西莫夫(Isaac Asimov)的《必然的衝突》(The Evitable Conflict)、法蘭克·赫伯特(Frank Herbert)的《沙丘》(Dune)小說中(巴特勒可能是「巴特勒聖戰」(Butlerian Jihad)一詞的靈感來源),以及《駭客任務》(The Matrix)系列電影中。

巴特勒的信深入探討了機械進化的分類法,提到機械的「屬和亞屬」,並以鐘錶的演變為例,從「笨重的十三世紀時鐘」進化為現代手錶——這表明,像一些早期脊椎動物一樣,機械物種在變得更先進的同時可能會變得更小。他在1872年的小說《Erewhon》中進一步擴展了這些想法,描繪了一個禁止大多數機械發明的社會。在他的虛構社會中,公民摧毀了過去300年內發明的所有機器。

ADVERTISEMENT

巴特勒對機械進化的擔憂引起了不同的反應。他在《Erewhon》第二版序言中提到,一些評論者認為他的作品是在諷刺達爾文的進化論,但巴特勒否認了這一點。在1865年寫給達爾文的一封信中,巴特勒表達了對《物種起源》(The Origin of Species)的深刻讚賞,並表示該書「深深地吸引」了他。他還解釋說,自己曾在紐西蘭的報紙上為達爾文的理論辯護。

巴特勒的遠見卓識令人驚歎,特別是他身處的技術背景與現代大相徑庭。當時電腦設備幾乎不存在。雖然查爾斯·巴貝奇(Charles Babbage)在1837年提出過他的理論性分析機(Analytical Engine)——一種使用齒輪和槓桿的機械計算機,但在他有生之年並未建造出來。而1863年最先進的計算設備僅僅是簡單的機械計算器和計算尺。

巴特勒從工業革命時期的簡單機器中進行推測,那時機械自動化正在改變製造業,但還沒有任何類似現代電腦的東西。第一台可程式化的電腦的出現還需等待70年,這使得他對機械智慧的預測格外具有先見之明。

ADVERTISEMENT

有些事情永遠不變

巴特勒開啟的辯論至今仍在繼續。兩年前,全球面臨了一場可以稱為「2023年人工智慧接管大恐慌」的事件。那時,OpenAI剛發表GPT-4,研究人員評估其「追求權力的行為」,引發了對自我複製和自主決策的擔憂。

GPT-4的發表促使多封公開信出現,這些信件由人工智慧研究人員和科技管理層簽署,警告先進人工智慧可能帶來的滅絕風險。其中一封信回應了對核武器或大流行病的恐懼,呼籲全球暫停人工智慧的發展。與此同時,OpenAI首席執行官山姆·阿特曼(Sam Altman)在美國參議院作證,談到了人工智慧的危險。

一年後,加州立法者史考特·韋納(Scott Wiener)提出了一項人工智慧監管法案,得到了被批評者稱為「人工智慧末日論者」(AI doomers)的知名人士的支持——這些人擔憂機械智慧無節制的進步。反對者則認為這些措施過於誇張,可能會扼殺創新,正如巴特勒虛構的社會所做的那樣。然而,他在19世紀提出的暫停機械進步的呼籲,與最近關於人工智慧安全的公開信和政策提案有著驚人的相似之處。

也許人工智慧接管世界的大恐慌有一天會被視為人類長期以來努力協調進步與適當的人類監督的另一個篇章——這是巴特勒在160多年前預見的鬥爭。但在某些方面,即使機器永遠不會真正變得具有智慧,他對我們依賴機器以演算法方式調節生活的描述仍是驚人地準確。

「然而,日復一日,機器正在逐步佔據上風;日復一日,我們越來越屈服於它們,」巴特勒在1863年寫道。「「結果只是一個時間問題,但一個真正具有哲學頭腦的人,一刻也不會懷疑機器將會真正統治世界及其居民的時代終將到來。」

巴特勒並沒有以被動接受這種命運來結束他的信。有點像伊利澤·尤考斯基美國電腦科學家(Eliezer Yudkowsky)在2033年提出的轟炸數據中心以防止人工智慧接管世界的建議,巴特勒的信以戲劇性的戰鬥號召結束:「應該立即向它們宣戰,直到一方滅亡。每個熱愛自己物種的人都應該摧毀每一種機器。不要有任何例外,不要有任何憐憫;讓我們立即回到人類的原始狀態。」

然而,他也擔心這一行動可能為時已晚。他寫道,如果這種摧毀因我們對機器日益增長的依賴而變得不可能:「這立即證明了災難已經發生,我們的奴役已經真正開始,我們已經培育出了一個我們無法摧毀的種族。」

ADVERTISEMENT