AI界的巨頭們在線上「開噴」,一些大名鼎鼎的AI大神一個接一個出現不說:吳恩達、Hinton、LeCun、哈薩比斯……甚至吵到穩如「AI教父」Hinton都發文開酸了:是是是,好人力量大,我們應該把核武器也給開源了。
搞得如此面紅耳赤,為的還是「大型語言模型會不會毀滅人類」這個熱點話題。
反方一派,矛頭直指科技巨頭搞壟斷。吳恩達就言辭犀利地指出:
某些人傳播(AI滅絕人類的)恐懼觀點,只是為了搞錢。
正方這邊也不甘示弱,最新消息是,被指「搞錢派」代表人物的DeepMind CEO哈薩比斯正面回懟:這不是恐嚇。AGI的風險如果不從現在就開始討論,後果可能會很嚴重。我不認為我們會想在危險爆發之前才開始做防範。
總之,場面很火爆,網友很興奮。連馬斯克都忍不住第一時間前排圍觀。
還有不少網友激動地說:這種場面還是第一次見,支持大家全都吵起來,真理越辯越明。
大佬們吵成這樣,又究竟吵出了些啥?板凳已經擺好,一起來看。
現場還原:三大回合battle
這一場大戰的直接「著火點」是吳恩達在10/31的公開發言:
你們知道嗎?我對AI的最大擔憂其實是,AI風險被過度鼓吹,導致開源和創新被嚴苛規定所壓制。
說罷,吳恩達還附上一篇長文進行詳細論述。
他表示,近幾個月來,他都在關注AI可能導致人類滅絕風險的觀點,然而仔細評估其論點,都覺得它們「模糊且不具體」。「我無法證明AI不會導致人類滅絕。我也不懷疑一部分持該觀點的人是真心為人類擔憂。」但他認為,一部分人非常賣力地傳播這樣的擔憂其實只是為了「錢」,比如:
個人可以從中博取關注,到處去演講收取出場費或其他費用;非營利組織則能以對抗這種風險為由籌集資金;言外之意,這有點「科技陰謀」的意思。
在文中,吳恩達還呼籲,大家應該多多宣揚對AI的積極看法,不要傳播未經證實的擔憂導致強監管的出現,阻礙技術進步。很快,這則貼文就引起了Hinton的注意。
作為堅定的「AI有風險派」,他第一個不同意吳恩達。直接開帖「回懟」:
你說這是科技陰謀?那我離開Google幹什麼?
一場巨佬們的對噴就此展開。
Round 1:Hinton vs 吳恩達
看到Hinton的「質問」之後,吳恩達完全沒有就此打住,在評論區「回敬」:
先是解釋稱「我沒說這是一個陰謀」。接著反問:你知道這種過度擔憂已經造成真正的傷害了嗎?一是已經有一些年輕學生不願進入該行業,因為他們說不想為滅絕人類作出貢獻;二是宣傳得越凶,全球範圍內的監管就越嚴格,這是在破壞開源並扼殺創新。
不過最後,吳恩達緩和了一把氣氛:
我知道你的擔憂是真誠的,但總的來說,這種擔憂還是弊大於利。
Round 2:LeCun vs Hinton
是的,LeCun也迅速加入了戰局,並且面對老友完全沒有口下留情:
正是你和Yoshua的言論,才讓那些想通過禁止開源來保護自己的AI研究和業務的人「得逞」。後果很嚴重。
事實上,力挺吳恩達屬於「事出有因」,早在此之前,LeCun就已看Yoshua等人不爽了:
你們啊,天天鼓吹這些言論,就是在給那些遊說禁止開放人工智慧研究技術的人提供彈藥。如果你們真的成功了,一場「少數公司控制人工智慧」的災難恐怕就要臨頭了。
他還直接點名了這些「少數公司」:
OpenAI、DeepMind、Anthropic——這些公司的CEO被指正在搞「大規模企業遊說」,試圖加強對AI行業的監管。
這個貼文獲得了大量按讚支援。
而更早一點,LeCun也轉發了關於「大家應該做的,不是在這限制通用/基礎大型語言模型技術的研究,而是該去規範其應用」的貼文。並有些生氣地表示:我都說多少年了。
Round 3:Hinton「1打2」
這還沒完。在這倆回合之後,Hinton又以1打2挑起了新問題。我們姑且叫它Round 3。
你說AI不該被嚴格監管,那你知道它未來30年來導致人類滅絕的機率是多少嗎?如果吳恩達你是真正的貝葉斯主義者,你應該能夠給出一個數字。我目前的估計是0.1。我懷疑LeCun也就不到0.01。
對此,LeCun直接亮出答案:
零點幾不知道,反正比大多數其他會導致人類滅絕的風險要低得多。為什麼?因為不像某種無法阻止的自然現象,我們人類在這方面有代理權。並且說不定,AI實際上還能拯救人類免於滅絕呢。
Hinton對此並未回覆。
對了,開頭提到的Hinton的反唇相譏,也是針對LeCun的發言。LeCun跟吳恩達一樣,也關注到了開源力量的問題:如果SkyNet是開放原始碼的,那麼《終結者》的故事還會發生嗎?
而對於Hinton拿出核武器來和AI做類比,LeCun和fast.ai創始人Jeremy Howard都不能苟同:
我不明白這兩者之間有什麼相關性。
不過另一邊,DeepMind CEO哈薩比斯隔空支援了Hinton。
他在接受CNBC的最新採訪中直接表示非常不同意LeCun的大部分觀點。「我們非常支援開放AI平台,因為我們也相信『人多力量大』。但現在我們需要處理AI已經產生的有害操作,不然就會被不安好心的人濫用。更長期的風險我們也考慮了,我們必須確保AI可控,不能等危險來臨前才開始。」
可以說,這場大戰雙方是各執一詞,誰也說服不了誰。值得一提的是,在中途中,馬斯克也來圍觀了一把,他沒有明確站隊,而是表示:
真正的戰鬥是在滅絕論者和人文主義者之間。一旦你注意到了這場戰鬥,就沒法對此視而不見。
還很亢奮的LeCun再次在帖子下聲明自己的立場,還問老馬站哪邊。
也有網友替答:馬斯克是超人類主義者。(表開玩笑、勿當真)
AI巨頭紛紛聚焦AI風險
這場「激戰」在馬斯克的X上可以說是吸引了全行業的圍觀。不過實際上,爭論集中爆發之前,「AI風險」就已經成為了行業大佬們關注的焦點話題之一。
就在前陣子,深度學習三巨頭之二Bengio和Hinton,已聯合姚期智、張亞勤等人工智慧大拿,發表了一封公開信《在快速進步的時代管理人工智慧風險(Managing AI RIsks in an Era of Rapid Progress)》。
文中談到:
2019年,GPT-2還沒法兒數到10。僅僅4年後,深度學習系統已經可以自己編寫軟體、生成逼真場景、提供智慧建議,結合語言和圖像處理來充當機器人的「大腦」了。
人工智慧的進步非常迅速,令人驚訝,並且可能會繼續令人驚訝。
當前的深度學習系統仍然缺乏重要的能力,我們不知道開發它們需要多長時間。然而,各家公司都在競相創造在大多數認知工作中媲美甚至超越人類能力的通用人工智慧系統。
簽名作者們認為,人類必須認真對待AGI在這10年或下一個10年內在許多關鍵領域超越人類能力的可能。
公開信建議,監管機構應該對AI發展全面洞察,尤其警惕那些在價值數十億美元的超級電腦上訓練出來的大型語言模型。
One More Thing
不過,吵架歸吵架,前不久,LeCun剛在推特上分享了他和Hinton、Bengio的合影,配文是:
即使在大事件上存在觀點分歧,人們仍然可以做好朋友。
那麼,你覺得哪方觀點是對的呢?
參考連結:
- https://x.com/AlphaSignalAI/status/1719097022819578243?s=20
- https://venturebeat.com/ai/ai-pioneers-hinton-ng-lecun-bengio-amp-up-x-risk-debate/
- https://www.cnbc.com/2023/10/31/google-deepmind-boss-hits-back-at-meta-ai-chief-over-fearmongering-claim.html
- https://x.com/AndrewYNg/status/1719378661475017211?s=20
- https://x.com/ylecun/status/1719431189587742754?s=20
- https://x.com/geoffreyhinton/status/1719406116503707668?s=20
稿源:量子位
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!