ADVERTISEMENT
GPT-4讓大咖們都慌了,緊急聯名呼籲:所有AI實驗室立即暫停訓練GPT-4更先進的AI系統!
至少6個月限期。
包括馬斯克、班吉歐在內的上千位產學研代表聯名發表公開信「暫停巨型AI實驗」,瞬間引起軒然大波。
信中強調:如果不迅速實施,那麼政府應該介入強制執行。
我們熟知的一些大咖,比如Stability AI CEO、07年圖靈獎得主、蘋果聯合創始人、多位DeepMind工程師也都赫然在列。
馬斯克、班吉歐聯名呼籲
在這封聯名公開信中,他們提出了三個方面的需求和建議舉措:
首先、立即暫停比GPT-4更先進的AI系統訓練,時間至少是6個月。
這一要求是涵蓋了所有的人工智慧實驗室,尤其是這當中的關鍵參與者。
並且暫停舉措必須是公開、可驗證的。如果AI機構不能立即實施,那麼政府應該介入強制執行。
其次,利用這段時間,開發和實施一套共用安全協議,用於高級人工智慧設計和開發,並由獨立外部專家進行嚴格審核和監督。
信中還明確指出:這並不意味著總體限制一般人工智慧的發展,而是從目前危險的競技中退後一步,避免更強大、更不可預測的黑箱模型和新興能力出現。
人工智慧的研究和發展,應該重新聚焦於朝著更準確、安全、可信可解釋等的AI系統開發工作上來。
第三,開發者應同政策制定者一道,共同加速開發人工智慧治理系統。這個治理系統至少包括:
- 專門負責人工智慧的全新監管機構;
- 監督和跟蹤高能力的AI系統和大型算力池;
- 注明出處和浮水印系統,説明區分真實和合成、以及跟蹤模型洩露;
- 健全的審計和認證生態系統;
- 對人工智慧造成的傷害進行責任認定;
- 為人工智慧安全技術研究提供強大的公共資金;
- 以及提前預防人工智慧導致的巨大經濟政治破壞。
最後,還想像了一下未來。
在成功創造出強大的AI系統之後,我們現在享受一個「人工智慧夏天」。但這個夏天希望能夠漫長一點,需考慮到所有人的利益,並給社會一個適應的機會,暫停使用一些危害系統;而不是毫無準備地衝進「秋天」。
叫OpenAI和阿特曼收歛一點
這麼做的原因,無非就是忌憚當前GPT-4的強大。
畢竟連OpenAI老闆阿特曼自己也承認:AI確實可能殺死人類。
在公開信的最前面,他們費了一番功夫解釋了這麼做的原因,其中不乏一些內涵OpenAI和老闆阿特曼的話。
例如,正如廣泛研究和頂級人工智慧實驗室所承認的那樣,能與人類競爭的AI系統會對社會和人類構成風險。
本該進行謹慎的規劃和管理沒有進行,反而演變成一場失控的AI競速。沒有人——甚至他們的創造者——能夠理解、預測或可靠地控制。
甚至還發四連問:
- 我們應該讓機器人在我們的資訊管道中充斥著宣傳和不真實嗎?
- 我們是否應該把所有的工作都自動化,包括那些有成就感的工作?
- 我們是否應該開發非人類的大腦,使其最終超過我們的數量,勝過我們的智慧,淘汰我們並取代我們?
- 我們是否應該冒著失去對我們文明的控制的風險?
他們認為這樣的決定決不能委託給未經選舉的技術領袖。
而OpenAI最近關於人工通用智慧的聲明提到「獨立的審查」、「限制先進模型的運算增長速度」等方案,他們認為應該現在就開始進行。
截至現在,這個公開信已有1100+的AI從業者簽署,其中不乏一些知名的大咖。
學界包括柏克萊電腦系教授Stuart Russell、Hopfield網路發明者John J Hopfield,2007年圖靈獎得主Joseph Sifakis、IEEE電腦先驅UML之父Grady Booch、沃爾夫物理學獎得主史丹佛教授Pablo Jarillo-Herrero等。
產業界有蘋果聯合創始人Steve Wozniak、Stable Diffusion背後公司Stability AI首席執行長Emad Mostaque,多位Deepmind工程師等。
不過需要多說一句的是,這封聯名信屬於公開署名,任何人都可以申請,後續名單的真偽性有待查證。
甚至還有人發現名單裡還出現了同名的阿特曼。
LeCun:我不簽
回過頭再來看深度學習三巨頭看待ChatGPT,如今班吉歐態度已經是再明顯不過。
至於傑佛瑞·辛頓(Geoffrey Hinton)還忙著追趕,他的社群平臺還停留在15日,稱RLHF機制是在催熟AI。
至於楊立昆(Yann Le Cun)則是忙著「破防」,前幾日還痛批GPT系列沒前途,世界模型才是最好的。
不過對於這場聯名行為,他明確持反對態度。
看來又要跟加里·馬庫斯(Gary F. Marcus)吵一下了。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!