起風了?才隔一天OpenAI 董事會又急找Altman討論重新回來擔任CEO、員工質疑是否「政變」

起風了?才隔一天OpenAI 董事會又急找Altman討論重新回來擔任CEO、員工質疑是否「政變」

Sam Altman週五突然被OpenAI董事會解僱,使這家最熱門的科技新創公司陷入持續的危機。

不過,根據The Verge的報導,據多位知情人士透露,OpenAI 董事會正在與 Sam Altman 討論重返公司擔任執行長的事宜。其中一位人士表示, Altman週五在沒有任何通知的情況下被董事會突​​然解僱,他對董事會對他提出回歸的請求感到「矛盾」,並希望進行重大的治理變革。

Altman 在被趕下台後僅一天就與公司進行了會談,這表明 OpenAI 在沒有他的情況下正處於危機狀態。

文章目錄

內部員工求去

在被解僱幾小時後,OpenAI 總裁兼前董事會主席Greg Brockman 辭職,兩人一直在與朋友和投資者討論創辦另一家公司的事宜。週五,一群資深研究人員也辭職了,接近 OpenAI 的人士表示,更多的離職人員正在醞釀中。

除了內部面臨員工的不信任,對外,投資者的態度也可能是造成OpenAI董事會態度轉變的原因。

投資者生氣了?力挺Altman

OpenAI 最大的投資者微軟,在 Altman 被解僱後不久發表聲明稱,該公司「仍然致力於」與這家人工智慧公司的合作關係。然而,OpenAI 的投資者沒有收到提前警告,也沒有機會對董事會罷免 Altman 的決定發表意見,引來投資者的不滿。 

Altman 身為公司的代言人和人工智慧領域最傑出的代言人,在競爭對手競相追趕前所未有的 ChatGPT 崛起之際,他的下台讓 OpenAI 的未來陷入不確定性。也讓內部員工陸續掀起一股離職潮。

根據金融時報報導,指出包含 Thrive Capital、Tiger Global 和 Sequoia Capital 等 OpenAI 的主要投資者,已經在週末與微軟、及 Altman 聯繫,以探索下一步的可能性。其中一位 OpenAI 的主要投資者,表示有信心擺平(dispose)董事會、並讓 Altman、Brockman 復職。

但根據另外兩位創投基金投資者,他們會同時押注雙方,換言之,無論 Altman 選擇回到 OpenAI、還是開啟一份新事業,都承諾支持他。OpenAI 的早期風險投資者 Vinod Khosla 在 18 日晚間就表示,他希望看到 Altman 回到 OpenAI。

OpenAI 目前的董事會由首席科學家 Ilya Sutskever、Quora 執行長 Adam D'Angelo、前 GeoSim Systems 執行長 Tasha McCauley 以及喬治城安全與新興技術中心策略總監 Helen Toner 組成。與傳統公司不同,董事會的任務不是最大化股東價值,而且他們都不持有 OpenAI 的股權。相反,他們宣稱的使命是確保創建「廣泛有益的」通用人工智慧(AGI)。

據多個消息來源稱,Sutskever 也是 OpenAI 的聯合創始人並領導其研究人員,他在本週罷免 Altman 的過程中發揮了重要作用。消息人士稱,他在政變中所扮演的角色表明公司研究部門和產品部門之間存在權力鬥爭。

OpenAI緊急召開員工大會,員工質問「是否政變」

OpenAI管理層大換血,在換血後,OpenAI內部緊急召開了一場員工大會,在這場緊急員工大會上,OpenAI 聯合創始人兼董事會成員Ilya Sutskever主要負責回答問題。

右為Ilya Sutskever

會上兩名員工詢問此次解僱是否構成「政變」或「敵意收購」,但被Ilya Sutskever否定,他將問題帶回了安全議題本身。事實上在罷免事件發生前,員工內部已經就該公司開發人工智慧是否足夠安全進行過爭論。 

對於一些員工來說,這個問題暗示Sutskever可能認為Altman在將該軟體商業化方面動作太快——該軟體已經成為一項價值數十億美元的業務——而犧牲了潛在的安全問題。

Ilya Sutskever在談到「政變」時說「我可以理解你為什麼選擇這個詞,但我不同意這一點。這是董事會履行非營利組織使命的職責,即確保 OpenAI 建構造福全人類的 AGI。” AGI 代表通用人工智慧,這個術語指的是能夠像人類一樣進行推理的軟體。」另一人表示,Sutskever 可能誤解了與其他方可能對 OpenAI 進行惡意收購有關的問題。

Altman本人並沒有參與將他踢出董事會的那場投票,但開除Altman的六人董事會並沒有解釋此舉的原因,只是說Altman「向董事會的溝通不夠坦誠」,但在公司為開除後的內部危機管理中,安全一直是最大的主題。

例如,在週五致員工的備忘錄中,暫時擔任CEO的Mira Murati提到了「我們的使命和共同開發安全有益的通用人工智慧的能力」。

她說公司有三大支柱:「最大程度地推進我們的研究計畫,我們的安全和價值觀調整工作——特別是科學預測能力和風險的能力,以有利於所有人的方式與世界分享我們的技術。」

董事會與管理層分歧已久

關於AI安全的顧慮使這家創業公司的領導人產生了分歧。

2020年底,一部分員工由於在公司的商業戰略和技術發佈速度上的分歧,從OpenAI分裂出去創立了自己的創業公司Anthropic。而為了確保OpenAI的技術開發不會受到財務激勵的影響,Anthropic組建了一個獨立的五人小組,可以僱傭和解僱公司的董事會。

多年來,AI從業者一直擔心更強大的模型可能被濫用,比如開發生物武器、生成有說服力的深度偽造或入侵關鍵基礎設施。一些人還認為這些系統最終可能會變得自主並以人類的代價失控。

隨著OpenAI開發出可以自動化寫作、程式和從零生成逼真圖像的突破性人工智慧,公司的一些員工討論了這樣的AI潛在危害——特別是如果它學會自我改進。

今年夏天公司成立了一個團隊,由Sutskever和研究員Jan Leike共同領導(AI alignment研究就是通過各種技術手段,使AI系統的目標與人類利益一致,防止AI系統做出危害人類的行為),致力於尋找技術解決方案,防止其AI系統失控。

在一篇說明中,OpenAI說它將專注五分之一的計算資源來解決「超級智慧」的威脅,Sutskever 和Leike寫道這「可能導致人類失去權力甚至滅絕」。

與Altman的野心與激進形成對比的是,Sutskever一直以來都非常關注安全,在7月的一次採訪中他說,他最擔心強大的通用AI在未來幾年的危險性,但希望未來AI技術可以幫助人類對自己進行監管。

 

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則