OpenAI 的天才創辦人伊爾亞‧蘇茲克維離職後,新公司專注「安全的超級智能」要與前公司競爭

OpenAI 的天才創辦人伊爾亞‧蘇茲克維離職後,新公司專注「安全的超級智能」要與前公司競爭

ADVERTISEMENT

OpenAI創始人伊爾亞‧蘇茲克維(Ilya Sutskever)在上個月離開了這家創造GPT的公司後,揭露了他的新工作:一家名為「Safe Superintelligence Inc.」的公司,其目標是生產同名產品,然後去掉「Inc.」的部分。

這家新創公司目前似乎只有三個人、一個靜態的 HTML 網頁、一個社群媒體帳號和一個使命組成。

目前SSI只有一個網頁

網頁上寫道:「超級智慧就夰眼前。構建安全的超級智慧(SSI)是我們這個時代最重要的技術問題。」

「我們已經開設了世界上第一家專注於SSI的實驗室,只有一個目標和一個產品:一個安全的超級智慧。」

 

「創造SSI是我們的使命、我們名稱和整個產品藍圖,因為這是我們唯一的重點。我們的團隊、投資者和商業模式都是為實現SSI而努力。」

那些投資者是誰?頁面上沒有說明。商業模式也是一樣。頁面由蘇茲克維、丹尼爾·格羅斯(Daniel Gross:Apple 的前 AI 主管)和 丹尼爾·利維 (Daniel Levy:OpenAI 的另一位校友)聯合簽名。

所以這是一個三人團隊。SSI 也正在「組建一個精簡、頂尖的團隊,由世界上最好的工程師和研究人員組成,致力於專注於 SSI,沒有其他。」團隊成員將在加州的帕羅奧圖和以色列的特拉維夫工作。

該網頁還提供了以下關於公司意圖的簡要說明:

「我們同時處理安全性和功能,將它們視為透過革命性工程和科學突破解決的技術問題。我們計劃盡可能快地提升功能,同時確保我們的安全始終領先。這樣,我們就可以安心地擴大規模。我們專注於單一目標,意味著不會因管理開銷或產品週期而分心,我們的商業模式意味著安全、保障和進步都不會受到短期商業壓力的影響。」

提到將安全置於產品週期之前是值得注意的,因為OpenAI曾因其人工智慧安全性的處理方式而受到批評,導致它不得不成立一個安全委員會。

當蘇茲克維離開 Open AI 時,他寫道「我相信 OpenAI 將建立既安全又有益的人工通用智慧(AGI)。」SSI 的聲明表明,Sutskever 對 OpenAI 在這個問題上的做法不像他最初表示的那麼有信心,並希望嘗試其他方法。

目前還沒有提供關於 SSI 將提供什麼、何時可能提供,或如何確保安全的細節。這使得這次發表看起來像所謂的「URL:Ubiquity first, Revenue Later(先普及,後營收)」的做法。

 

netizen
作者

一個老派的科技媒體工作者,對於最新科技動態、最新科技訊息的觀察報告。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則