ADVERTISEMENT
OpenAI創始人伊爾亞‧蘇茲克維(Ilya Sutskever)在上個月離開了這家創造GPT的公司後,揭露了他的新工作:一家名為「Safe Superintelligence Inc.」的公司,其目標是生產同名產品,然後去掉「Inc.」的部分。
這家新創公司目前似乎只有三個人、一個靜態的 HTML 網頁、一個社群媒體帳號和一個使命組成。
ADVERTISEMENT
- 延伸閱讀:ChatGPT 全球爆紅,但大眾只認識阿特曼,卻對另一位創始人AI天才科學家伊爾亞·蘇茲克維瞭解不多
- 延伸閱讀:OpenAI 董事會意外的一日政變推翻了CEO Altman 阿特曼,當天到底發生甚麼事、完整細節還原
網頁上寫道:「超級智慧就夰眼前。構建安全的超級智慧(SSI)是我們這個時代最重要的技術問題。」
「我們已經開設了世界上第一家專注於SSI的實驗室,只有一個目標和一個產品:一個安全的超級智慧。」
ADVERTISEMENT
「創造SSI是我們的使命、我們名稱和整個產品藍圖,因為這是我們唯一的重點。我們的團隊、投資者和商業模式都是為實現SSI而努力。」
那些投資者是誰?頁面上沒有說明。商業模式也是一樣。頁面由蘇茲克維、Daniel Gross:Apple 的前 AI 主管)和 丹尼爾·利維 (Daniel Levy:OpenAI 的另一位校友)聯合簽名。
所以這是一個三人團隊。SSI 也正在「組建一個精簡、頂尖的團隊,由世界上最好的工程師和研究人員組成,致力於專注於 SSI,沒有其他。」團隊成員將在加州的帕羅奧圖和以色列的特拉維夫工作。
ADVERTISEMENT
該網頁還提供了以下關於公司意圖的簡要說明:
「我們同時處理安全性和功能,將它們視為透過革命性工程和科學突破解決的技術問題。我們計劃盡可能快地提升功能,同時確保我們的安全始終領先。這樣,我們就可以安心地擴大規模。我們專注於單一目標,意味著不會因管理開銷或產品週期而分心,我們的商業模式意味著安全、保障和進步都不會受到短期商業壓力的影響。」
提到將安全置於產品週期之前是值得注意的,因為OpenAI曾因其人工智慧安全性的處理方式而受到批評,導致它不得不成立一個安全委員會。
ADVERTISEMENT
當蘇茲克維離開 Open AI 時,他寫道「我相信 OpenAI 將建立既安全又有益的人工通用智慧(AGI)。」SSI 的聲明表明,Sutskever 對 OpenAI 在這個問題上的做法不像他最初表示的那麼有信心,並希望嘗試其他方法。
目前還沒有提供關於 SSI 將提供什麼、何時可能提供,或如何確保安全的細節。這使得這次發表看起來像所謂的「URL:Ubiquity first, Revenue Later(先普及,後營收)」的做法。
ADVERTISEMENT