OpenAI遭遇駭客入侵竊取AI技術細節,但公司對此守口如瓶

OpenAI遭遇駭客入侵竊取AI技術細節,但公司對此守口如瓶

在人工智慧(AI)技術快速發展的今天,安全問題成為了業界關注的焦點。近日,《紐約時報》披露了一則震驚業界的消息:AI領域的領軍企業OpenAI於2023年初遭遇了一次嚴重的駭客攻擊。這次事件不僅暴露了該公司在安全管理上的潛在漏洞,也引發了人們對AI技術安全的廣泛討論。

駭客入侵OpenAI內部郵件系統

向《紐約時報》提供這一資訊的兩位消息人士稱,一名駭客成功入侵了OpenAI的內部郵件系統,並竊取了公司的部分AI技術資訊。這一事件發生在2023年初,但OpenAI選擇僅向員工披露,而未向公眾或執法部門報告。

駭客主要通過入侵OpenAI員工使用的線上論壇獲取資訊。在這些論壇中,員工們經常討論公司的最新技術發展。值得慶幸的是,儲存和訓練GPT模型的核心系統並未受到入侵。

員工擔憂國家安全風險

據知情人士透露,OpenAI的一些員工對此次攻擊表示了深切的擔憂。他們認為,這類攻擊可能被某些國家利用來竊取先進的AI技術,進而對美國的國家安全構成潛在威脅。

事件曝光後,部分員工開始質疑公司對安全問題的重視程度。這反映出OpenAI內部在如何平衡技術創新和安全防護之間存在分歧。

關於AI技術可能帶來的風險,OpenAI員工之間的觀點也出現了明顯的分歧。這種分歧不僅涉及技術安全,還延伸到了AI的發展方向和潛在影響等更廣泛的議題。

OpenAI前員工的爆料

OpenAI的一位前技術項目經理萊奧波德·阿申布倫納(Leopold Aschenbrenner)曾向公司董事會提交了一份備忘錄。他在備忘錄中指出,公司在防止外國對手竊取機密資訊方面做得不夠。

阿申布倫納在一次Podcast節目中暗示了公司存在安全漏洞,隨後因向外部洩露資訊而被OpenAI解僱。他認為這次解僱帶有政治動機,這進一步加劇了公司內部的緊張氣氛。

OpenAI管理層爭鬥

在安全事件曝光之前,OpenAI已經經歷了首席執行長山姆·奧特曼(Sam Altman)與董事會之間的權力鬥爭。這次駭客入侵事件的披露無疑為公司增添了新的難題。

近期,幾位專注於AI安全研究的人員因在超智慧AI問題上存在分歧而離開了公司。這反映出OpenAI在AI發展方向和安全控制方面面臨的內部挑戰。

對國家安全影響的評估

AI領域的知名人士,如Anthropic的聯合創始人Daniela Amodei認為,目前生成式AI的設計被盜不會對國家安全造成重大威脅。然而,她也指出,隨著AI技術能力的不斷提升,這種情況可能會發生變化。

專家們普遍認為,雖然當前AI技術泄露的影響可能有限,但隨著AI系統變得越來越先進和強大,相關的安全風險也將隨之增加。這要求企業和政府部門更加重視AI技術的安全保護。

 

 

 

KKJ
作者

快科技成立於1998年,是驅動之家旗下科技媒體業務,中國極具影響力的泛科技領域媒體平台之一。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則