2024.08.24 13:00

Google DeepMind 員工聯署要求終止公司軍事合約,質疑AI技術用途違反道德承諾

ADVERTISEMENT

根據《時代雜誌》(TIME)審閱的文件副本和五位知情人士透露,今年稍早,Google 旗下 AI 部門 DeepMind 的近 200 名員工簽署了一封信,呼籲這家科技巨頭終止與軍事組織的合約。這封信在 AI 實驗室內部流傳,因為人們越來越擔心其技術被出售給從事戰爭的軍隊,員工們認為這違反了 Google 自己的 AI 規則。

這封信意味著 Google 內部日益加劇的爭端。爭議至少存在於部分 AI 部門員工(他們曾承諾永遠不從事軍事技術)與其雲端業務部門之間。雲端業務部門與多個政府和軍隊(包括以色列和美國)簽有合約,銷售 Google 服務,其中包括 DeepMind 開發的 AI。這些簽名代表 DeepMind 全體員工的 5% 左右——雖然比例不大,但在頂尖機器學習人才需求量極高的行業中,這代表著相當程度的員工不安。

這封 DeepMind 的信件日期為今年 5 月 16 日,開頭便指出員工們「對最近有關 Google 與軍事組織簽訂合約的報導感到擔憂」。信中沒有具體提及任何軍隊的名稱——稱「我們強調,這封信與任何特定衝突的地緣政治無關」。但它連結了 《時代雜誌》 四月份的一篇報導,該報導揭露 Google 根據與以色列更廣泛的合約「Project Nimbus」,直接與以色列軍方簽訂了提供雲端運算和 AI 服務的合約。該信還鏈接了其他報導,聲稱以色列軍方使用 AI 對其在加薩的轟炸行動進行大規模監視和目標選擇,以及以色列政府要求以色列武器公司從 Google 和 Amazon 購買雲端服務。

ADVERTISEMENT

在 Google DeepMind 內部流傳的信中寫道:「任何與軍隊和武器製造的牽連都會影響我們作為道德和負責任 AI 領導者的地位,並且違反我們的使命宣言和既定的 AI 原則。」(這些原則聲明公司不會追求可能造成「整體傷害」的 AI 應用、促進「主要目的或實施」是造成傷害的武器或其他技術,或建造「目的違反廣泛接受的國際法和人權原則」的技術。)信中表示,簽署者關心的是「確保 Google 的 AI 原則得到維護」,並補充道:「我們相信 [DeepMind 的] 領導層與我們有著共同的擔憂。」

Google發言人告訴《《時代雜誌》》:「在開發AI技術並將其提供給客戶時,我們遵守我們的AI準則,這些準則概述了我們對負責任地開發技術的承諾。我們已經非常明確地表示,Nimbus合約是為以色列政府部門運行的商業雲端工作負責,這些部門同意遵守我們的服務條款和可接受使用政策。這項工作並不針對與武器或情報服務相關的高度敏感、機密或軍事工作。」

該信呼籲 DeepMind 的領導層調查有關軍隊和武器製造商是 Google 雲端用戶的指控;終止軍方用戶對 DeepMind 技術的訪問權限;並建立一個新的治理機構,負責防止 DeepMind 技術未來被軍事客戶使用。據四位知情人士透露,在信件流傳的三個月後,Google 沒有採取任何這些措施。「我們沒有收到領導層任何有意義的回應,」其中一位表示,「我們越來越感到沮喪。」

ADVERTISEMENT

當 DeepMind 在 2014 年被 Google 收購時,實驗室的領導者從這家搜尋巨頭那裡獲得了一個重要承諾:他們的 AI 技術永遠不會用於軍事或監視目的。多年來,這家位於倫敦的實驗室在很大程度上獨立於 Google 位於加州的總部運作。但隨著 AI 競賽升溫,DeepMind 被更緊密地拉入 Google 本身。實驗室領導者在 2021 年爭取更多自主權的努力失敗了,並在 2023 年與 Google 的另一個 AI 團隊 Google Brain 合併,使其更接近這家科技巨頭的核心。DeepMind 領導者希望成立一個獨立的道德委員會來管理 AI 實驗室技術的使用,但該委員會最終只召開了一次會議,很快就被 Google 的總體道德政策:AI 原則所取代。雖然這些原則承諾 Google 不會開發可能造成「整體傷害」的 AI,但它們明確允許公司在得出「益處大大 outweigh the risks」的結論時開發可能造成傷害的技術。並且它們不排除將 Google 的 AI 出售給軍事客戶。

結果,DeepMind 技術被綁到 Google 的雲端軟體中,並出售給包括以色列及其國防部在內的軍隊和政府。「雖然 DeepMind 過去可能不願意從事軍事 AI 或國防合約,但我確實認為這不再是我們的決定,」一位 DeepMind 員工在四月告訴 《時代雜誌》,他要求匿名,因為他們無權公開發言。四月份,幾位 Google 員工告訴 《時代雜誌》,出於隱私原因,公司對政府客戶使用其基礎設施的情況了解有限,這意味著 Google 可能難以(如果不是不可能的話)檢查其可接受使用政策(禁止用戶使用其產品從事「可能導致死亡、嚴重傷害或受傷的暴力行為」)是否遭到違反。

ADVERTISEMENT

Google 表示,其與以色列的合約 Project Nimbus 並非「針對與武器或情報服務相關的高度敏感、機密或軍事工作負載」。但五月份在 DeepMind 內部流傳的信中指出,這一回應「並沒有否認其技術促成任何形式的暴力或促成違反國際公認規範的監視活動的指控」。一位信件簽署者告訴 《時代雜誌》,Google 關於 Project Nimbus 的聲明「如此具體卻又如此含糊,我們都不知道它到底意味著什麼」。

據三位知情人士透露,在六月份的一次 DeepMind 全體員工大會上,管理層們被要求回應這封信。DeepMind 的首席運營長莉拉·伊布拉欣(Lila Ibrahim)回答了這個問題。根據 《時代雜誌》 審閱的會議記錄,她告訴員工,DeepMind 不會為武器或大規模監視設計或部署任何 AI 應用程式,並且 Google 雲端客戶在法律上受到公司服務條款和可接受使用政策的約束。伊布拉欣補充說,她為 Google 在推進安全和負責任的 AI 方面的記錄感到自豪,這也是她選擇加入並留在該公司的原因。

ADVERTISEMENT