人工智慧(AI)研究公司OpenAI公佈了一套關於防範AI風險的指導方針,其中值得關注的一條規則是,即使CEO等公司領導層認為AI模型是安全的,董事會也可以阻止其發佈。OpenAI開發的聊天機器人ChatGPT已經發佈了一整年,這款現象級應用極大促進了AI領域的發展,與之而來的還有對AI發展失控的擔憂。
全球監管機構都在制定各自的AI法規,而作為AI領域領頭羊的OpenAI也在採取行動。
今年10月27日,OpenAI宣佈組建名為「準備」(Preparedness)的安全團隊,旨在最大限度地降低AI帶來的風險。
Preparedness團隊由麻省理工學院的可部署機器學習中心主任Aleksander Madry領導,該團隊將針對各類AI模型進行能力評估及紅隊測試,以追蹤、預測及防範各類別的災難性風險。
OpenAI週一發佈了名為「準備框架」(Preparedness Framework)的指導方針,並強調這套指南仍處於測試階段。
據悉,Preparedness團隊每月將向一個新的內部安全諮詢小組傳送報告,該小組隨後將對其進行分析,並向OpenAI首席執行長薩姆·奧爾特曼和董事會提交建議。奧爾特曼和公司高層可以根據這些報告決定是否發佈新的AI系統,但董事會有權撤銷這一決定。
作為OpenAI聯合創始人之一,阿特曼在不久前還是公司董事會成員,但在一場人事巨震中被除名,並且一度離開OpenAI。雖然阿特曼最終得以重返OpenAI並繼續擔任CEO一職,但新組建的“初始”董事會並沒有他的席位。
Preparedness團隊將反覆評估OpenAI最先進、尚未發佈的AI模型,根據不同類型的感知風險評為四個等級,從低到高依次是“低”、“中”、“高”和“嚴重”。根據新的指導方針,OpenAI將只推出評級為“低”和“中”的模型。
- 延伸閱讀:OpenAI首席科學家已經一週沒在公司現身,馬斯克:可以考慮來我這裡
- 延伸閱讀:雖然一度下台又上台,OpenAI首席執行長阿特曼仍被《時代》雜誌選為年度CEO
- 延伸閱讀:外媒還原OpenAI「政變」過程中微軟的角色:幕後擬定三個因應計畫、以及怎麼影響OpenAI董事會
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!