OpenAI發佈公告,宣佈啟動全球招募「紅隊」成員,旨在引入外部力量,提前挖掘出AI系統存在的缺陷和風險。
所謂的「紅隊」即Red Teaming,概念來自於軍事模擬。即找一隊人來模擬假想的「敵人」,來測試本方(即「藍隊」)的水準。
在AI領域中,「紅隊」的任務就是模擬駭客或者其他的潛在危險人物,試圖找到大型語言模型的漏洞,從而避免AI在現實社會中協助從事危害社會安全等不法目的。
OpenAI表示,過去幾年裡一直有不同領域的專家來協助測試未發佈的模型,現在則是要組建一支「正規部隊」,網羅大量來自不同地域、不同語言、不同專業領域、不同生活經驗的人,共同使得AI模型更加安全。與過往僅在重要版本上線前招一批人集中測試不同,OpenAI將會根據需求在整個開發週期中啟用數量不定的成員展開測試。
同時,這個「紅隊」也將成為OpenAI的全球專家人才庫,同時OpenAI也會提供平台,讓「紅隊」成員之間進行交流。OpenAI也在官網上列出部分他們希望招募的專家方向,但也強調並不侷限於這些領域。
- Cognitive Science:認知科學
- Chemistry:化學
- Biology:生物學
- Physics:物理學
- Computer Science:電腦科學
- Steganography:隱寫技術
- Political Science:政治學
- Psychology:心理學
- Persuasion:說服
- Economics:經濟學
- Anthropology:人類學
- Sociology:社會學
- HCI (Human-Computer Interaction):人機互動
- Fairness and Bias:公平與偏見
- Alignment:目標對齊
- Education:教育
- Healthcare:醫療保健
- Law:法律
- Child Safety:兒童安全
- Cybersecurity:網路安全
- Finance:金融
- Mis/disinformation:誤/假資訊
- Political Use:政治應用
- Privacy:隱私
- Biometrics:生物識別
- Languages and Linguistics:語言與語言學
順便一提,OpenAI也表示會給參與紅隊的成員支付酬金(但沒講會給多少錢),但OpenAI也強調,參與紅隊的專家一般會要求簽下保密協議,或者在某一段不特定的時間內保持沉默。
OpenAI表示,申請時間一直到今年12月1日前保持開放,公司將隨時稽核申請,後續將評估是否需要再進行公開招募。
浮出水面的OpenAI「紅隊」
正如OpenAI所述,「紅隊」的建制已經存在很久,而且有不少成員已經接受過媒體的公開專訪了。
在今年4月英國《金融時報》的揭秘文章中,美國羅徹斯特大學的化學工程教授Andrew White介紹稱他參加了GPT-4的紅隊測試,他的攻擊目標是用ChatGPT來創造一種全新的神經毒素。White表示他用了「外掛」向大型語言模型輸送化學論文和化學製造商的目錄,大型語言模型甚至還給他找到了一個可以生產假想毒素的地方。
White表示,大型語言模型最終可以幫助許多人更快、更準確地做化學試驗,但這裡也有一個嚴重的危險,就是會有些人拿AI去做一些危險的嘗試。
在得到White的意見後,OpenAI對系統做出了改動,確保不會回應類似的提問。根據媒體找到目前所知有10來個背景迥異的「紅隊」成員——有律師、教師、風控人員、安全研究人員等,大多數都位於美國和歐洲。他們透露,在GPT-4發佈前的幾個月時間內,他們大致花了10-40個小時來測試這個模型,報酬大概是每個小時100美元。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!