有「AI 教父」之稱的傑弗里・辛頓 (Geoffrey Hinton) 週一宣佈,他已經從Google公司離職。半個世紀以來,辛頓一直在培養 ChatGPT 等聊天機器人背後的核心技術。但是現在,他擔心 AI 會造成嚴重危害。
辛頓是 AI 先鋒。2012 年,辛頓博士和他在多倫多大學所帶的兩名研究生開發的技術,成為了 AI 系統的知識基礎。如今,科技行業的巨頭們認為,AI 系統是它們未來發展的關鍵。
為發展 AI 而後悔
然而就在週一,他正式加入了越來越多的 AI 批評人士的行列。他們認為,這些公司積極開發基於生成式 AI 的產品,ChatGPT 等熱門聊天機器人等被快速研發,這是在奔向危險。
辛頓說,他已經辭去了Google的工作,以便自己可以自由地談論 AI 的風險。他已經在Google工作了十多年,成為該領域最受尊敬的人物之一。辛頓表示,他現在對自己一生從事的工作感到有些後悔。
「我用平常的藉口來安慰自己:就算我沒做,別人也會做的。」上週,辛頓在多倫多家中的餐廳接受了長篇採訪時稱。那裡距離他和學生取得 AI 突破的地方只有幾步之遙。
辛頓從 AI 開拓者到末日預言者的轉變,標誌著科技行業在這個幾十年來也許最重要的拐點上經歷了一個非凡時刻。業界領袖認為,新的 AI 系統可能與 20 世紀 90 年代初推出的網路瀏覽器一樣重要,並可能引發從藥物研究到教育等領域的突破。
但是,令許多業內人士苦惱的是,他們擔心自己正在向野外釋放一些危險東西。生成式 AI 已經可以成為製造虛假資訊的工具。很快,它可能會對就業構成威脅。科技行業最大的擔憂者表示,在未來的某個時候,它可能會對人類構成威脅。
辛頓對此表示,「很難想像你能如何阻止壞人利用它做壞事」。
自從 OpenAI 在 3 月份發佈了最新版 ChatGPT-4 模型後,包括馬斯克在內的上千名科技領袖和高層簽署聯名信,呼籲暫停開發比 ChatGPT-4 更先進模型 6 個月時間,因為 AI“對社會和人類構成了深刻風險”。幾天後,有 40 年歷史的學術組織人工智慧促進協會的 19 位現任和前任領導人發表了他們自己的公開信,警告 AI 的風險。該組織包括微軟首席科學長Eric Horvitz。微軟已將 OpenAI 的技術應用於一系列產品,包括必應搜尋引擎。
辛頓沒有在這兩封信上籤名。他說,在辭職之前,他不想公開批評Google或其他公司。上個月,他通知公司他將辭職。週四,他與Google母公司 Alphabet CEO 桑達爾・皮查伊 (Sundar Pichai) 通了電話。他拒絕公開討論與皮查伊談話的細節。
Google首席科學家傑夫・迪恩 (Jeff Dean) 在一份聲明中表示:“我們仍然致力於對 AI 採取負責任的態度。我們在不斷學習瞭解新出現的風險的同時,也在大膽創新。”
- 延伸閱讀:AI風險難預料?歐洲試行人工智慧道德規範
AI 危險更快到來
辛頓認為,隨著企業改進 AI 系統,它們會變得越來越危險。“看看五年前和現在的情況,”他在談到 AI 技術時說,“接受差異並將其傳播出去。太可怕了。”
他表示,直到去年,Google一直是這項技術的“適當管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現在,微軟用聊天機器人增強了必應搜尋引擎,挑戰Google的核心業務,導致Google也在競相部署同樣的技術。
辛頓說,科技巨頭陷入了一場可能無法阻止的競爭。
他目前最擔心的是,網路將充斥著假照片、影片和文字,普通人將“無法再知道什麼是真的”。
他還擔心 AI 技術最終會顛覆就業市場。如今,像 ChatGPT 這樣的聊天機器人往往是對人類工作者的補充,但它們也可能取代律師助理、個人助理、翻譯和其他處理機械化任務的人。“它省去了繁重的工作,但它帶走的可能不止這些。”辛頓稱。
未來,他擔心未來版本的 AI 技術會對人類構成威脅,因為它們經常從分析的大量資料中學習意想不到的行為。他說,這成了一個問題,因為個人和公司不僅允許 AI 系統生成自己的電腦程式碼,還允許它們自己運行這些程式碼。他擔心有一天真正的自主化武器 —— 那些殺人機器人 —— 會成為現實。
“一些人相信,這種東西實際上會變得比人更聰明,”他表示,“但大多數人認為這還很遙遠。我也曾認為這還很遙遠。我認為這需要 30 到 50 年甚至更長的時間。顯然,我現在不再這麼想了。”
辛頓說,當人們過去問他如何能研究有潛在危險的技術時,他會轉述美國“原子彈之父”歐本海默 (Robert Oppenheimer) 的話:“當你看到某種從技術上感覺不錯的東西時,你就會去做。”
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!