AI模型崩潰危機:過度使用自身輸出恐導致輸出沒有意義的內容

AI模型崩潰危機:過度使用自身輸出恐導致輸出沒有意義的內容

ADVERTISEMENT

研究發現,AI 模型若過度使用自己的輸出進行遞迴訓練,將導致沒有意義的內容產生。

研究人員發現,網路上的 AI 生成內容不斷增加,除非業界能降低風險,否則可能導致機器學習模型「崩潰」。

牛津大學團隊發現,使用 AI 生成的資料集來訓練未來模型,可能會產生沒有意義的內容,這種現象稱為「模型崩潰」。例如,一個模型最初從中世紀歐洲建築的文本開始,到了第九代,卻開始胡扯談論起長耳大野兔。

在前幾天發表於《自然》雜誌的一篇論文中,Google DeepMind 和牛津大學的博士後研究員伊利亞・舒馬洛夫(Ilia Shumailov)領導的研究發現,在訓練資料集時,AI 可能無法捕捉到較不常見的文本,這意味著後續基於其輸出訓練的模型無法延續這些細微差別。以這種方式在早期模型的輸出上訓練新模型,最終會陷入遞迴循環。

該論文指出:「長期以來,人們就一直在試圖操縱語言模型。例如,過去出現了點擊、內容農場和引戰農場文,這些都是由人類操作的『語言模型』,其工作是誤導社群網路和搜尋演算法。這些惡意行為對搜尋結果造成了負面影響,因此搜尋引擎公司不得不修改演算法來應對。例如,Google 降低了內容農場文章的權重,更加重視來自教育領域等可信來源的內容,而 DuckDuckGo 則完全刪除了這些文章。隨著大型語言模型(LLM)的出現,這種惡意行為的規模將會變得更大,因為一旦自動化,攻擊者可以更容易地生成大量誤導性內容。換句話說,LLM 的出現使得操縱語言模型變得更容易、規模更大。」

在隨附的文章中,杜克大學電機和資訊工程助理教授艾蜜莉‧溫格(Emily Wenger)以一個生成狗圖像的系統為例來說明了模型崩潰。

她說:「AI 模型會傾向於重新創造訓練數據中最常見的狗品種,因此可能會過度呈現黃金獵犬,而忽略了小型巴吉度獵犬,此乃基於這兩個品種的普遍性。」

「如果後續模型是在過度呈現黃金獵犬的 AI 生成資料集上訓練的,問題就會加劇。經過足夠多的循環,模型會忘記像小型巴吉度獵犬這樣罕見的狗品種的存在,只生成黃金獵犬的圖片。最終,模型將崩潰,無法生成有意義的內容。」

雖然她承認過度呈現黃金獵犬可能不是壞事,但崩潰過程是個嚴重問題,因為罕見想法和寫作方式很少被包含作為有意義輸出。「這是模型崩潰的核心問題。」她說。

一個現有的解決方案是對 AI 生成的內容進行浮水印處理。然而,這些浮水印可以很容易地從 AI 生成的圖像中移除。分享浮水印訊息還需要 AI 公司之間的大量協調,「這可能不切實際或在商業上不可行。」溫格說。

舒馬洛夫和同事表示,用人工智慧生成的數據訓練模型並非不可能,但業界需要建立有效的數據過濾方法。

論文指出:「區分大型語言模型(LLM)生成的數據與其他數據的需要,引發了關於從網際網路爬取的內容來源的問題:目前尚不清楚如何大規模追蹤 LLM 生成的內容。」

「一種選擇是全社群協調,確保參與大型語言模型創建和部署的不同方,共享解決來源問題所需的資訊。否則,在沒有取得該技術大規模採用先前從網路爬取的數據,或直接取得大規模人類生成數據的情況下,訓練更新版本的大型語言模型可能會變得越來越困難。」

netizen
作者

一個老派的科技媒體工作者,對於最新科技動態、最新科技訊息的觀察報告。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則