2024.06.06 14:30

Ambient Diffusion文生圖模型:只用被破壞的圖片來訓練AI,藝術家也無法告你侵犯版權

ADVERTISEMENT

以原始圖像為基礎進行訓練的文字到圖像人工智慧模型可以記憶原始圖像,並生成複製品,從而引發版權侵權問題。而現在,有一個新開發的人工智慧模型,只對受到嚴重破壞的圖像進行訓練,從而解決了這一法律難題。

Ambient Diffusion 是一種文字到圖像的人工智慧模型,它可以通過使用嚴重破壞的圖像來保護藝術家的版權。

ADVERTISEMENT

文字到圖像生成器的一個大問題是,它們能夠複製用來訓練它們的原創作品,從而侵犯藝術家的版權。根據美國法律,如果你創作了原創作品並將其「固定」為有形的形式,你就擁有了它的版權--字面意思是複製它的權利。在大多數情況下,未經創作者授權,不得使用受版權保護的圖片。

今年 5 月,Google 母公司 Alphabet 遭到一群藝術家的集體版權訴訟,聲稱 Google 未經許可使用了他們的作品來訓練其人工智慧圖像生成器 Imagen。Stability AI、Midjourney 和 DeviantArt(它們都使用了 Stability 的 Stable Diffusion 工具)也面臨著類似的訴訟。

為了避免這個問題,德克薩斯大學奧斯汀分校和加州大學柏克萊分校的研究人員開發了一種基於擴散的生成式人工智慧框架,該框架只對已損壞到無法識別的圖像進行訓練,從而消除了人工智慧記憶和複製原創作品的可能性。

ADVERTISEMENT

擴散模型是一種先進的機器學習演算法,它通過向資料集逐步新增雜訊來生成高品質的資料,然後學習逆轉這一過程。最近的研究表明,這些模型可以記憶訓練資料集中的範例。

這顯然會對隱私、安全和版權產生影響。這裡有一個與藝術品無關的例子:比方說AI如果要辨識醫學的X光片,就需要大量的掃描X光片來訓練。問題是,AI又不能記住特定病人的圖像,否則就會侵犯病人的隱私。為了避免這種情況,模型製作者可以引入圖像損壞的訓練方式。

研究人員利用他們的環境擴散框架證明,只需使用高度損壞的樣本,就能訓練擴散模型生成高品質的圖像。

ADVERTISEMENT

上圖顯示了在使用損壞時圖像輸出的差異。研究人員首先用 CelebA-HQ 高品質名人圖片資料庫中的 3000 張「乾淨」圖片對模型進行了訓練。根據提示,該模型生成的圖像與原圖幾乎完全相同(左圖)。然後,他們使用 3000 張高度損壞的圖像對模型進行了重新訓練,其中多達 90% 的單個像素被隨機遮蔽。雖然模型生成的人臉栩栩如生,但結果卻大相逕庭(右圖)。

UT 奧斯汀分校電腦科學教授亞當.克里萬斯(Adam Klivans)是這項研究的共同作者,他表示:「從黑洞成像到某些類型的核磁共振成像掃描,基本上任何昂貴或不可能擁有全套未損壞資料的研究都會如此。」

ADVERTISEMENT

與現有的文字到圖像生成器一樣,其結果並非每次都完美無缺。關鍵是,藝術家們知道像 Ambient Diffusion 這樣的模型不會記住並複製他們的原創作品,就可以稍稍放心了。它能阻止其他人工智慧模型記住並複製他們的原始圖像嗎?不會,但這就是法院的職責所在。

研究人員已將他們的程式碼和環境擴散模型開源,以鼓勵進一步的研究。可在 GitHub 上查閱。

該研究發表在 arXiv 上。

 

 

ADVERTISEMENT