ADVERTISEMENT
餵給網站一張AI畫的圖,馬上揪出它參考了哪些人類作品。
可以一次性溯源20多張圖畫。
這個反向搜尋引擎,要把AI畫畫的底給扒乾淨了。
它的目的很簡單,為人類藝術家討公道。
看網站名就懂得都懂了,Stable Attribution(穩定歸因),與Stable Diffusion(穩定擴散)相對應。
點擊任何一張溯源到的圖片,就會出現一個可以上傳來源及作者的對話方塊。
網站表示,透過大家找到的原作資訊,能夠正視人類藝術家對於AI畫畫的貢獻,並可能進一步按比例分配報酬,讓人類藝術家和AI畫畫化干戈為玉帛。
在Haker News上,它一發表熱度已經超過700 points。
網友們也表示認同:
這總比直接禁止AI產生內容好啊。
一鍵為AI畫圖溯源
網站本身已經給出了一些範例,可以直接點擊嘗試反向搜尋。
例如一張看似真實的女人畫像,可能是AI參考了多張人臉後合成來的。
還能自己找一張Stable Diffusion繪製的圖片試試。
我們用Stable Diffusion繪製了一組雪景圖,並拿第一張圖測試了一下。
Stable Attribution給出的結果是這樣,左邊那列是它參考過的圖片。
但是也會有失敗的案例,同樣是一幅雪景,網站這一次卻說搜不到結果。
原理上,官方表示目前Stable Attribution的演算法是對AI產生的圖像進行解碼,從Stable Diffusion模型訓練資料集中找到相似的案例。
而Stable Diffusion使用的是公開資料集LAION-5B,所以尋找起來也不是很麻煩。
同時網站還聲明,對於溯源到的圖片,他們沒有版權,而且也不會拿來訓練模型。
這間公司名叫Chroma,創立於2022年。主要業務是做嵌入式資料庫、嵌入式搜尋和嵌入式分析的開源工作,能為演算法模型的訓練、微調和使用提供支援。
現在已經得到了一些機器學習領域人士的投資,他們投過的公司有Hugging Face、Replit等。
主創團隊有兩個人,之前都有過科技大廠的工作經歷。
Anton Troynikov創業前是Facebook Reality Labs(研究AR/VR)的研究工程師,更早之前還做過CV、軟體等方面工作。
Jeff Huber之前是Standard Cyborg的聯合創始人,這家公司的明星產品是3D列印義肢。
網友:會不會有些誇大其詞?
雖然想法很美好,但是也有不少網友指出,這個網站背後的原理真的可靠嗎?
結果很令人滿意,但似乎把問題太過簡單化了,也曲解了Attribution的意思。
這個網站認為,AI繪製的圖片,一定不會存在於原本的訓練資料集中。因此在資料集範圍內找到一些和它非常相似的圖,就可以被認為是「參考圖」。
有人就指出,如果拿一張1850年的手繪圖,它不是AI產生的,也不會存在於資料集中,網站是不是也會給出一些所謂的相似參考結果?
也有人說,感覺網站提供的圖像裡,並沒有包含AI繪製圖片的一些細節元素。
官方也表示,目前演算法中還存在很多需要最佳化的問題,比如訓練過程中的雜訊太多、訓練資料中有很多錯誤和冗餘。
但這些問題都能解決,他們也在想辦法改進。
有網友也打算用長遠的目光看這個事:
即便只是找相似結果,算不上attribution,我認為這也是更好的。
另外一方面,各路圖片網站和Stable Diffusion的維護權益的大戰還在持續發酵。
最近,Getty升級了法律訴訟,表示Stable Diffusion在未經過授權的情況下,使用了他們1200萬張圖片。
法律人士表示,相比於藝術家們提出的法律訴訟,Getty這邊的訴訟可能更有希望。
因為藝術家們提出的是AI畫畫對於職業的威脅,而Getty被侵權差不多是確定的事,之前甚至還產生了打著Getty浮水印的圖片。
但鑒於這種官司屬於前所未有,所以結果很難預測。
也有圖片網站選擇「打不過就加入」,和OpenAI一塊弄了個AI圖片產生器,並且對資料集做貢獻的人提供補償。
Stable Attribution的態度是:AI應該和所有其他技術一樣服務於人類,我們不應該疏遠它。
你覺得呢?
資料來源:
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!