2024.08.14 15:30

想要判斷你看到的美女是否AI生成?利用「飽和度照妖鏡」拉一下就可以現形

ADVERTISEMENT

現在的AI美女充斥網路,你是不是也覺得難辨真假?不過,現在似乎有破解AI美女的辦法了。

國外網友發現了一種「AI照妖鏡」,在照妖鏡的直視之下AI 美女全變鬼。來看看他們現形的「獠牙」。

ADVERTISEMENT

而背後的技巧很簡單,只要找到一個可以調整圖像飽和度的工具,然後把圖像飽和度拉滿,AI 人像的牙齒就會變得非常詭異,邊界模糊不清。整體圖片的顏色也正常,麥克風部分更是奇怪。

對比真實人類照片,則應該是這樣的。牙齒是清晰的,圖片色塊都是均勻一致的。

ADVERTISEMENT

人人都能拿著照片去試試,就算是AI 生成影片中的某一幀,也難逃此大法。不露牙的照片也會暴露問題。

哪裡可以用這個工具?

ADVERTISEMENT

你可以到以下的網址去試試,這是有網友利用Claude寫出來的,用AI來治AI。

https://claude.site/artifacts/6890e3d7-e65e-41ff-a7d4-3ccb38040b46

為了測試這個網站是否真的能辨識AI美女,我們用Copilot生成了其它的女性圖片。

ADVERTISEMENT

來看看第一張照片,光是這樣看起來其實相當不錯吧!

接下來就來實戰吧!

步驟1:連到這個網址後,點選左邊的「選擇檔案」來把要測試的檔案上傳。

步驟2:上傳圖片上去後,把下面的飽和度拉到200%。

步驟3:現在拉動圖片中間的滑桿,你就可以看出是否有什麼奇怪的地方了。

 

 

 

 

AI進化太快,人類快跟不上

最近 AI 人像太逼真又引發了不小討論,比如一組大火的「TED 演講者」,其實沒有一個是真人。

不只是人臉難以區分,就連之前 AI 的弱點 —— 寫字,現在都能完全以假亂真。

更關鍵的是,生成這樣的 AI 人像,成本也不高。低至 5 分鐘、每 20 秒 1.5 美元(台幣 50 塊左右)的價格即可搞定。

 

AI的進化這麼快,光憑人類的眼睛應該已經無法分辨了。

彙總來看,調整飽和度或許是目前最快速辨別的方法。AI 群像照在這種方法下暴露得更加徹底。

不過它有一個問題。如果圖像用 JPEG 演算法壓縮過後,該方法可能失效。

比如確定這張照片是真人照片。

但是由於畫質壓縮以及光線等問題,人物牙齒也有點模糊。

所以網友們還列出了更多分辨人像是否是 AI 合成的方法。

第一種方法,簡單說就是依靠人類的知識判斷。

由於 AI 學習圖像的方式和人類並不一致,難免無法 100% 掌握人類視角下的視覺資訊。造成的結果就是,AI 生成的圖片常常包含與現實世界不符之處,這就為圖像的鑑別提供了著手之處。

用開頭的這張圖片作為例子。

從整體上看,人物的皮膚過於光滑,看不到任何的毛孔,這種過於完美的特徵反而增加了不真實感。

當然這種「不真實感」並不完全等同於「造假」,畢竟經過磨皮處理的圖片同樣看不到毛孔。但這也並非唯一的判斷因素,AI 在圖片中留下的與常識的出入也未必只有一處。

實際上,這張圖只要稍微看以下細節,就能看到一個比較明顯的特徵 —— 胸牌上方掛鉤奇特的連接方式

還有在高飽和度模式下露出破綻的麥克風,放大之後直接用肉眼也能看出端倪。

更為隱蔽的是,頭髮末端有幾根毛髮的位置很不合理,但這樣的特徵,恐怕要擁有雷文霍克(微生物學家與顯微鏡學家)等級的視力才能看到了。

不過,隨著生成技術的進步,能夠找到的特徵越來越隱蔽,也是一個無法避免的趨勢。

還有一種方法是看文字,雖然 AI 在字型的刻畫上正逐漸克服「鬼畫符」的問題,但正確地渲染出有正確實際含義的文字還存在一些困難。 

除了這些物體本身的細節,還有光線、陰影等資訊也可以用來判斷真偽。

這張圖片是從一段視訊當中提取的,在它所在的視訊當中還有這樣的一幀。在麥克風右側的位置,有一片十分詭異的陰影,這片陰影對應的是人物的一隻手,顯然 AI 在這裡處理得有所欠缺。

說到影片,由於涉及前後內容一致性,AI 倒是比在靜態圖像中更容易露出雞腳馬腳。

還有一些特徵不算「常識錯誤」,但也體現出了 AI 在生成圖像時的一些偏好。

比如這四張圖,都是 AI 合成的「普通人」(average people),有沒有發現什麼共同之處?

有網友表示,這四張圖裡的人,沒有一個是笑臉,這點似乎就體現了 AI 生圖的某種特徵。

不過,「AI合成的人不會笑」針對這幾張圖而言確實如此,但這樣的判斷方式很難形成系統,畢竟不同的 AI 繪圖工具,特點也都不盡相同。

總之,為了應對逐漸進步的 AI,一方面可以加大觀察細節的力度,一方面還可以引入像拉高飽和度這樣的圖像處理技術。

但如果這樣的量變積累得越來越多,肉眼判斷也會越來越困難,圖像飽和度可能也有被 AI 攻破的一天。所以人們也在轉變思路,想到了「以模制模」的方法,用 AI 生成的圖片訓練檢測模型,從圖像中分析更多特徵。

比如 AI 生成的圖像在頻譜、噪聲分佈等方面存在許多特點,這些特點依靠肉眼無法捕捉,但 AI 卻能看得很清楚。

當然,也不排除檢測方法落後、跟不上模型變化,甚至模型開發者專門進行對抗性開發的可能。比如前文一直在討論的這張圖片,某 AI 檢測工具認為它是 AI 合成的機率只有 2%。

但 AI 造假和 AI 檢測之間的博弈過程,本身就是一場「貓鼠遊戲」。

所以在檢測之外,可能還需要模型的開發者也負起一些責任,例如給 AI 生成的圖片打上隱形浮水印,讓 AI 造假無處遁形。

AI 魔高一尺

值得一提的是,如上引發恐慌的 AI 人像,不少都是由最近爆火的 Flux 生成 / 參與製作。甚至大家已經開始默認,效果太好難以分辨的,就是 Flux 做的。

它由 Stable Diffusion 原班人馬打造,發佈才 10 天就在網路上掀起軒然大波。

這些精美的假 TED 演講照片,都是出自它手。

還有人用 Flux 和 Gen-3 一起做出了精美的護膚品廣告。以及多角度的各種合成效果。它很好解決了 AI 畫手、AI 生成圖片中文字等問題。

這直接導致現在人類區分 AI 畫圖,不能再直接看手和文字了,只能盯著蛛絲馬跡猜。

Flux 應該是在手部、文字等指標上加強了訓練。這也意味著,如果當下的 AI 繼續在紋理細節、色彩等方面下功夫訓練,等到下一代 AI 畫圖模型出來時,人類的辨認方法可能又要失效了……

而且 Flux 還是開源、筆電上可運行的。不少人現在已經在 Forget Midjourney 了。

從 Stable Diffusion 到 Flux,用了 2 年。從「威爾史密斯吃麵條」到「TEDx 演講者」,用了 1 年。

真不知道以後為了分辨 AI 生成,人類得想出哪些歪招了……

參考連結:

 

 

ADVERTISEMENT