全身合成的假動作影片開始慢慢走入大眾的視野,甚至顯現出了一些商用的潛力(不僅限於色情行業)。如今,Deepfake 可以在舞蹈,體育和生物醫學研究等領域發光發熱,當然他們目前最突出的還是在假訊息和政治中得到了應用和廣泛的傳播。
當我們看到兒童模特兒在家長的壓迫下進行超負荷工作時,我們或許會想,服裝為什麼一定要由模特兒來展示呢?沒有模特兒,消費者也能直接看到不經模特兒修飾的服裝平鋪圖,模特兒似乎也不是必要的。
當然,對於服裝品牌來說,沒有模特兒不利於銷售。儘管模特兒成本也不低,但真人呈現服裝的效果還是要比服裝直接的平鋪強上不少。只是用模特兒拍攝服裝在兒童模特兒上很可能遭遇道德困境。孩子的父母在用孩子賺錢的同時可能不會過多在意小朋友的感受。
現在,AI 或許就能解決這些問題,它的存在或許能夠替代部分服裝模特兒。
日本京都的數據網格有限公司開發了「自動產生全身模型 AI」。這是一種可以自動產生不存在的模特兒的高解析度全身圖像 AI,這個 AI 可以應用在服裝展示、廣告等不同領域。
其使用的技術與之前鬧上熱搜的「楊冪換臉」、「換臉色情片」一本同源,都是在人工智慧基礎之上的人物圖像合成技術 Deepfake。它可以用「生成對抗性網路(GAN)」的機器學習技術將現有圖像和影片組合疊加到原始圖像或影片上,合成器(產生網路)及檢測器(鑑別網路)在一個不斷進化的回饋回路中工作,最終創建真實的合成圖像和影片。
事實上,做這個研究和訓練的學者很早以前就在行動了。2018 年 8 月,加州大學柏克萊分校的研究人員發佈了一篇題為《當今人人跳舞》的論文和影片。透過這項技術,舞蹈的初學者也能夠在影片或圖像中看到自己跳出了最到位的舞蹈動作。
當然,在一年前的這個研究成果中,我們還能夠看出人臉和軀幹的不自然變動。相較於原始的舞蹈影片,產生的全身舞蹈影片屬於稍微用心就能看出不對勁的成果。
同年,德國海德堡大學 Bjorn Ommer 博士領導的一個研究團隊也發表了一篇關於教授機器真實呈現人類動作的論文。
這只是開始,全身合成的假動作影片開始慢慢走入大眾的視野,甚至顯現出了一些商用的潛力(不僅限於色情行業)。如今,Deepfake 可以在舞蹈,體育和生物醫學研究等領域發光發熱,當然他們目前最突出的還是在假訊息和政治中得到了應用和廣泛的傳播。
Bjorn Ommer 表示「我們已經看到全身合成形象不僅出現在了遊戲行業,也出現在許多能夠創造收入的領域……對我們團隊來說,這是我們正在考慮的不同領域,例如生物醫學研究。我們想要更詳細地瞭解與殘疾等類目相關的人類乃至動物的姿勢。」
在他看來,AI 全身合成什麼時候能夠達到研究人員所期望的高度是無法預測的,但整個研究朝著好的方向發展。
但這也帶來了另一個問題——全身合成技術的濫用。每一個人都可以在 GitHub 之樣的開放社群裡找到最新的研究成果,找到可應用的程式碼。每一個人都可以在沒有完全意識到全身合成技術可能會引發什麼後果的情況下使用它,產生一個不易辨別的影片或圖像。
到時候,每一個人都可能成為這個技術的應用者與「受害者」。就像調查記者 Van de Weghe 所說的:
(面對 Deepfake 所產生假內容)受威脅最大的不是大人物、政客和名人。而是普通人——像你、我,以及那些可能成為或已經成為 Deepfake 受害者的邊緣群體。
- 本文授權轉載自ifanr
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!