注意看,這是一位小學老師,他正赤裸著上身在學校教室里自拍。如果這是一張真實的照片,那麼圖片中這位名為John的小學老師很可能將被學校直接勒令開除。但好在,這位John是一個由外媒Arts Technica為了做AI社群圖片實驗而虛構出來的人物。
John的人物設定是一位普通的小學老師,和我們生活中的大部分的人一樣,在過去的 12 年裡,John喜歡在 Facebook 上發佈自己在工作記錄、家庭生活、假期照片等。
Arts Technica團隊透過從中選取了7張含有John的圖片,再使用了近期大火的Stable Diffusion和Google研究院發佈的Dreambooth兩個AIGC(AI產生內容)工具,接著就在社群媒體上生成了不同版本、讓人真假難辨的John。
在這些照片裡,John從一位普通的、喜歡分享日常生活的英文老師,一會變成了一個喜歡在教室裡、公眾場合脫衣服自拍的“危險分子”,一會又變成了一個喜歡穿各種奇裝異服搞怪的「小丑」……翻看照片,每一張似乎都不是John,但每一張卻都有著John的臉。
而實際上,如今通過借助各種免費開放的AIGC工具,John的經歷可能會輕易地發生在我們每個普通人的身上。
當AIGC遇上真人
Arts Technica表示,一開始在計畫做這個實驗時,他們徵集了一些願意分享自己的社群媒體圖片來做AI實驗訓練的志願者,但由於生成出來的照片太真實、帶來的潛在名譽危害太大,讓他們最終放棄了使用真人的照片,而是選擇先用AI生成了一個虛擬的John。
實驗結果讓他們感覺到,在當前的技術環境下,我們每個普通人都處在一種潛在的危險之中。
整個實驗過程其實非常簡單:從社群媒體上拿到的7張有個人臉部圖像的圖片,再使用網上開源和免費的Stable Diffusion及Dreambooth的合成程式碼,你就可以通過輸入一段描述性的語句,生成各種不同風格和不同場景下有關這個人的圖片。
比如網友們用馬斯克網上的公開照片作為訓練集,用它們生成了的各種風格的圖片。
一些人也用維基百科的聯合創始人Jimmy Wales的公開照片進行訓練,把這個溫文爾雅的企業家變成了一位運動型的健美先生。
在這裡,首先要帶大家快速回顧一下Stable Diffusion和Dreambooth的功能。
Stable Diffusion 是一個文字轉圖片的生成模型。可以只用幾秒鐘時間就生成比同類技術解析度、清晰度更高,更具“真實性”或“藝術性”的圖片結果。和其它同類型的AI生成圖片相比,Stable Diffusion 的生成結果更為寫實。
此外,Stable Diffusion還有一個重要特點就是其完全免費開源,所有程式碼都在 GitHub 上公開,任何人都可以複製使用。也正是“寫實”和“開源”兩個特性,也讓它在DALL·E、Imagen 等封閉及半封閉同類產品中“殺”出了一條道路。
Dreambooth則是來自於GoogleAI實驗室的一種新的從文字到圖像的“個性化”(可適應使用者特定的圖像生成需求)擴散模型。它的特點是,只需幾張(通常 3~5 張)指定物體的照片和相應的類名(如“狗”)作為輸入,即可通過文字描述讓被指定物體出現在使用者想要生成的場景中。
比如你輸入一輛汽車圖片,就可以下指令毫不費力的改變它的顏色。你輸入一張松獅狗的照片,你可以在保留它的面部特點的情況下將它轉變成熊、貓熊、獅子等等,也可以讓它穿上不同的衣服出現在不同的場景之中。
本來呢,Stable Diffusion聚焦於用文字生成創意圖片,Dreambooth則聚焦於有條件限制地“改造”圖片,這兩個工具之間並沒有什麼直接的交集。但奈何廣大網友們的想像力和行動力都太過強大,他們把這兩個開源產品一搗鼓,很快就搞出了一個可以將Stable Diffusion和Dreambooth結合使用的新工具。
在這個新的工具中,你可以使用Dreambooth的功能用任何幾張圖片作為訓練圖,在生成目標之後,再結合Stable Diffusion強大的文字轉化功能,就可以讓這個指定目標以任何你所想要描繪的形式出現。
娛樂之外,也打開了“潘多拉魔盒”
在這個新玩法出現之後,網友們就像發現了新大陸一般,開始紛紛嘗試改造自己的照片。
有人把自己化身為了西部牛仔、有人走進了中世紀的油畫、有人變成了鐵血戰士等等……與此同時,各種關於教普通人如何使用Stable Diffusion+Dreambooth的工具的教學、文章也開始在網上出現。
然而,當大家都在開心地po著自己的圖片,大誇技術有趣炫酷的同時,也有很多人開始關注到這個技術背後的隱藏的巨大風險。
相較於此前已經被討論得很多的“深度偽造(Deepfake)”技術來說,AIGC類工具讓偽造從“換臉”直接進化到了“無中生有”的階段,也就是說,任何人通過一句話的描述就可以憑空“變出”一個你。此外,“偽造”技術的門檻也變得更低,跟著一個Youtube視訊學個10分鐘,沒有技術背景的小白也可以輕鬆掌握。
據統計,目前全世界有超過 40 億人使用社群媒體,如果你曾在社群媒體平台上公開上傳過自己的照片,那麼一旦有人產生了不良的動機,就將很容易地使用這些的圖片進行造假和濫用。最後的結果可能是一張暴力照片、一張不雅照、一張侮辱性的照片,而這些照片則將能輕易地被用於栽贓嫁禍、校園霸凌、造謠傷害等各種灰暗的場景之中。
目前,從Stable Diffusion目前的生成圖片來看,如果仔細觀察還是比較容易分辨出人物的真假。但問題在於,鑑於最近幾年來AIGC技術的進步非常迅速,人們或許將可能很快就無法用肉眼分辨生成照片和真實照片之間的區別。
加強版的Stable Diffusion圖片,來自於Twitter使用者Roope Rainisto
而且,即使就是一張經不起推敲的照片,但傳遞的負面資訊其對一個人的破壞力也可能是驚人的。比如。若真的有文章開頭這位名為John的小學老師,當有人看到他在教室里或者其他不雅照時,無論真假,很可能僅僅是一個懷疑或者是謠言,就能毀掉他的聲譽和事業。
這就像是丹麥電影《狩獵》里演的一樣,即使最後證明小女孩對男教師的猥褻指控都是編造的,但由傳言所帶來的惡意依然在男教師的生活中如影隨形。
嘗試用魔法打敗魔法
其實對於AIGC技術,開發人員們也早已意識到了其可能帶來的危害。比如當Google宣佈推出Imagen、Dreambooth時,在解釋文件中都避免使用了真人的照片,而是用物品和可愛的動物的圖片舉例進行了說明。
不僅是Google,DallE等同類工具也無一不是如此。對此,麻省理工評論曾對這種轉移公眾視線的做法進行了強烈質疑。他們在文中寫道:“我們只看到各種可愛的圖像,但看不到任何包含仇恨、刻板印象、種族主義、暴力、性別歧視的畫面。但即使不說,我們也清楚的知道,它們就在那裡。”
目前,針對這個問題,很多平台也在嘗試著用各種方法解決。其中,OpenAI和Google等一些平台的解決辦法是將工具關在籠子,僅開放給少數受信任的使用者使用;Stability AI 在最新發佈的 2.0 版本的訓練資料集中刪除了大部分含有不良資訊的資料,同時在軟體許可協議中明確規定不允許建立人物圖像。
但政策性的規定畢竟指標不治本,近期,包括Stable Diffusion在內的一些平台也在嘗試使用技術手段解決這個問題,其中包括“不可見水印”技術。通過這種人眼看不到的水印,系統將能夠自動識別圖片的真假,同時能對圖片的編輯和再生成進行保護。
此外,針對訓練的源頭——原始圖片保護上,上個月,MIT的研究人員宣佈開發了一項過專門針對AI照片編輯的 PhotoGuard 技術,用以阻止 AI 使用某些圖像接受訓練。比如同樣的一張肉眼看不出區別的照片,使用了PhotoGuard技術之後,AI便無法從中提取到足夠的有效資訊。
圖片來自gradientscience
最近一兩年來,AIGC的技術突飛猛進,一大批圖像生成工具和ChatGPT的爆火,讓大家意識到老生常談的人工智慧時代這次似乎真的已經在拐角了。
不久前Stable Diffusion的研究人員就曾表示,Stable Diffusion 將很可能在一年之內就在智慧手機上運行。很多同類工具也都開始著手在更輕量化的裝置上訓練這些模型,比如目前ChatGPT的各種外掛已經開始被使用者廣泛使用。因此人們可能很快就會看到,由人工智慧推動的創意產出將在未來幾年出現爆炸式增長。
但隨著AIGC走向公眾化、平民化,深度合成內容製作的技術門檻越來越低,普通人僅需要少量的圖像、音訊、視訊、文字等樣本資料,就能夠模糊資訊真實和虛假的邊界。在沒有出台相關法律規範的前提下,技術一旦被濫用,將會給個人、企業造成巨大風險與實質性危害。
自從今年AI繪畫類工具爆火以來,很多人把目光放在了AI對於藝術創作的顛覆上,但實際上,AI不僅是改變了創作模式,而是可能也對社會秩序發起了挑戰。有條件地限制AI的能力,這也可能是在讓AIGC改變我們的生活之前,必須要首先解決的問題。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!