ADVERTISEMENT
人工智慧 (AI) 技術日新月異,如今已能模仿人類的對話能力,最新研究更顯示,AI 的模仿能力已更上一層樓,足以複製特定人物的性格。
史丹佛大學與 Google DeepMind 合作的研究團隊發現,AI 模型只需透過兩小時的訪談,就能以 85% 的準確率預測受訪者對一系列問卷、性格測試和思想實驗的回答。這項研究已發表於 arXiv 預印本網站,引起廣泛關注,為社會學研究帶來全新契機。
如何複製人格?
研究人員以 OpenAI 的大型語言模型 GPT-4o 為基礎,開發出一套語音版 AI 訪談系統。該系統參考「美國之聲計畫」(American Voices Project)的訪談腳本,與受訪者進行長達兩小時的深度對談。過程中,AI 模型不僅會根據腳本提問,還會根據受訪者的回答追問,蒐集更完整的個人資訊。
研究團隊招募了 1,052 名來自美國各地的受訪者,並利用 AI 模型與真人進行訪談,生成完整的逐字稿。接著,研究人員以這些逐字稿為基礎,創造出 GPT-4o 驅動的 AI 代理人(agents),並讓這些代理人模仿受訪者回答各種問題。
AI 分身表現如何?
為了評估 AI 代理人的準確性,研究人員讓代理人和真人分別完成一系列測試,包括:
- 綜合社會調查(General Social Survey): 測量對各種社會議題的態度
- 大五人格特質測試: 評估人格特質
- 經濟決策遊戲: 測試經濟決策能力
- 社會科學實驗: 測試社會行為
結果顯示,AI 代理人的回答與真人第一輪回答的準確率約為 69%。考量到真人回答在不同時間點的變化,研究人員發現 AI 模型的準確率實際上高達 85%。
這項研究的負責人 Joon Sung Park 表示:「我們現在有機會創造真正高擬真的個人模型,捕捉個人複雜性和獨特性。」
團隊表示,此項技術的目標並非取代人類,而是簡化社會學研究流程。傳統社會調查耗時費力,而 AI 代理人能快速模擬個體對不同議題的態度與回應,降低研究成本並提升效率。
以往進行社會調查需要設計問卷、招募樣本、執行調查並分析結果,但此技術可大幅縮短整體流程。未來,AI 代理人可能成為決策模擬與政策測試的強大工具,有助於制定更符合群體需求的政策。
AI 個性模擬的應用潛力與風險
這項技術的應用範圍不僅限於社會研究。它可用於提升個人助理、智慧型客服及機器人互動的能力,甚至能在虛擬會議、數位學習等場景中實現更加自然的互動體驗。研究人員指出,AI 複製人格技術可用於社會科學研究和政策制定,例如模擬不同政策選擇的社會反應或取代真人參與的焦點團體訪談,節省成本和時間。
然而,此技術也引發倫理與安全疑慮,到濫用,例如製作深度偽造影片,進行詐騙、模仿目標人物的性格,進行網路釣魚或其他犯罪活動。這種數位模擬人格被不當利用於詐騙或假新聞製作,深度偽造的風險不容忽視。專家建議,應制定嚴格的技術監管規範,確保此類技術用於正當用途。
結論
這項研究表明,能夠在各種環境下逼真模仿人類的機器即將出現。AI 複製人格技術的發展,為社會科學研究和政策制定帶來新的可能性,但也伴隨著潛在的風險。如何善用 AI 技術,同時防範其負面影響,將是未來重要的課題。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!