FB 建議貼文

選取貼文複製成功(包含文章連結)!

史丹佛大學研究指出,只要跟AI面談兩小時就足以讓他準確複製你的個性

史丹佛大學研究指出,只要跟AI面談兩小時就足以讓他準確複製你的個性

人工智慧已經展現出非凡的能力,但僅僅經過兩個小時的面談,它就能複製出一個人的全部性格嗎? 研究人員認為,答案是肯定的。 然而,這種進展引發了嚴重的倫理問題和對潛在濫用的擔憂。

Google和史丹佛大學的研究人員已經證明,只需與人工智慧模型進行兩小時的對話,就能創造出驚人準確的個人人格複製品。 該研究報告於11月15日發表在預印本資料庫arXiv上,介紹了「模擬代理」——一種旨在精確模仿人類行為的人工智慧模型。

這項研究由史丹佛大學電腦科學博士生Joon Sung Park領導,對1052名參與者進行了深入訪談。 這些訪談涉及個人故事、價值觀和對社會問題的看法,形成了用於訓練人工智慧生成模型的資料集。 參與訪談者的年齡、性別、種族、地區、教育程度和政治意識形態都有意保持多樣化,以確保人類經驗的廣泛代表性。

為了評估準確性,參與者完成了兩輪性格測驗、社會調查和邏輯遊戲,並在間隔兩週後重複這一過程。 然後,人工智慧複製品也進行了同樣的測驗,與人類對應物的反應如出一轍,準確率達到了驚人的85%。

帕克接受《麻省理工科技評論》採訪時表示:「如果你能讓一群小『你』跑來跑去,並真正做出你會做出的決定——我認為,這最終就是未來。」

研究人員設想,這些人工智慧模型可以在受控環境中模擬人類行為,從而徹底改變研究工作。 其應用範圍可以從評估公共衛生政策到衡量對社會事件或產品發布的反應。 他們認為,這種模擬提供了一種測試干預措施和理論的方法,而無需考慮使用人類參與者在倫理和後勤方面的複雜性。

然而,我們應該對這些研究結果抱持健康的懷疑態度。 雖然人工智慧複製體在複製個性調查和社會態度方面表現出色,但在預測互動經濟決策遊戲中的行為方面卻明顯不夠準確。 這種差異凸顯了人工智慧在執行需要理解複雜社會動態和情境細微差别的任務時所面臨的挑戰。

用於測試人工智慧代理準確性的評估方法也相對初級。 社會總體調查和五大人格特質評估等工具雖然是社會科學研究的標準工具,但可能無法完全捕捉到人類性格和行為的複雜層面。

倫理問題使該技術的影響更加複雜。 在人工智慧和「深度偽造」技術已被用於操縱和欺騙的時代,引入高度個人化的人工智慧複製品引起了人們的警惕。 這種工具有可能被武器化,擴大隱私和信任的風險。

麻省理工學院史隆管理學院(MIT Sloan School of Management)副教授約翰-霍頓(John Horton)指出,儘管有這些保留意見,但這項研究為未來研究帶來了令人信服的可能性。他說:「這篇論文展示了如何實現一種混合:使用真人生成角色,然後以真人無法實現的方式透過程式設計/模擬使用這些角色。」

訪談過程在捕捉個體細微差別方面的效率尤其引人注目。 Park 借鑒自己在Podcast採訪中的經驗,強調了兩小時的談話所能提供的深刻見解。

這一創新引起了已經在開發數位分身技術的公司的興趣。 Tavus公司(一家專門從事利用客戶資料創建人工智慧複製品的公司)執行長哈桑-拉扎(Hassaan Raza)對這種簡化方法表示了極大的熱情。「今天跟人工智慧面試官談30分鐘,明天再談30分鐘,怎麼樣? 然後我們用它來構建你的數位分身。」

NetEase
作者

網易科技,有態度的科技門戶!關注微信公眾號(tech_163),看有態度的深度內容。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則