ADVERTISEMENT
目前基於大型語言模型的人工智慧工具,例如 ChatGPT,更擅長共情而不是提供精準的事實資訊。這是因為設計者優先考慮流暢性而非精準性。加上訓練資料庫中包含大量情感資訊,將大型語言模型植入搜尋引擎的競爭毫無意義。
普林斯頓大學電腦科學教授阿爾溫德・納拉亞南(Arvind Narayanan)先前為自己四歲的女兒開發了支援 ChatGPT 的語音介面。這不僅是一個實驗,更是因為他相信,人工智慧機器人有一天會成為女兒生活中的重要組成部分。
AI有一天可能會成為你的生活伴侶
納拉亞南的女兒天生好奇,經常問他有關動物、植物和人體的問題。他認為 OpenAI 開發的 ChatGPT 可以提供有用的答案。令他驚訝的是,一旦他告訴系統正在與小孩對話,這款聊天機器人就能表現出無可挑剔的共情能力。
ADVERTISEMENT
納拉亞南的女兒問:「燈滅了會怎麼樣?」
「燈滅了,天就黑了,可能會有點嚇人,」ChatGPT 用人工合成的聲音回答道。「但別擔心!你可以做很多事情來讓自己在黑暗中感到安全舒適。」
ChatGPT 隨後提出了一些使用夜燈的建議,並最後提醒:「在黑暗中感到有點害怕很正常。」
ADVERTISEMENT
這個解釋顯然讓納拉亞南的女兒感到很安心。
微軟和Google正急於使用大型語言模型技術來強化搜尋引擎。但有充分的理由認為,相比於提供事實性資訊,這項技術更適合作為人們情感上的伴侶。
聽起來可能很奇怪。但無論是Google的 Bard 還是微軟的新 Bing,這種人工智慧在用於搜尋資訊時都出現了一系列尷尬的事實性錯誤。Bard 在首次公開展示時就給出了關於詹姆斯・韋伯太空望遠鏡的錯誤資訊,而新 Bing 也搞錯了一大堆財務報表資料。
ADVERTISEMENT
當人工智慧聊天機器人用於搜尋時,出現事實性錯誤的代價很高。Replika 是一款人工智慧應用程式,下載量已經超過 500 萬次。該應用程式的創始人尤金尼亞・庫伊達 (Eugenia Kuyda) 表示,當人工智慧被設計成伴侶時,出現錯誤的代價就要低得多。她說:「這不會影響使用者體驗,不像搜尋,小小錯誤就會破壞使用者對產品的信任。」
Google前人工智慧研究員瑪格麗特・米切爾 (Margaret Mitchell) 曾與人合作撰寫過一篇關於大型語言模型風險的論文。她表示,大型語言模型根本“不適合”作為搜尋引擎。這些大型語言模型之所以會出錯,是因為訓練所用的資料經常包含錯誤資訊,而且模型也沒有基本事實來驗證所生成的內容。此外,大型語言模型的設計者可能優先考慮生成內容的流暢性,而不是精準性。
這也是這些工具特別擅長迎合使用者的原因之一。畢竟,目前大型語言模型都是從網上抓取文字進行訓練,其中包括推特和 Facebook 等社群媒體平台上發佈的情緒性內容,以及 Reddit 和 Quora 等論壇上的個人心理疏導內容。電影電視劇中的台詞、小說中的對話,以及關於情商的研究論文都進入了訓練資料庫,這使得這些工具更具有同理心。
ADVERTISEMENT
據報導,一些人把 ChatGPT 當成機器人治療師來使用。其中一位說,他們這樣做是為了避免成為別人的負擔。
ChatGPT情商測試表現比一般人還好
為了測試人工智慧的共情能力,人們對 ChatGPT 進行了一次線上情商測試。結果顯示,它表現出色,在社會意識、關係管理和自我管理方面都獲得了滿分,在自我意識方面只是略有差池。
從某種程度上來說,ChatGPT 在測試中的表現比一些人還要好。
雖然一台機器能為人們帶來共情感受有點不真實,但確實有一定道理。人們天生需要社會聯絡,人類大腦也有能力反映他人感受,這意味著即使對方沒有真正“感受”到我們的想法,我們也能獲得一種理解感。人類大腦中的鏡像神經元會在我們感受到他人的共情時被啟動,給我們帶來一種彼此相連的感覺。
當然,共情是一個涉及多方面的概念,要想真正體驗到這種感覺,人們還是需要與真正的人進行交流。
倫敦國王學院臨床心理學家托馬斯・沃德 (Thomas Ward) 研究了軟體在心理治療中的作用,他警告人們不要想當然地認為,特別是在心理問題很嚴重的情況下,人工智慧可以充分滿足人們在心理健康方面的需求。例如,聊天機器人可能無法理解人的情感複雜性。換句話說,ChatGPT 很少說“我不知道”,因為它在設計上傾向於自信而不是謹慎回答問題。
人們也不應該把聊天機器人作為發洩情感的習慣性管道。沃德說:“在將人工智慧聊天機器人視為消除孤獨方式的世界里,微妙的人際關係,例如拉住手或明白何時說話何時傾聽,可能會消失。”
這可能會最終導致更多問題。但就目前而言,人工智慧在情感方面的技能至少要比它們掌握的事實更可靠。
ADVERTISEMENT