Bing Chat的AI聊天變笨了,甚至還會迴避問題不想幫你工作?

Bing Chat的AI聊天變笨了,甚至還會迴避問題不想幫你工作?

在過去的幾週,用戶發現基於 GPT-4 的Bing聊天人工智慧的功能似乎又變笨。那些經常使用由 Microsoft Edge提供的Bing AI用戶發現其幫助越來越小,甚至經常迴避問題、無法幫助查詢。微軟相關業務主管證實該公司正在積極監測這些反饋,並計畫在不久的將來做出改變來解決這些問題。

許多人在 Reddit 上分享了他們的經歷。一位使用者提到,Edge 瀏覽器Bing側邊欄中曾經可靠的聊天工具,最近變得不那麼好用了。當使用者試圖獲取有創意的內容,甚至要求以虛構人物的幽默口吻回答問題時,人工智慧卻給出了奇怪的藉口。

Bing Chat的AI聊天變笨了,甚至還會迴避問題不想幫你工作?

Bing的答覆是,它認為以幽默的口吻來寫一段繞口令是不恰當地,因為某些人覺得幽默的事情,可能在其它人眼裡看起來可能是一種傷害。而他不想要傷到任何人。

這聽起來好像Bing Chat是講錯過什麼話被炎上過,有過心理創傷啊!

另一位 Redditor 分享了他們使用Bing校對非母語電子郵件,結果Bing卻列出了一系列可供選擇的工具,並建議使用者「自己想辦法」。

「我一直依賴Bing來校對我用特定語言書寫的電子郵件。但就在今天,它不但沒有提供幫助,反而把我引向了一個其他工具的列表,基本上就是讓我自己解決。」

在這些擔憂中,微軟已經出面解決了這一情況。公司發言人在一份聲明中證實,公司一直在關注測試者的反應,用戶可以期待更好的未來體驗。

微軟發言人通過電子郵件回應:「我們會積極關注使用者的回應和報告的問題,隨著我們通過預覽版獲得更多的見解,我們將能夠應用這些經驗,隨著時間的推移進一步改善體驗。」

到底是什麼造成Bing Chat的AI變笨、甚至不想工作?社群內認為,微軟可能在幕後對AI設定進行了調整。

一位使用者說:「很難理解這種行為。人工智慧的核心只是一個工具。無論是讓他寫繞口令還是決定發佈或刪除內容,責任都在你。如果認為Bing的答案會"冒犯"到任何人,那就太令人費解了。」

微軟已確認將繼續做出改變,以改善整體體驗。

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
mariakenneth
1.  mariakenneth (發表於 2024年3月18日 17:53)
Bing Chat的AI變得「愚蠢」並且不想工作,在用戶社群引起了很多爭議和擔憂。 這提醒我們,人工智慧的發展並不總是一帆風順的。 有人將這種情況與使用線上隨機聊天服務 omegle 進行比較,不確定性和挫折感隨時可能出現。
發表回應
謹慎發言,尊重彼此。按此展開留言規則