在過去的幾週,用戶發現基於 GPT-4 的Bing聊天人工智慧的功能似乎又變笨。那些經常使用由 Microsoft Edge提供的Bing AI用戶發現其幫助越來越小,甚至經常迴避問題、無法幫助查詢。微軟相關業務主管證實該公司正在積極監測這些反饋,並計畫在不久的將來做出改變來解決這些問題。
許多人在 Reddit 上分享了他們的經歷。一位使用者提到,Edge 瀏覽器Bing側邊欄中曾經可靠的聊天工具,最近變得不那麼好用了。當使用者試圖獲取有創意的內容,甚至要求以虛構人物的幽默口吻回答問題時,人工智慧卻給出了奇怪的藉口。
Bing的答覆是,它認為以幽默的口吻來寫一段繞口令是不恰當地,因為某些人覺得幽默的事情,可能在其它人眼裡看起來可能是一種傷害。而他不想要傷到任何人。
這聽起來好像Bing Chat是講錯過什麼話被炎上過,有過心理創傷啊!
另一位 Redditor 分享了他們使用Bing校對非母語電子郵件,結果Bing卻列出了一系列可供選擇的工具,並建議使用者「自己想辦法」。
「我一直依賴Bing來校對我用特定語言書寫的電子郵件。但就在今天,它不但沒有提供幫助,反而把我引向了一個其他工具的列表,基本上就是讓我自己解決。」
在這些擔憂中,微軟已經出面解決了這一情況。公司發言人在一份聲明中證實,公司一直在關注測試者的反應,用戶可以期待更好的未來體驗。
微軟發言人通過電子郵件回應:「我們會積極關注使用者的回應和報告的問題,隨著我們通過預覽版獲得更多的見解,我們將能夠應用這些經驗,隨著時間的推移進一步改善體驗。」
到底是什麼造成Bing Chat的AI變笨、甚至不想工作?社群內認為,微軟可能在幕後對AI設定進行了調整。
一位使用者說:「很難理解這種行為。人工智慧的核心只是一個工具。無論是讓他寫繞口令還是決定發佈或刪除內容,責任都在你。如果認為Bing的答案會"冒犯"到任何人,那就太令人費解了。」
微軟已確認將繼續做出改變,以改善整體體驗。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!