Google Bard將成為首個承認自己會犯錯的機器人,二次核對矛盾資訊以避免像ChatGPT那樣胡說八道

Google Bard將成為首個承認自己會犯錯的機器人,二次核對矛盾資訊以避免像ChatGPT那樣胡說八道

今天,讓我們來談談 Bard 的進步,即Google對 ChatGPT 的回應,以及它如何解決當今聊天機器人最緊迫的問題之一:聊天機器人喜歡胡編亂造。

從去年聊天機器人問世之日起,它們的製造商就警告我們不要相信它們。像 ChatGPT 這樣的工具所生成的文字並不基於既定事實的資料庫。相反,聊天機器人是預測性的--根據其底層大型語言模型所訓練的大量文字語料庫,對哪些詞語似乎是正確的進行機率猜測。

因此,聊天機器人經常會「自信地出錯」。這甚至會愚弄受過高等教育的人,正如我們今年看到的律師提交由 ChatGPT 生成的引文的案例--他並沒有意識到每一個案例都是無中生有。

這種情況解釋了為什麼會有人覺得聊天機器人作為研究助手大多毫無用處。它們會在幾秒鐘內告訴你任何你想要的資訊,但在大多數情況下可能有真有假,因此,你需要花費大量時間研究它們的回答是否屬實--這往往違背了使用聊天機器人的初衷。

Google的 Bard 在今年早些時候推出時,帶有一個「Google It」按鈕,可以將你的查詢提交給公司的搜尋引擎。這雖然能讓你更快地獲得關於聊天機器人輸出結果的第二意見,但還是讓你承擔了判斷真假的責任。

不過從今天起,Bard 將為你做更多的工作。在聊天機器人回答了你的一個問題後,點選Google按鈕就可以"覆核"你的回答。以下是他們在官方文章中的解釋:

當你點選"G"圖示時,"Bard"會閱讀你的回答,並評估網路上是否有內容可以證實你的回答。如果可以對聲明進行評估,你可以點選高亮顯示的短語,瞭解更多有關搜尋發現的支援或矛盾資訊。

仔細檢查查詢會將回覆中的許多句子變成綠色或棕色。綠色高亮顯示的回覆連結到引用的網頁;將滑鼠懸停在其中一個網頁上,Bard 會向您顯示資訊的來源。棕色高亮顯示的回覆表示Bard不知道資訊的來源,突出顯示的可能是一個錯誤。

Google Bard將成為首個承認自己會犯錯的機器人,二次核對矛盾資訊以避免像ChatGPT那樣胡說八道

舉例來說,過去有一個關於Bard對於關於 Radiohead 樂隊歷史問題的回答時,它給出了很多綠色高亮的句子,與我自己已知的知識相符。但它也把這句話變成了褐色:「他們贏得了無數獎項,包括六次格萊美獎和九次全英音樂獎」。將滑鼠懸停在這句話上,會發現Google的搜尋結果顯示了相互矛盾的資訊;事實上,Radiohead從未獲得過一個全英音樂獎,更不用說九個了。

Google產品高級總監傑克-克勞奇克(Jack Krawczyk)表示,由於人們使用 Bard 的方式多種多樣,所以經常不需要反覆檢查。(你通常不會要求它重複檢查你寫的一首詩,或者它起草的一封電子郵件等等)。

雖然雙重校驗代表了一個明顯的進步,但它仍然經常需要你調出所有的引文,並確保Bard能正確解釋這些搜尋結果。至少在研究方面,人類仍在牽著人工智慧的手,就像人工智慧在牽著我們的手一樣。

不過,這是一個值得歡迎的發展。

Krawczyk表示:「我們可能已經建立了第一個承認自己會犯錯的語言模型。鑑於這些模型的改進事關重大,確保人工智慧模型精準地承認錯誤應該成為業界的重中之重。」

 

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則