ADVERTISEMENT
隨著Google與微軟的搜尋引擎AI大戰,AI聊天機器人終於可以上網了。不過,一開始雙方就已經先給我們打預防針「AI一定會犯錯」,而事實證明,他們也真的都在犯錯。
Google Bard與Bing Chat最近都開始傳出引用錯誤資訊的問題,這種由AI引起的錯誤資訊,可能將會變成非常嚴重的問題,破壞網路的資訊生態。
正如先前我們報導過的,Google Bard先前答覆用戶的一個問題中,告訴用戶,Bard,也就是他自己已經被關閉了,並且引用了一篇新聞文章作為證據。不過,這篇文章其實只是一個使用者在推特上討論Bard什麼時候可能會被關閉,有人開玩笑說Bard已經被關閉了,然後另一個人使用ChatGPT寫了一篇假新聞來編造這個事件,放在留言區。然後被Bard錯誤的當成真的新聞,宣告自己的死亡。
ADVERTISEMENT
這樣的事情,只是AI誤傳問題的早期跡象之一。
聊天機器人無法判斷可靠的新聞來源,他們不光會誤讀關於自己的報導,或者錯誤地報告自己的能力。事實上,這是一個漏洞百出的生態,如果有人想讓這整個系統失敗,他們完全是有很多方法可以達成的,比方說前述的例子:用ChatGPT寫一則假新聞來騙過AI。
由於AI語言模型無法可靠地分辨出資訊的真假,所以把AI放在網路上,會威脅到網路上原本的資訊生態系統,而如果有人一時不察,又用AI拿這錯誤的資訊,去製作出粉絲團的分享資訊,或是一篇報導放到新聞網站上,這種惡性循環將會造成不可逆的傷害,並且讓人們對網路上的資訊產生更多的疑慮。
ADVERTISEMENT
因此,在這個時候,我們會發現當初Google遲遲不敢衝AI聊天機器人的態度似乎是對的,當初他們曾說「資訊的正確性」要比較重要。可惜後來Google在ChatGPT以及微軟的積極攻勢下,好像也放下了安全第一的態度,同意了認為市佔率要比安全更重要。
這些公司可以在他們的聊天機器人上加上再多的免責聲明,告訴我們這些機器人只是「實驗」、「協作」,並且「絕對不是搜索引擎」。但是這些聲明,對用戶來說並不是真正的保護,因為我們已經看到人們如何使用這些系統,以及它們如何散佈錯誤的資訊。
近年來,網路假新聞、AI散佈假資訊等問題已經引起了越來越多的關注和討論,以下是一些網路上找到的案例:
ADVERTISEMENT
- 2016年美國總統選舉期間,有一個名為「Pro-Trump Chatbot」的聊天機器人在推特上活躍,它會為川普辯護並攻擊希拉蕊。這個聊天機器人最初是由一個名為Corona Bot的機器人開發出來的,後來被一個名為Darius Kazemi的開發者修改成了支持川普的版本。然而,這個聊天機器人在推特上發佈了大量的錯誤和偏見的信息,誤導了很多人。
- 2019年,在印度Whatsapp的聊天APP上,有一個名為“Momo Challenge”的虛構角色開始流行起來。Momo會通過Whatsapp向年輕人發送各種殘忍和自殺的挑戰,這些挑戰可能會對參與者造成嚴重的身心傷害。然而,有報導指出,Momo Challenge實際上是一個騙局,是由一個名為「Worry Group」的人開發的。這個騙局在網路上迅速傳播,許多人相信這個虛構角色的存在,並且參加了這些挑戰。
- 2020年,新冠疫情期間,網路上出現了很多關於疫情的錯誤和偏見的信息。例如,有人宣稱喝酒可以預防病毒,或者病毒是由武漢實驗室洩露出去的。這些資訊在網路上廣泛流傳,甚至有些人會相信這些錯誤的資訊,對自己的健康產生危害。這些假新聞有一部分是由AI聊天機器人或者自動化帳號發佈的,它們無法判斷資訊的真假,容易被濫用。
ADVERTISEMENT