Meta首席人工智慧科學家楊立昆(Yann LeCun)認為,創造一個沒有偏見的人工智慧系統的可能性為零。
上週,在Lex friedman Podcast的一期節目中,楊立昆討論了「覺醒AI」的概念,這個術語被用來描述對社會問題過於敏感的人工智慧系統。
楊立昆認為,不可能建立一個沒有偏見的人工智慧系統,因為偏見是主觀的,並且因人而異。 他建議解決方案是擁有多樣化的人工智慧系統。
楊立昆說:「是否有可能產生一個沒有偏見的人工智慧系統? 答案是,絕對不可能。 這並不是因為技術挑戰,儘管它們確實是技術挑戰,但這是因為偏見是因人而異的。」
他接著說,「不同的人可能對很多事情的偏見有不同的看法,有些事實是不爭的,但有很多觀點或事情可以用不同的方式表達。所以你不可能有一個公正的系統,這是不可能的。」
楊立昆強調了開源AI系統的重要性,指出未來人類與數位世界的互動將由AI來調解。他警告說,不能讓美國西海岸的幾家公司在未來控制所有AI系統,並強調AI開發需要多樣性。
「反覺醒文化」的Grok也沒什麼不同
馬斯克先前也推出標榜「反覺醒文化」的 AI 聊天機器人Grok,號稱能給出政治不正確的回覆。官方表示,Grok 個性「有點聰明、有點叛逆」,而且能回答其他 AI 可能會迴避的「尖銳問題」,如果沒有幽默感的人,官方建議不要使用。
但是,根據臨床心理學家 Jordan Peterson 實測,表示他發現Grok除了講話比較不禮貌之外,ChatGPT 和 Grok 兩者的「覺醒」程度其實差距並不大。他認為,這是因為用來訓練Grok的資料集,與其它聊天機器人的資料集來源差不多。
當時馬斯克之後也回應表示,這是因為用來訓練 Grok 的資料本已充斥著覺醒文化的內容。希望在以後的階段會進步。
- 延伸閱讀:舊金山將使用AI技術編輯警方報告,以減少在控告嫌疑人時可能出現的種族偏見
- 延伸閱讀:Women in Tech:AI無法幫助我們擺脫男女偏見,卻恰恰證明了偏見文化的根深蒂固
- 延伸閱讀:美國DARPA新計畫如同「天網」,在軍事決策過程中引入人工智慧決策去除「人的偏見」
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!