FB 建議貼文

選取貼文複製成功(包含文章連結)!

ChatGPT誤指挪威一名音樂家謀殺親生子女,AI資訊的真實性以及幻覺引發爭議

ChatGPT誤指挪威一名音樂家謀殺親生子女,AI資訊的真實性以及幻覺引發爭議

人工智慧聊天機器人 ChatGPT 再次捲入爭議漩渦,這次的事件不僅關乎資料準確性,更觸及了人工智慧倫理與 GDPR 合規的深層問題。一名挪威男子 Arve Hjalmar Holmen 在查詢關於自己的資訊時,赫然發現 ChatGPT 竟錯誤地指控他謀殺了自己的孩子,並因此被判處 21 年徒刑。這項離譜的指控不僅子虛烏有,更對 Holmen 的個人聲譽造成了難以估量的潛在損害。

Arve Hjalmar Holmen是一位挪威音樂家和詞曲創作人,長期活躍於當地音樂圈,並透過社群媒體與粉絲互動。他的作品以清新的旋律和細膩的歌詞著稱,在挪威擁有一定的知名度。然而,最近他卻因人工智慧(AI)生成的虛假資訊而陷入一場名譽危機。

ChatGPT「幻覺」導致名譽受損

據報導,當某位使用者向ChatGPT查詢Arve Hjalmar Holmen的背景時,該AI模型錯誤地回應稱Holmen曾被判定犯下謀殺自己孩子的罪行。然而,這一說法完全沒有事實根據,且對Holmen造成了極大的名譽損害。

這一虛假指控對Holmen的個人生活和職業生涯帶來嚴重影響。他不僅承受來自網路上的惡意評論與指責,甚至有朋友、家人和合作夥伴對其產生懷疑。Holmen不得不公開澄清此事,並花費大量時間與精力來扭轉這場毫無根據的誤解。他在接受媒體訪問時表示,自己從未想過會因為AI的一句錯誤陳述而遭受如此嚴重的困擾,甚至一度影響心理健康。

ChatGPT誤指挪威一名音樂家謀殺親生子女,AI資訊的真實性以及幻覺引發爭議

這種AI生成的虛假資訊現象被稱為「AI幻覺」(hallucination),即人工智慧在無法取得準確資料時,憑空編造錯誤內容。

該錯誤迅速在網路上引發關注,不僅對Holmen本人造成困擾,也再度引起社會對AI技術潛在風險的討論。許多人擔憂,若人工智慧的回應缺乏準確性,甚至涉及誹謗與虛假訊息,可能會對無辜個人造成無法挽回的損害。

Holmen與隱私倡議團體提出申訴

Holmen隨後與歐洲隱私倡議團體NOYB(None of Your Business)聯手,向奧地利數據保護機構提出正式投訴。NOYB表示,這起事件顯示出AI在個人數據處理方面的嚴重漏洞,並質疑OpenAI是否有足夠的機制來確保其模型不會產生危害個人名譽的錯誤資訊。

根據歐盟《通用數據保護條例》(GDPR),個人擁有要求刪除錯誤或有害資訊的權利。然而,AI模型如ChatGPT的回應並非基於固定資料庫,而是透過大規模語言模型即時生成,這使得事後更正變得極為困難。因此,NOYB的投訴核心在於:OpenAI是否有義務確保其AI系統符合隱私保護規範,並負責修正錯誤資訊。

針對此事件,OpenAI表示,公司正積極改善AI模型,以降低類似錯誤發生的機率。該公司指出,儘管已經有內建的安全機制來過濾虛假資訊,但AI模型仍可能產生不準確或誤導性的回應。OpenAI強調,使用者應該對AI生成的資訊保持批判性思考,並與可信來源進行交叉比對。

這起事件也引發政府與學術界對AI監管的討論。許多專家認為,未來需要更嚴格的規範,確保AI不會散播虛假資訊或傷害個人權益。此外,企業在開發AI技術時,也應加強審查與責任機制,以防止類似事件再度發生。

AI資訊可信度問題引發關注

這並非AI技術首次因「幻覺」問題而引發爭議。在過去數年間,多個AI模型都曾因生成錯誤或誤導性資訊而受到批評。例如,Google的Bard、Meta的Galactica等AI模型皆曾被發現提供不實資訊,甚至涉及歷史錯誤與科學誤導。

Holmen事件凸顯了一個關鍵問題:當AI成為資訊來源時,該如何確保其準確性與可信度?專家認為,解決之道在於建立更透明的數據來源管理機制,並提供使用者反饋管道,使受影響者能夠迅速要求更正。

Arve Hjalmar Holmen與ChatGPT的爭議,顯示出AI在資訊產出方面仍然存在嚴重的挑戰。隨著人工智慧技術的進步,其應用將越來越廣泛,然而,如何在確保創新與便利的同時,避免誤導性資訊的影響,將是各界共同面對的課題。未來,AI企業、監管機構與社會大眾都需要共同努力,以確保這項技術能夠真正造福人類,而非成為錯誤資訊的製造者。

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則