ADVERTISEMENT
Google表示,其新的人工智慧模型系列有一個奇特的功能:能夠“識別”情緒。
Google上週四發佈了其最新 AI 模型系列 PaliGemma 2,該模型具備圖像分析能力,可以生成圖像描述並回答有關照片中人物的問題。Google在其部落格中介紹,PaliGemma 2 不僅能識別物體,還能生成詳細且與上下文相關的圖片說明,涵蓋動作、情感以及整體場景的敘述。
PaliGemma 2 的情感識別功能並非開箱即用,需要進行專門的微調,但專家們仍然對此表示擔憂。
ADVERTISEMENT
多年來,許多科技公司一直在嘗試開發能夠識別情感的 AI,儘管一些公司聲稱已經取得突破,但這一技術的基礎仍然存在爭議。大多數情感識別系統都基於心理學家 Paul Ekman 的理論,即人類有六種基本情緒:憤怒、驚訝、厭惡、喜悅、恐懼和悲傷。然而後續的研究表明,來自不同文化背景的人們在表達情感時存在顯著差異,這使得情感識別的普遍性受到質疑。
倫敦國王學院專門研究人工智慧的研究員 Mike Cook 表示,情感識別在一般情況下是不可行的,因為人類的情感體驗非常複雜。雖然人們可以通過觀察他人來推斷他們的情緒,但不能做到全面且完美地解決情緒檢測問題。
情感識別系統的另一個問題是其可靠性和偏見。一些研究表明,面部分析模型可能會對某些表情(如微笑)產生偏好,而最近的研究則表明,情感分析模型對黑人面孔的負面情緒判斷比白人面孔更多。
ADVERTISEMENT
Google表示,PaliGemma 2 在進行廣泛測試後,評估了其在人群偏見方面的表現,結果顯示其「毒性和粗俗內容的水平低於行業基準」。但該公司並未公開測試所依據的完整基準,也沒有明確表示所進行的測試類型。Google披露的唯一基準是 FairFace—— 一個包含數萬張人像的面部資料集。Google聲稱,PaliGemma 2 在該資料集上的表現良好,但一些研究者批評 FairFace 存在偏見,認為該資料集僅代表少數幾種族群。
AI Now 研究所首席 AI 科學家 Heidy Khlaaf 表示,解讀情緒是一件相當主觀的事情,它超越了使用視覺輔助工具的範圍,深深地嵌入在個人和文化背景中。
目前,歐盟的《人工智慧法案》禁止學校和僱主部署情感識別系統,但允許執法機構使用。
ADVERTISEMENT
Khlaaf 表示,如果這種所謂的情感識別是建立在偽科學假設的基礎上的,那麼這種能力可能會被用來進一步歧視邊緣化群體,例如在執法、人力資源、邊境治理等領域。
Google發言人表示,公司對 PaliGemma 2 的「表徵危害」測試充滿信心,並進行了廣泛的倫理和安全評估。
ADVERTISEMENT
ADVERTISEMENT