Facebook 非常擅長移除平台上的色情、暴力、犯罪等內容,社群巨頭在今天公布了《年度透明度報告》(Facebook Transparency Report),詳細列出各種違反社群準則內容被移除的比例,但詳細觀察後會發現「仇恨言論」被移除的比例相當低,難不成是世界和平,大家都口說好話不再攻擊彼此了嗎?
不,這背後其實跟人工智慧(AI)系統的能力極限有關,究竟為什麼在 AI 下圍棋能夠贏人類、AI 機器人都能獲得公民權的現在,仍趕不上仇恨言論增生的速度呢?
Facebook公布年度透明度報告,仇恨言論移除比例最低
在外界紛紛期待 Facebook 拿出魄力整頓平台上仇恨內容的態勢下,Facebook 大幅提高了今年(2018)內容審查團隊的預算,預計在今年底前聘用一萬名審查人員。
在今天公布了《年度透明度報告》(Facebook Transparency Report)多達86頁的報告中,Facebook 公布今年第一季共刪除了5.83億個假帳號、8 億 6,580 萬則貼文,報告中 Facebook 將這些內容分為六大類,從數字上來看,系統主動清除暴力內容比例是86%、色情內容96%、垃圾內容比例更是高達100%,令人意外的是,仇恨言論比例只有38%,是所有類別中最低的。
仇恨言論方面,科技技術上仍無法運作順暢,仍需透過人工審查團隊協助。第一季成功移除了250萬則仇恨言論貼文,其中38%仇恨言論是由我們的科技揪出。──Facebook
歧視用語使用情境不同,仇恨言論難判斷
但這其實不能完全責怪 Facebook,原因是目前人工智慧(AI)對於仇恨言論定義的理解仍不夠深刻。
舉例來說,歧視性用語在某些情況下也會用於戲謔、自我解嘲等目的,而這些用語大多只在特定的語境中(包括個人主觀因素、地域差異、時代差異影響)才會產生歧視性的意義,所以並沒有明確的標準可以判定某一種用語是否為歧視語,人類對於「貶義、侵略性的內容」判定是很主觀的,甚至因人而異,不要說機器,甚至連人類自己來判斷可能都沒一個準確的標準。
Facebook 產品管理副總裁羅森(Guy Rosen)就點出其中的困難處:
像是 AI 這類的科技,要準確地判斷所有有害內容還有一段路要走,舉例來說,AI 還沒有足夠的能力,去辨識一個人是在散布仇恨,或是只是單純描述自身被傷害的經驗,這可能會衍伸出一些問題。
除了用詞本身,使用的情境也是一大關鍵,假設有一個用戶,只是單純發文講述他被當眾羞辱的經驗,在描述的文字中,引用包含仇恨內容的原句,那麼這樣的貼文算不算仇恨言論內容?應不應該被強制移除?身為人類的我們都能同意這樣的內容不算數,但 AI 又該如何去理解這兩者之間的細微差別呢?
另外,從文化面來說,有些字眼也許在某些文化中是貶抑,但在另一種文化中卻沒有這個意思,又或者是同形異義,這些又該如何讓 AI 理解呢?
佐克伯樂觀看待,5到10年內開發新AI工具
如同佐克伯今天自己在貼文中所說的:「我今年的首要任務是要讓人們感到安全。」為了將傷害降到最低,即使在擁有大量科技資源的 Facebook,仍傾向使用人工審查來把關內容。
在今年剛剛落幕的開發者大會F8上 Facebook 也談到,「要完全理解人類的語境,還是需要透過人類的雙眼,我們的團隊會親自審查,確定它是沒問題的。」
佐克伯自己也在聽證會上表示,他相信在未來5到10年內,Facebook 可以開發出能夠精準理解語意上細微差異的人工智慧工具,將能更準確標記出仇恨言論,對這樣的未來相當樂觀。
- 本文授權轉載自:bnext(數位時代)
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!