仇恨訊息一直以來都是社群網路服務的大敵,尤其像 Twitch 這類的實況串流平台,在聊天室中隨處可見,亂噴不理性言論的惡劣觀眾。
為了對抗仇恨言論,Twitch 近期為聊天室導入了一款透過 AI 與機器學習打造的「可疑用戶檢測」(Suspicious User Detection)工具,並且預設狀態下為開啟,藉此早一步過濾有問題的觀眾帳號。
這套工具能夠主動偵測觀眾的發言內容,並經由機器學習跟比對,判定該帳號是否可能為先前遭 Ban 觀眾之分身,藉此避免有人透過開小號的方式,持續對實況台發送攻擊言論。
Twitch 的「可疑用戶檢測」工具,首先會將有問題的帳號標記為「可能」(Likely)或「非常有可能」(Possible),並且於第一時間隱藏該帳號的發言,避免出現在實況聊天室中。同時,實況主或管理員也能看見該可疑帳號所對應的被 Ban 帳號為何,再選擇手動將其列入監控名單,或是將其解封恢復正常。
官方表示,這項檢測工具預設為開啟,但實況主可根據需求進行關閉;由於 AI 判定並非 100% 正確,因此系統只會隱藏有問題的觀眾言論,並不會主動進行 Ban 人。
另外,主播與管理員亦能夠在 AI 抓出可疑帳號之前,將聊天室中的觀眾手動列入監控名單。
Twitch 主管 Alison Huffman 指出,之所以會誕生「可疑用戶檢測」工具,主要還是源自於社群的需求與啟發。實況主與 MOD 經常抱怨,他們難以區分違反聊天室規則的觀眾,究竟是本來就打算懷著惡意發送仇恨言論,或者是遭 Ban 帳號的分身、小號,甚至於尚未理解實況台文化的新觀眾。
透過這項新工具,主播與管理員將能做出更有效、更明智的 Ban 人決定,同時也能抓到更多意圖透過分身帳號,規避聊天室言論規則的觀眾。
來源:The Verge
想看小編精選的3C科技情報&實用評測文,快來加入《T客邦》LINE@
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!