線上遊戲比起單機遊戲,通常更能享受團隊合作與互相競爭的樂趣,問題是有人的地方就有恩怨,玩家間透過文字聊天不斷送出垃圾話、謾罵甚至歧視言論,這種歐美遊戲界稱為「Toxic」的行為,已經不可忽視的社群管理問題。
面對遊戲中大量令人反感的謾罵與歧視,電子競技遊戲平台 FACEIT 與 Google 旗下的 Cloud、Jigsaw 共同合作,開發出一種全新的 AI 管理員「Minerva」,致力於在最短的時間內,讓透過言論惡意攻擊他人的玩家,能第一時間受到懲罰。
「Minerva」在歷經數個月的調整、除錯,訓練分析了超過 200,000,000 條文字訊息,並將其中 7,000,000 則言論標示為謾罵或垃圾內容,藉此顯著降低誤報率後,今年八月左右開始在 FACEIT 旗下的《CS:GO》競技平台上線。
FACEIT 表示,自從「Minerva」開始運作後,大約一個半月的時間中,AI 至今已發出了超過 90,000 條「Toxic」行為的警告訊息,並有 20,000 個帳號實際遭到封禁或懲罰,然而這些過程都無需人為干預。
FACEIT 在官方部落格中,解釋了「Minerva」的實際運作方式:當 AI 認為玩家在遊戲中送出的文字聊天訊息,涉及謾罵或歧視等不適當行為,就會立即對該發訊者提出警告,並將類似的聊天內容標記為垃圾訊息。
接著在該場遊戲結束後的幾秒鐘內,「Minerva」會再度檢視違規者的言論,如果確認了該名玩家不斷濫用文字攻擊他人,就會馬上祭出懲罰,限制玩家無法立刻配對下一場比賽,直到冷卻時間結束為止。
以宏觀的角度來看,「Minerva」AI 管理員不但能對漫罵者有效進行懲罰,也大幅減少了「Toxic」言論出現的機率,從 8 月份的 2,280,769 條,降低到了 9 月份的 1,821,723 條,比例達 20.13%,成果十分顯著。
官方指出,「Minerva」的聊天訊息檢測功能,只是開發團隊在龐大 AI 願景中的第一步,未來他們不僅進一步訓練「Minerva」,更有可能將它帶到其他競技遊戲。
來源:PCGamesN
想看小編精選的3C科技情報&實用評測文,快來加入《T客邦》LINE@
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!