ADVERTISEMENT
大多數人使用 ChatGPT 就是用來聊天或者輔助學習、辦公。然而現在一些「間諜軟體」公司正在探索如何使用ChatGPT和其他新興的AI來監視社群媒體上的使用者。
其中一家由俄羅斯企業家創立的Social Links的公司正使用 ChatGPT 作為助手,監控著使用者在Facebook、Instagram、Twitter和Telegram等平臺上的通訊內容。
在巴黎的一場安全展上,Social Links 展示了利用 ChatGPT 進行「情感分析」的功能,透過使用AI評估社群媒體使用者的情緒或突出群體中常討論的話題,説明預測線上活動是否會演變為實際暴力,以及是否需要採取執法行動。
此前,Meta 在2022年底將該公司列為間諜軟體供應商,並封鎖了公司3700 個帳號,因為該公司用這些帳號來抓取社群網站資訊的Facebook 和 Instagram上的內容。
但Social Links否認與這些帳號有任何關聯,Meta的指控並沒有對該公司造成傷害,該公司目前擁有500多個客戶,其中一半位於歐洲,100多個位於北美。
AI 可以變得更公正嗎?
Social Links 一位分析師舉例,他們曾使用AI工具評估了網路上對西班牙代理總理最近達成的一項有爭議的協定的反應。該AI工具掃描Twitter上包含關鍵字和標籤的發文,並透過ChatGPT評估它們的情感為積極、消極或中性,然後以互動式圖表顯示結果。該工具還能夠快速總結和剖析主要平臺(如Facebook)上的線上討論,提取常見的討論主題。
一旦Social Links的工具標記有人在社群媒體上表達「負面」情緒,Social Links也可以搜尋臉部辨識匹配。使用者可以選擇一張臉部照片,使用Social Links 自己的演算法在社群媒體上尋找匹配圖像,從而讓警方對個人身份有更廣泛的瞭解。
但塔拉維拉表示,公司不會儲存臉部圖像,而是在網路上搜尋匹配的圖像,這類似於在Google上進行反向圖像搜尋,不過Social Links還使用自己的臉部辨識軟體,可以搜尋公共社群媒體群組和使用者的照片集合。
美國一位高級政策分析師對《富比士》表示,使用ChatGPT 這樣的 AI工具來進行技術上的竊聽,可能會放大錯誤事實和偏見,也可能會讓網上的討論變得冷漠。
因為每個人都可能覺得「他們正在被監視,不一定是被人類監視,而是被AI監視,AI有能力向人類報告你網上所有的痕跡,並給你帶來不公正的後果。」
OpenAI對此事沒有回應,但ChatGPT 的使用政策表明:不允許將其用來「侵犯他人隱私的活動」,比如「未經個人同意跟蹤或監控個人」。
Social Links 表示:
「我們嚴格遵守 OpenAI 的政策,我們只使用 ChatGPT 來分析文本:總結內容、辨識主題、將文本分類為積極、中性或消極,並評估文本中各個要素的情感。」
為了保證AI公正問題,Meta發言人 Ryan Brack 表示:
Meta擁有一個由100多人的團隊,專注於打擊未經授權的網路爬蟲,並有可能對未經授權的抓取者採取法律行動。
AI的「自相殘殺」
義大利一位監控公司正在利用其最新的Gens.AI工具可以根據一系列特徵創建逼真的人類社群媒體個人資料——不僅可以產生看起來合法的頭像,還可以將它們作為自主的AI個體釋放到Facebook和Telegram等平臺上。該公司聲稱只要其頭像足夠逼真,就可以「接近目標並建立信任關係」,並避免被發現,臥底調查人員使用此類虛假個人資料來瞭解有關犯罪嫌疑人的更多資訊。
當你將Social Links和Gens.AI等工具結合起來,就會出現一種非常真實但奇怪的「AI回音室」,其中由一個間諜軟體公司製作的AI社群媒體監控軟體被用來監控由另一個使用ChatGPT和其他大語言模型創建的AI人物。
或許,這就是AI間諜軟體的「自相殘殺」吧。
最後,大家在網上發言時,切忌要謹慎,小心AI間諜~
資料來源:
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!