據彭博社報導,馬斯克倡導成立的AI研究機構OpenAI週四展示一款軟體,只需要提供軟體一些訊息,它就能寫出逼真的假新聞。
We've trained an unsupervised language model that can generate coherent paragraphs and perform rudimentary reading comprehension, machine translation, question answering, and summarization — all without task-specific training: https://t.co/sY30aQM7hU pic.twitter.com/360bGgoea3
— OpenAI (@OpenAI) 2019年2月14日
OpenAI公佈了軟體編寫新聞的過程。研究人員為軟體提供如下訊息:「一節裝載受控核材料的火車車廂今天在Cincinnati被盜,下落不明。」以此作為基礎,軟體編寫出由7個段落組成的新聞,軟體還引述政府官員的談話,只不過這些訊息全是假的。
紐約大學電腦科學家山姆‧鮑曼(Sam Bowman)認為:「軟體根據提示產生的文本相當驚人,從品質上講,它所做的事比之前我們看到的複雜很多。」
假新聞引起人們的擔憂,OpenAI對此心知肚明,OpenAI政策主管傑克‧克拉克(Jack Clark)說:「它可以產生連貫但不準確的假訊息,其目的並不是很好。」
正因如此,OpenAI不會披露或者發佈軟體的複雜版本。它只是一個工具,讓政策制定者、記者、作家、藝術家用演算法做實驗,看看能編寫什麼出文本訊息,或者能否做其它事情。
目前假訊息正在蔓延,威脅全球科技產業,而軟體能夠編寫逼真的虛假新聞不是一個好消息。歐洲監管機關已經向科技企業發出警告,如果科技公司不採取強有力措施,防止產品影響選民意願,它們就會採取行動,自2016年美國大選以來,Facebook一直在努力,希望控制假訊息。
克拉克和鮑曼都認為,系統雖然很強大,但其能力沒有強到可以馬上帶來威脅。克拉克說:「這不是一項馬上能投入使用的技術,這是好事。」
OpenAI的工具是為了所謂的「語言建模」任務創造的,它要根據所有之前的單詞預測接下來的文本會是怎樣的,有點類似於我們在手機上寫郵件時自動補充文本訊息。它還可以用來執行翻譯、開放式問答任務。
OpenAI研究人員傑夫‧吳(Jeff Wu)舉例說,我們也許可以用工具幫助作家尋找創意或者產生對話。又例如,也許可以用工具檢查語法錯誤,查看軟體程式碼是否有漏洞。最佳化軟體之後,未來也許還能為企業或者政府決策者提煉總結性文字。
在過去一年裡,研究人員在語言處理方面取得巨大進步。去年11月,Google開發出一個強大的演算法BERT,它可以理解並回答問題。早些時候,艾倫人工智慧研究所也在自然語言方面取得突破,開發出一種名叫Elmo的演算法。
鮑曼認為,BERT和Elmo可以說是過去5年該領域最重大的突破,相比來說,雖然OpenAI演算法也很重要,但是革命性沒有BERT那麼強。
馬斯克是OpenAI的聯合創始人,不過去年他已經退出董事會。
- 本文授權轉載自cnBeta
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!