ADVERTISEMENT
假設你是一位教育學教授,你要學生回家寫一篇關於學習風格的文章。有位學生交了一篇文章,文章開頭是這麼寫的:
「學習風格」這個概念是有問題的,因為它無法解釋學習風格形成的過程。有些學生可能會因為自己的特殊經歷而形成特殊的學習方式。其他人也許是在嘗試適應不太適合他們學習需求的學習環境中形成了特定的學習方式。到頭來,我們還是得瞭解學習風格與環境及個人因素之間的相互作用,得瞭解這些因素是如何影響我們的學習風格以及所經歷的學習類型的。
這篇文章給不給過? 是 A- 還是 B+?如果你知道這些文字根本不是學生自己寫的話,你的打分又會有什麼變化?上面的文字是英國教授 Mike Sharples 用 GPT-3 寫出來的,GPT-3 是 OpenAI 開發的一種大型語言模型,可以根據提示自動產生文本。(Sharples 認為整篇文章達到了研究生的水準。)如果要我打分的話,我的意見是給 B+。這段話讀起來像填充詞堆砌而成,但大多數的學生論文不也是這樣的嗎?
Sharples 是想敦促教育工作者在技術的背景下「重新思考教學和評估」,他說技術「可能成為學生作弊的禮物,也可以變成強大的助教,或者創造力的工具。」現在,論文生成既不是理論性構思,也不是未來主義藍圖。今年 5 月,紐西蘭的一名學生承認自己用了人工智慧來撰寫論文,但卻辯稱這就是像 Grammarly 或拼寫檢查之類的工具罷了:「我懂相關知識,我有生活經驗,我是個好學生,所有的課程我都參加了,所有的講座我都聽過,我看了必須看的所有內容,但就因為我寫東西寫得不夠好而懲罰我,我覺得那是不對的。」他們不覺得自己在作弊,因為他們大學的學生指南只規定你不能讓別人替你做作業。而 GPT-3 不是「別人」——它是一個程式。
生成式人工智慧的世界正在飛速發展。最近,OpenAI 發表了一個名為 ChatGPT 的高級聊天機器人,又引爆了一波熱潮,有歎為觀止的,有歇斯底里的。GPT-3 升級後機器已經能創作複雜的讀起來押韻的詩歌;Google上月也推出新APP的預覽版,透過它們,人們可以用文本描述概念並將其呈現為圖像;今年 10 月,創意人工智慧公司 Jasper 拿到了 15 億美元的估值。孩子們找到文本產生器仍然需要一點時間,但這個時間不會太長。
論文,尤其是大學生的論文,幾代以來一直是人文教育學的中心。我們是透過論文來教孩子們如何研究、思考和寫作的。這整個傳統即將被徹底顛覆。多倫多大學副教授凱文‧布萊恩 (Kevin Bryan)上周在Twitter上對 OpenAI 推出的新聊天機器人表示震驚:「不能再出那種學生可以帶回家的考試/家庭作業了……說實話,哪怕是在涉及到要結合跨領域知識的特定問題上,OpenAI 的聊天工具也要比一般的 MBA 表現更出色。機器人實在是太出色了。」不管是開發出這種語言技術的工程師,還是將要遭遇它生成產生的語言的教育工作者,他們都沒有為相關後果做好準備。
長期以來,人文主義者與技術專家之間一直存在著一道鴻溝。在 1950 年代,查理斯‧珀西‧斯諾( Charles Percy Snow C.P.Snow) 做了一次著名的演講,後來又發表了論文《兩種文化》,其中心思想是將人文和科學共同體描述成彼此失去聯繫的部落。斯諾寫道:「人文知識份子在一頭——科學家在另一頭。兩者之間存在一道互不理解的鴻溝——有時候甚至表現為敵意和厭惡(尤其是在年輕人當中),但最重要的是缺乏理解。他們彼此在對方心中的形象出現了奇怪的扭曲。」斯諾的觀點是對知識世界主義提出的懇求:人文學家缺少對熱力學定律的基本見解,而科學界則無視莎士比亞和狄更斯的榮耀。
斯諾發現的這道鴻溝只會加深。在現代科技的世界裡,人文教育的價值體現在其缺失的證據中。Sam Bankman-Fried 是加密貨幣交易所 FTX 的創始人,最近幾天內,他的 160 億美元財產已經煙消雲散。他就是一個文盲,並且引以為豪。他曾對一位採訪者說:「我一本書都不會讀,永遠。我不想說沒有一本書值得一讀,但我確實相信跟這種說法非常接近的東西。」 伊隆‧馬斯克和 Twitter 是又一個很好的示例。看到像馬斯克這樣才華橫溢的工程師頭腦在處理哪怕是相對簡單的文學概念(如模仿和諷刺)的時候都很笨拙的樣子,這不僅令人難堪而且非同尋常。他顯然從來沒有想過這些。他可能沒想到有很多事情都要考慮清楚。
重塑社會和歷史的那些人所表現出的對社會和歷史問題非同尋常的無知,已成為社群媒體時代的決定性特徵。顯然,馬克‧祖克伯讀過很多關於凱撒‧奧古斯都的文章,但我希望他讀過 17 世紀歐洲對活頁印刷機的監管。這可能可以讓美國避免社會信任的泯滅。
這樣的失敗不是源自吝嗇甚至貪婪,而是源於故意的遺忘。工程師們沒有意識到人文主義問題——比如解釋學或言論自由的歷史偶然性或道德的譜系——是具有真實後果的真實問題。每個人都有權對政治和文化發表自己的看法,這是真的,但「意見」不同於「有根據的理解」。走向災難最快捷的方式就是把複雜的問題當作對每個人都顯而易見的問題來對待。如果是這樣的態度,你可能很快就會損失數十億美元。
由於技術專家對人文主義問題置之不理,因此人文主義者就以軟自殺的方式去迎接過去 50 年的技術革命。截至 2017 年,英語專業的人數自 1990 年代以來幾乎已經減半。僅自 2007 年以來,歷史專業的入學率就下降了 45%。不用說,人文主義者對技術的理解同樣也是片面的。人文數位化總是各種落後淘汰的狀態,這是不可避免的。(沒有人指望他們透過Instagram Stories來教學。)但更重要的是,儘管技術改變了周圍的整個世界,但人文學科幾十年來並沒有從根本上改變他們的做法。他們還是像 1979 年那樣爆破宏大敘事,這是一種自我挫敗的做法。
當代學術界多多少少總是會在自己能想像到的任何方面開展自我批評。在以技術為中心的世界裡,語言很重要,聲音和風格很重要,對雄辯的研究很重要,歷史很重要,道德體系很重要。但這種情況要求人文主義者解釋清楚這些為什麼重要,而不是不斷地破壞自己的知識根基。人文學科給學生承諾的是走向一個無關緊要的、自我消耗的未來;然後他們還搞不明白為什麼自己的入學率在下降。近一半的文科畢業生後悔自己選擇的專業,這有什麼可奇怪的嗎?
人文學科在技術決定的世界裡有何價值其實以前就有人力證過。史蒂夫‧賈伯斯經常說蘋果的成功很大程度上要歸功於他在里德學院(Reed College)輟學後度過的時光,沉浸在莎士比亞、現代舞以及為 Mac 設計提供美學基礎的著名書法課的海洋裡。賈伯斯說:「幹我們這行的很多人都缺乏多種多樣的經歷,所以他們沒有足夠多的點來進行連接,最後拿出的只是非常線性的解決方案,對問題沒有寬廣的視角。一個人對人生經歷的理解越廣闊,最後的設計就越出色。」蘋果是一家人文科技公司。它也是全球最大的公司。
儘管人文教育的價值很明顯,但它的衰落仍在繼續。10 年來,STEM(科學、技術、工程、數學)高歌猛進,人文則節節敗退。電腦科學專業的學生人數現在幾乎與文科各專業的學生人數之和相當。
而現在,又有了 GPT-3。自然語言處理給學術上的人文學科帶來了一系列前所未有的問題。實際上,這些問題可謂是岌岌可危:文科是根據學位論文來評判學生的。他們根據論文的構成授予博士學位。如果這兩個過程都可以顯著自動化之後會發生什麼呢?根據我一個曾經是莎士比亞學教授的經驗,我認為學術界可能需要 10 年時間才能面對這個新現實:學生需要兩年時間才能弄清楚這門技術,教授需要三年時間才能認識到學生正在使用這項技術,然後還需要五年的時間,讓大學管理者決定該做什麼(如果他們打算做什麼的話)。教師這個職業已經是全世界工作最辛苦、報酬最低的工作之一了。本來危機中的人文學科就夠他們焦頭爛額的了。現在又多了這個。我同情他們。
不過,儘管目前存在巨大分歧,但自然語言處理會迫使工程師和人文主義者走到一起。不管發生什麼事,他們都將需要彼此。電腦科學家需要基本的、系統的普通人文主義教育:語言哲學、社會學、歷史學和倫理學不再是有趣的理論思考問題。它們對於確定聊天機器人的道德與創造性使用至關重要,這只是一個明顯的例子。
而人文主義者也需要瞭解自然語言處理,因為它是語言的未來,但也因為這裡不僅僅存在顛覆的可能性。自然語言處理可以闡明大量的學術問題。它將澄清歸因與文學聯姻的問題,這是任何設計出來的系統都無法解決的;比方說,大型語言模型使用的參數比當前用於確定莎士比亞創作了哪些戲劇的系統要複雜得多。它甚至可以進行特定類型的修復,透過文本預測模型來填補受損文本當中的空白。它將重新表述文學風格與語言學的問題;如果你能教一台機器像山繆·泰勒·柯勒律治(Samuel Taylor Coleridge)那樣寫作,在某種程度上,那台機器一定能夠告訴你山繆·泰勒·柯勒律治是如何寫作的。
人文主義與技術之間建立關聯需要有廣闊的視野,需要對超越自身領域感興趣並願意投入其中的人和機構。在那樣的合作空間形成之前,雙方都必須邁出對受過高等教育的人來說最困難的一步:認識到雙方彼此需要,並承認自身的無知。但這始終是走向智慧的開端,不管我們碰巧生活在哪個技術時代都是如此。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!