
在當前 AI 世界狂熱地追逐大型語言模型(LLM)時,有一位聲音顯得格外清醒。他是深度學習的奠基人之一,也是 Meta 的首席 AI 科學家 —— Yann LeCun(楊立昆)。在 2025 NVIDIA GTC 大會中,LeCun 與 NVIDIA 首席科學家 Bill Dally 展開一場對談。不到三十秒,他便語出驚人:「我已經對 LLM 不感興趣了。」
這句話並不是單純的挑釁,而是一場思想上的轉向。他的目光,早已越過了語言模型的邊界,投向更深層的智能挑戰。他看見了今天 AI 的盲點,也為它描繪了一條前所未見的路。
語言不是一切,理解世界才是真智能
在這場談話中,LeCun 表達了一種幾乎與主流意見相左的觀點。他認為當前 LLM 的發展已經進入工程優化的階段,重點在於「多一點資料、多一點算力」來讓模型更穩定、更具商業價值。
「這些是產品經理的事,對我來說不再有趣了。」他說。
他不否認 LLM 所創造的語言奇蹟,但在他看來,那並不是智能的終點,而僅是語言模仿的技術。真正的智能,不該只是生成文字,而是理解這個世界、記住過往經驗、推理出未來的可能,並能根據目標規劃行動。
這一切,都不是現在的 LLM 所能做到的。
四個真正未解的問題
談到 AI 未來真正的挑戰,LeCun 清楚地指出了四個他認為至關重要、但目前尚未有令人滿意解答的領域。
第一是對物理世界的理解。他舉了一個極簡的例子:當人看到一個瓶子,知道推它會滑,敲它會彈,這些都是我們從小累積的世界模型。但今天的 AI,無論是從圖片、影片還是文字中,都無法真正掌握這些「常識」。
第二個挑戰是持久記憶。大多數 AI 系統處理輸入時是一次性的:輸入 → 推理 → 輸出。它不會記得你上一秒說了什麼,更無法累積對世界的長期觀察與認知。而人類的記憶,正是推理與學習的基礎。
第三,則是最根本也最具哲學意味的問題:推理。LeCun 對現今所謂「agentic AI」的批評頗為嚴厲。他認為讓模型生成一堆答案,再從中選出最可能正確者,根本不是推理,而是暴力試錯。他說這種方法就像「亂寫程式然後看哪個跑得動」,低效而粗糙。
第四個挑戰則是規劃能力。真正的智能不只是對當下做出反應,更能思考未來。他形容:「如果 AI 能夠在內部模擬一個世界,然後根據某個假設行動去預測未來的結果,那它就能計劃達成目標的最佳路徑。」而這,才是人類做決策的真正方式。
JAPA:一種更接近人腦的新架構
對於解決這些挑戰,LeCun 並非空口說白話。他和團隊已經在設計一套嶄新的 AI 架構,名為 JAPA(Joint Embedding Predictive Architecture)。它不是語言生成器,不模仿人類對話,而是一套可以在抽象空間中思考與預測的系統。
「當你在腦中想像一顆立方體旋轉,你不是在腦中拼字詞,而是在操作一種抽象模型。」LeCun 如此比喻。他希望 AI 也能具備這樣的能力 —— 在一個抽象表示空間(latent space)中,理解世界的結構,模擬行動的後果,進而推理與規劃。
這是一種對現今 LLM 的徹底顛覆。不是 token 的堆疊,不是語言的預測,而是認知與世界模型的建構。
開源、合作、與人類智慧的共同體
除了技術的革新,LeCun 也毫不掩飾他對「開源」與「多樣性」的支持。他強調,真正的 AI 不會只誕生在矽谷的幾家公司手中。
「未來的智慧助理,不能只說英文,也不能只有一種文化觀。它們要能理解全世界所有語言、文化、價值觀與偏好,」他說,「我們需要一個像新聞媒體一樣多元的 AI 生態。」
他將 LLaMA 模型與 PyTorch 的開放精神視為未來的希望,也認為 foundation models 應該走向全球分布式訓練與社群式貢獻,讓各地區能以保有資料主權的方式,共建全球智能基礎。
AGI 不會從某個神秘實驗室誕生
當對話接近尾聲,LeCun 又補上一句:「未來的人工智慧,不會是一個瞬間、一家公司、一個模型的成就,而是整個人類社群長時間積累的成果。」
他認為,這個過程將需要開放的研究、全球的合作、與更便宜、更高效的硬體(然後開玩笑地說:「NVIDIA,你們該降價了。」)。
如果說 LLM 是當今 AI 的盛世,那麼 LeCun 心中的未來,是一場真正對人類智慧本質的回歸。他不做炒作,不講流行語,只是默默地,用他的方式,讓 AI 回到一個根本的問題:它到底懂不懂這個世界?
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!