挑戰OpenAI?中國DeepSeek發布6710億參數R1模型,免費下載!

挑戰OpenAI?中國DeepSeek發布6710億參數R1模型,免費下載!

ADVERTISEMENT

DeepSeek R1 可在本地免費執行和修改,並且在多項基準測試中與 OpenAI 的 o1 相匹敵。

週一,中國人工智慧實驗室 DeepSeek 以開放的 MIT 許可證發布了其新的 R1 模型系列,其中最大版本包含 6710 億個參數。該公司聲稱,該模型在多項數學和程式碼編寫基準測試中的表現可與 OpenAI 的 o1 模擬推理(SR)模型相媲美。

MIT 授權條款(MIT License)是一種非常寬鬆的自由軟體授權條款,允許使用者以任何目的使用、修改、複製、散佈軟體,唯一的限制是使用者必須在所有複製或散佈的軟體中包含原始的版權聲明和授權條款。

除了發布主要的 DeepSeek-R1-Zero 和 DeepSeek-R1 模型外,DeepSeek 還發布了六個較小的「DeepSeek-R1-Distill」版本,參數範圍從 15 億到 700 億。這些精餾模型基於現有的開源架構,如 Qwen 和 Llama,使用從完整 R1 模型產生的資料進行訓練。最小的版本可以在筆記型電腦上執行,而完整的模型則需要更多的運算資源。

這些發布立即引起了人工智慧社群的關注,因為大多數現有的開放權重模型——通常可以在本地硬體上執行和微調——在所謂的推理基準測試中落後於像 OpenAI 的 o1 這樣的專有模型。在任何人都可以研究、修改或商業使用的 MIT 許可模型中提供這些功能,可能標誌著公開可用的 AI 模型在可能性方面發生了轉變。

獨立人工智慧研究員賽門·威利森(Simon Willison)說:「它們執行起來非常有趣,看著它們思考很有趣。」威利森(Simon Willison)測試了一個較小的模型,並在他的部落格文章中描述了他的經驗:「每個回應都以一個包含用於幫助產生回應的思維鏈的 <think>...</think> 偽 XML 標籤開始」,並指出即使對於簡單的提示,該模型也會在輸出之前產生廣泛的內部推理。

模擬推理的實際應用

R1 模型的工作方式與典型的大型語言模型(LLM)不同,它採用了業界人士所說的推理時推理方法。當模型處理查詢的解決方案時,它們試圖模擬類似人類的思維鏈。當 OpenAI 在 2024 年 9 月首次推出其 o1 模型系列時,就出現了這類可以稱為「模擬推理」模型或簡稱 SR 模型的模型。OpenAI 在 12 月預告了一個名為「o3」的重大升級。

與傳統的 LLM 不同,這些 SR 模型需要額外的時間來產生回應,而這額外的時間通常會提高在涉及數學、物理和科學的任務上的效能。而這個最新的開放模型因明顯迅速趕上 OpenAI 而備受矚目。

例如,DeepSeek 報告稱,R1 在多項基準測試和測試中優於 OpenAI 的 o1,包括 AIME(一項數學推理測試)、MATH-500(一系列文字題)和 SWE-bench Verified(一種程式設計評估工具)。正如我們通常提到的,AI 基準測試需要謹慎看待,這些結果尚未經過獨立驗證。

DeepSeek 創建的 DeepSeek R1 基準測試結果圖表。

據 TechCrunch 報導,三家中國實驗室——DeepSeek、阿里巴巴和 Moonshot AI 的 Kimi——現在已經發布了他們聲稱與 o1 功能相匹配的模型,DeepSeek 在 11 月首次預覽了 R1。

但是,如果以雲端託管版本執行,新的 DeepSeek 模型會帶來一個問題——由於其源自中國,R1 不會產生關於某些主題的回應,例如天安門廣場或台灣獨立,因為根據中國的網路法規,它必須「體現社會主義核心價值觀」。這種過濾來自一個額外的審核層,如果模型在中國境外本地執行,則不會有這個問題。

即使存在潛在的審查,喬治梅森大學的人工智慧研究員迪恩·鮑爾(Dean Ball)在 X 上寫道:「DeepSeek 的精餾模型(r1 的較小版本)的卓越效能意味著非常有能力的推理器將繼續廣泛傳播,並可在遠離任何由上而下控制體系的本地硬體上執行。」

netizen
作者

一個老派的科技媒體工作者,對於最新科技動態、最新科技訊息的觀察報告。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則