由 Stability.ai 發佈的開源模型 Stable Diffusion 可以說是目前最主流也是最重要的 AI 繪畫模型之一。
基於開放原始碼的 Stable Diffusion,開發者社區創作了許多有意思的外掛和模型,例如可以控製圖形形狀的 Control Net 項目等,相關的開發項目超過 1000 個。
現在,這家熱衷於開放原始碼的 AI 公司又想搞一個大事情——發佈一個類似 ChatGPT 的開源大型語言模型。
人人都有 LLM
2023 年可以說大型語言模型井噴的一年,這幾個月以來,幾乎每個星期都有一個新的大型語言模型面世。大型語言模型、小模型、文字生成的、多模態的、閉源的、開放原始碼的……現在就是大型語言模型的春天,各家百花齊放。
這份熱鬧不僅屬於微軟、Google、百度、阿里等Internet大廠,也屬於所有與 AI 相關的科技公司。
和現有的大型語言模型相比,Stability.ai 發佈的 StableLM 大型語言模型有什麼特別的呢?
根據 Stability.ai 的介紹,目前 StableLM 是一個開源且透明的模型,允許研究人員和開發者自由地檢查、使用和修改程式碼。就像 Stable Diffusion 一樣,使用者們都可以自由地組態 Stable LM,打造專為自己需求而量身定製的大型語言模型。
目前 Stable LM Alpha 版本模型的參數大小為 30 億和 70 億,未來 Stability.ai 還會提供 150 億和 650 億參數大小的模型版本。
儘管和 GPT-3 模型的 1750 億參數相比,StableLM 的模型大小要小得多,但 Stability.ai 表示 StableLM 是基於一個比 The Pile 資料集還要大 3 倍的擴展資料集訓練而成,在編碼和自然語言對話方面都有不錯的表現。
The Pile 資料集本身已經包括了大量書籍、Github 知識庫、網頁、聊天記錄等資料,還收集了醫學、物理、數學、電腦科學和哲學學科的論文,可以為通用大型語言模型、跨領域文字生成訓練提供很好的基準。
因此在實際使用時,StableLM 與 GPT-3 的差距並不像紙面參數資料的差異那樣明顯。
Stability.ai 在公告中展示了 StableLM 處理三個不同任務的實際表現,包括寫郵件、寫 Rap 歌詞(問題:寫一首深度學習網路與符號人工智慧互嗆的史詩級 Battle 歌詞。只能說這極客味太重了)和寫程式碼。
Stability.ai 還把 StableLM 託管在了 HuggingFace 的社區網站上,想搶先體驗的朋友可以到以下地址調戲它⬇️
🔗 https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat
從我們做的簡短測試來看,StableLM 的中文水準還不怎麼好,更不用說和 ChatGPT 這樣的優等生對比,因此在對話時儘量使用選擇英語。
開源還是閉源之爭
和包括史丹佛大學的 Alpaca 在內的眾多開源大型語言模型一樣,StableLM 給了很多開發者在本地或者伺服器親手定製大型語言模型的機會,不用再擔心你的資料洩漏給了模型後台。
ChatGPT 爆火後,關於 AI 模型的資料隱私問題層出不窮,前不久三星還被爆出有多名員工向 ChatGPT 洩漏機密資料的事件,以致三星的半導體部門決定自己開發內部 AI 工具,避免類似的問題再次發生。
開源模型除了有高透明度的優勢,開發者們也更容易利用開源模型開發出更具有創造力的應用。例如你可以對 StableLM 做定製化的偵錯,讓它變成一個不會停歇的網文作家,或者是非常熟悉公司項目的資深程式設計師或文案寫手,甚至可以偵錯成微博上的星座運程大師。
開源模型給了開發者更大的想像力空間,但與此同時,也會給作惡者更先進的手段。
對別有用心者來說,開源大型語言模型可能就是做電信詐騙的神器,他們可以逼真的對話把人們騙的團團轉。
開源總是會伴隨爭議,這一點 Stability.ai 早有預料。此前因為開源 Stable Diffusion,Stability.ai 已經遭到了許多涉嫌侵犯藝術家權利的法律訴訟,以及因使用者使用其工具生成色情內容而引起的爭議。
Stability.ai 的 CEO Emad Mostaque 在此前的採訪中提到,大型語言模型需要接受更多監督,而不是被大公司鎖在小黑盒里,因此大型語言模型的社區開放性也非常重要。Stability.ai 堅持開源,是想把技術帶給更多的人,引發人們的思考。
StableLM 是對 Stability.ai 的承諾最新驗證,一個人人都有專屬語言模型的未來或許就此展開。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!