ADVERTISEMENT
Meta今天發表新一代大型語言模型Llama 2,將免費提供研究與商業使用;Meta並宣布與微軟拓展長期合作夥伴關係,微軟成為Meta在Llama 2商用化的特選合作夥伴。
Meta 表示,過去十多年,Meta 將探索性研究、開源、與學術界及業界夥伴的合作作為 AI 發展的核心,並親眼見證開放創新可以如何孵化造福大眾的科技。數
Meta 現已完成分享 Llama 2 新版本並開放用於商業用途的相關準備,包括預訓練模型與對話式的
ADVERTISEMENT
大家與企業將從 Microsoft 與 Meta 間的長期合作夥伴關係中受益,兩家公司共同為可互換 AI 框架推出開放生態系統,並為了推動 AI 的發展共同撰寫相關研究論文。此外,雙方的合作也擴大 PyTorch 在 Azure 上的應用。PyTorch 是由 Meta 與 AI 社群創建且領先業界的 AI 框架,Meta 也是 PyTorch 基金會創始成員之一。微軟與 Meta 近期加入許多認同 AI 框架夥伴關係的支持者,一起創建與共享合成媒體內容。合作夥伴關
聚焦於負責任地開發
開源將促進 Llama 2 的透明度與可獲取性。AI 為社會帶來顯著的進步,但也伴隨著風險,因此 Meta 承諾將負責任地構建並提供大量資源協助使用 Llama 2 的開發者。
ADVERTISEMENT
-
紅隊演練( Red-Teaming Exercises ):在內部與外部努力下,Meta 的微調模型已通過紅隊演練安全測試。團隊致力於生成對抗式指令( prompts )來進行模型微調。此外,Meta 委託第三方對經過微調的模型進行外部對抗性測試,以類似方式識別
性能上的不足。這些安全微調過程是不斷迭代的;Meta 將繼續透過微調與基準測試,投入於安全性的提升, 並基於這些努力發布更新的微調模型。 -
透明度示意圖:解釋對於模型的微調與評估方式,並確認其缺陷。
在研究論文中,Meta 的透明度示意圖揭露過去所經歷過的已知挑戰與問題,並提供曾採取 的緩解措施,以及未來計畫探索的解決方式。 -
負責任的使用指南:Meta 建立一套指南,與開發者分享負責任地開發與安全評估的最佳實踐方
式。指南概述在業界與 AI 研究社群間,所討論出目前關於負責任生成式 AI 的最佳研究方式。 -
可接受的使用政策:Meta 制定了禁止某些案例的政策,
以確保這些模型得以公平且負責任地被使用。
Meta 也開展新方式,運用全球各地的個人、研究人員、開發者的洞察力與
- 開放創新 AI 研究社群:Meta 更為學術研究人員啟動新的合作夥伴計劃,
企盼更進一步瞭解大型語言模型的負責任開發與共享。 研究人員可以申請加入從業者社群,分享重要主題的相關經驗, 社群將制定研究議程來推動未來的發展。 - Llama 影響力挑戰賽:Meta 期待活絡積極使用 Llama 解決難題的創新社群,Meta 發起挑戰賽,鼓勵各種大眾、非營利組織與營利單位,運用 Llama 2 應對氣候、教育及其他相關議題上面臨的挑戰。
挑戰賽的規則將再另行公布。
回顧 Meta 過去發展,在發展非業務相關領域時,開源帶來許多益處。Meta 的工程師開發並分享現已成為業界標準的框架,
ADVERTISEMENT