ADVERTISEMENT
法國新創公司 Mistral AI 近日發表了全新程式碼生成 AI 模型 Codestral Mamba,以開源 Apache 2.0 授權釋出,允許免費使用、修改與散佈,為程式碼生成領域帶來嶄新氣象。
Mamba 架構挑戰 Transformer 霸主地位
Codestral Mamba 最大的亮點在於採用了 Mamba 架構,有別於 Transformer 模型,Mamba 模型具備線性時間推論的優勢,理論上能夠處理無限長度的序列,不受輸入長度限制,快速回應使用者需求。這種高效能對於程式碼生產力應用場景特別有價值,因此 Mistral AI 特別強化了 Codestral Mamba 的程式碼和推理能力,使其效能媲美最先進的 Transformer 模型。
根據 Mistral AI 的測試,Codestral Mamba 在 70 億參數的模型中表現最佳,甚至在部分指標上超越了 220 億參數的 Codestral 模型,展現了 Mamba 架構的巨大潛力。
256k token 超長上下文處理能力,打造強大程式碼助手
Mistral AI 團隊已測試 Codestral Mamba 在高達 256,000 token 的上下文內檢索能力,預期它將成為卓越的本地程式碼助手。
Codestral Mamba 可透過 mistral-inference SDK 或 TensorRT-LLM 部署,未來也將支援 llama.cpp。使用者可從 Hugging Face 免費下載模型權重,Mistral AI 也在 la Plateforme 平台上提供了 Codestral Mamba 和 Codestral 22B 的測試環境。
Mistral AI 持續推動 AI 模型研究與開源
繼 5 月份發布商用受限的 Codestral 模型後,Mistral AI 再次推出開源的 Codestral Mamba,展現其致力於 AI 模型研究與開源的決心。Codestral Mamba 的問世,不僅為開發者提供強大的程式碼生成工具,也為 AI 模型架構研究開闢了新的道路。
Codestral Mamba的發布不僅為程式碼生成領域帶來了新的可能性,也為AI架構研究開闢了新的視角。其開源性質更是為整個AI社群提供了寶貴的學習和研究資源。隨著越來越多的開發者和研究人員參與到Codestral Mamba的改進和應用中,我們有理由期待在不久的將來,會看到更多基於此模型的創新應用和突破性研究成果。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!