開放原始碼軟體解決方案供應商 Red Hat 近期宣布正式推出能橫跨混合雲環境的 Red Hat Enterprise Linux AI(RHEL AI)。作為 Red Hat 的基礎模型平台,RHEL AI 賦能使用者更無縫地開發、測試和執行生成式 AI 模型,並驅動企業應用程式。此平台整合開源授權的 Granite 大型語言模型系列和基於聊天機器人大規模對齊方法的 InstructLab 模型對齊工具,並以最佳化、可啟用的 RHEL 映像檔模式,支援跨混合雲的單一伺服器部署。
Red Hat 相信在未來十年內,更小型、更有效率且為特定目的建置的 AI 模型,將與雲端原生應用程式一同成為企業 IT 堆疊的關鍵組合。為實現此目標,從成本、貢獻者至混合雲上的執行位置等各方面,生成式 AI 必須更容易存取和使用。過去幾十年來,藉由來自多元使用者族群的貢獻,開源社群已成功解決與複雜軟體問題相似的挑戰;此相同的模式同樣適用於生成式 AI,得以有效降低其採用的門檻。
生成式 AI 的開源方法
RHEL AI 欲解決的挑戰為:在混合雲環境中,CIO 和企業 IT 組織得以使用更易於存取、更有效率且更有彈性的生成式 AI。RHEL AI 可協助:
- 藉由企業級且開源授權的 Granite 模型驅動生成式 AI 創新,滿足各式各樣的生成式 AI 應用情境。
- 利用 InstructLab 工具簡化生成式 AI 模型與業務需求的對齊過程,讓企業中的領域專家和開發人員在不具備豐富的資料科學技能的情況下,也能為其模型貢獻特殊的專業技能和知識。
- 透過提供生產環境中伺服器所需的調整和模型部署相關的所有工具,無論相關資料位於何處,在混合雲的任何環境中皆可訓練和部署生成式 AI。RHEL AI 也提供與 Red Hat OpenShift AI 的匝道,開發人員得以在使用相同工具和概念下,大規模地訓練、調整和提供這些模型。
RHEL AI 同樣享有訂閱 Red Hat 所提供的服務,包含可信賴的企業級產品發行版、24 小時全天候生產環境支援、擴展模型生命週期支援和開放原始碼擔保的法律保護。
RHEL AI 擴充橫跨混合雲環境
對於支援生產型 AI 的策略而言,讓更一致的基礎模型平台更貼近企業資料的所在位置至關重要。RHEL AI 為 Red Hat 混合雲產品組合的延伸,涵蓋從地端資料中心、邊緣環境至公有雲等近乎所有的企業環境。這意味著客戶可直接從 Red Hat、Red Hat 原始設備製造商合作夥伴取得 RHEL AI,並可運行於全球最大的雲端供應商上,包含 Amazon Web Services、Google Cloud Platform、IBM Cloud 和 Microsoft Azure,賦能開發人員和 IT 企業得以運用超大規模運算資源的力量,藉由 RHEL AI 建置創新的 AI 概念。
服務提供狀態
RHEL AI 現已透過 Red Hat Customer Portal 正式上市,可支援地端環境或作為「自備訂閱式服務」上傳至 AWS 和 IBM Cloud 上。Azure 和 GCP 上的自備訂閱式服務產品計劃預計於 2024 年第四季度推出,RHEL AI 也預計將於今年稍晚於 IBM Cloud 上提供服務。
Red Hat 也預計在未來幾個月進一步擴大 RHEL AI 雲端和 OEM 合作夥伴的範圍,為混合雲環境提供更多選擇。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!