ADVERTISEMENT
據Google官方消息,機器學習 ML 開發和部署如今受到了分散和孤立的基礎設施的影響,這些基礎設施可能因框架、硬體和用例而異。這種碎片化限制了開發者的速度,並對模型的可移植性、效率和生產化造成了障礙。
為此,亞馬遜 AWS、AMD、阿里巴巴、蘋果、Arm、Cerebras、Google、Graphcore、Hugging Face、英特爾、Meta 和NVIDIA等12 家科技巨頭宣布,聯合推出 OpenXLA 計畫(包括 XLA、StableHLO 和 IREE 儲存庫),使開發者能夠編譯和最佳化來自所有領先 ML 框架的模型,以便在各種硬體上進行高效培訓和服務。
據介紹,OpenXLA 項目提供了一個最先進的 ML 編譯器,可以在複雜的 ML 基礎設施中擴展。這一通用的編譯器可以將不同的硬體裝置橋接到當今使用的多個框架(例如 TensorFlow、PyTorch),通過 OpenXLA 來幫助加速 AI 的開發和交付來實現 AI 的實際潛力。
Google表示,使用 OpenXLA 的開發者將看到訓練時間、吞吐量、服務延遲以及最終上市時間和計算成本方面的顯著改進。
OpenXLA計畫目前已上傳到 GitHub。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!