ADVERTISEMENT
為進行生成式AI轉型,企業往往需部署更大規模的計算資源,因此華碩提供了配備八個及四個L40S GPU的伺服器,增進訓練、微調和推論工作負載,並憑藉震撼性能構建AI模型;此外,華碩也是全球屈指可數的NVIDIA OVX伺服器系統廠商,自行研發的創新LLM技術,更是市場上少數真正的全方位生成式AI解決方案,經驗豐富可靠,將為用戶帶來最佳化的相關知識與能力。
華碩內建Intel Xeon處理器的ESC8000-E11 / ESC4000-E11,以及採用AMD EPYC處理器的ESC8000A-E12 / ESC4000A-E12伺服器,至多可搭載八個NVIDIA L40S GPU,能輕鬆滿足當今企業的計算基礎設施,以及數據中心所需的極致性能、可擴展性與穩定耐用性。選擇L40S GPU伺服器,可快速部署硬體解決方案,以更安全、優化的方式增加運行工作負載;獨立的GPU和CPU氣流通道,還有在儲存、網路上的靈活模組設計,亦讓系統應用更多元彈性。
ADVERTISEMENT
Ada Lovelace架構的NVIDIA L40S GPU,是數據中心中功能最強大的通用GPU,可為大型語言模型推論和訓練、圖形與影像處理帶來突破性的多工負載運算;同時,作為多模態生成式AI首選平台,L40S GPU將為下一代支持AI的音頻、語音、2D、視訊和3D應用程序提供完美動能,加上華碩獨家LLM技術,可從數據中學習、迭代生成精緻的3D模型、景觀和逼真紋理;設定參數後,設計師還能觀察AI提供的無數變化,節省寶貴時間、完善視覺藝術,或協助非專業工作者直覺操作3D元素,加速實現創意與想法。
ADVERTISEMENT
- 延伸閱讀:NVIDIA H100 明年出貨至少增長兩倍,AI 晶片拖累科技公司收益
- 延伸閱讀:黃仁勳喊話:NVIDIA正改善 AI 加速卡供應,廠商不用擔心H100產能跟不上需求
- 延伸閱讀:AMD蘇姿丰拜會台積電等供應鏈廠商,「NVIDIA H100殺手」MI300X要量產了
- 延伸閱讀:NVIDIA最強GPU H100太搶手,供不應求找外援產能大增30%
ADVERTISEMENT