ADVERTISEMENT
在目前正在進行的黃仁勳 2024 台北電腦展主題演講上,黃仁勳介紹生成式人工智慧將推動軟體全端重塑,展示其 NIM(Nvidia Inference Microservices)雲原生微服務。
CEO數學:GPU買得越多就省越多
他在這次演講上談論起 GPU 比 CPU 更適合 AI 任務。憑藉 AI 晶片,NVIDIA單季利潤已經達到 140 億美元。
「買的越多,省的就越多,」他開玩笑說。 「這就是所謂的CEO數學。雖然不準確,但卻是正確的。」
ADVERTISEMENT
他在這次主題演講中宣告「新的運算時代正在開始」,就像當年從PC到智慧手機的革命,並表示相同情況現在將再重演。
NVIDIA認為「AI 工廠」將掀起一場新的產業革命,黃仁勳認為生成式人工智慧將推動其全端重塑。
ADVERTISEMENT
NVIDIA Earth-2數位孿生模型
他在現場展示了NVIDIA Earth-2數位孿生模型,表示這是一個生成式AI模型,以更高解析度生成,速度比傳統物理方法快1000倍。在台灣的中央氣象局,已經用這些模型預測颱風登陸地點,接下來可以模擬建築物周圍氣流,這個模型融合人工智慧、物理模擬和觀測數據,可以預測極端氣候的影響。
此外,影片左上角負責用中文介紹的「黃仁勳」其實也是他的數位孿生模型,他表示他只為影片寫了旁白台詞,剩下的是AI負責講中文。
ADVERTISEMENT
NVIDIA NIM微服務:協助企業快速部署生成式人工智慧
為方便各種規模的企業部署 AI 服務,NVIDIA今年 3 月推出了 NIM(Nvidia Inference Microservices)雲原生微服務。
NIM 是一套經過最佳化的雲原生微服務,旨在縮短上市時間,並簡化生成式 AI 模型在雲、資料中心和 GPU 加速工作站的任何位置的部署。它使用行業標準 API,抽象化 AI 模型開發和生產包裝的複雜性,從而擴展開發者池。
ADVERTISEMENT
GPU 加速的 NVIDIA NIM 微服務及雲端端點的全新目錄,適用於預先訓練的人工智慧模型,在經過最佳化調整後便可在雲端、資料中心、工作站及 PC 上數億個支援 CUDA 的 GPU 上運行,企業可使用微服務加速資料處理、客製化大型語言模型、推論、檢索-增強生成和 Guardrails,包括主要應用程式平台提供商 Cadence、CrowdStrike、SAP、ServiceNow 等廣泛的人工智慧生態系統均有採用。
官方製作了一個 llama3 大模型的 NIM 容器,現已上線NVIDIA官網,開放供全部使用者下載並任意部署。
- 延伸閱讀:別再說不好用,黃仁勳大讚 Tesla FSD 系統遙遙領先
- 延伸閱讀:黃仁勳身價淨值已超過900億美元,表示「第四次工業革命已經開始」
- 延伸閱讀:黃仁勳宣佈NVIDIA AI 晶片以後將「一年一更新」,因為時間的價值不可估量
ADVERTISEMENT