最新訊息

首頁>最新訊息
Marvell
2019/12/10

Marvell ThunderX平台成功整合NVIDIA CUDA-X AI與HPC軟體框架

NVIDIA-CUDA-X-AI-and-HPC-Software-Stack-Now-Available-on-Marvell-ThunderX-Platforms
推動行業領先應用獲得高效能與高性能計算

Marvell(NASDAQ:MRVL)近日宣佈公司旗下基於Arm® 的 ThunderX® 系列伺服器處理器已實現對NVIDIA GPU的支持。繼 6 月份NVIDIA 宣佈將CUDA引入Arm架構相之後,Marvell 著手與NVIDIA協作,開始將CUDA-X AI™ 與HPC庫、GPU加速型AI框架和軟體發展工具引入ThunderX平台。Marvell基於Armv8-A的64位伺服器處理器 ThunderX2®,其計算性能與記憶體頻寬,與NVIDIA GPU並行處理能力互相結合,開闢出了驚人的高能效百萬兆級運算路徑。

人工智慧(AI)與機器學習(ML)繼續成為滿足雲計算與網路邊緣計算資料中心伺服器需求的關鍵技術。為解決人工智慧與機器學習日益增長的工作負載,以及科研領域最具挑戰性和複雜的問題,超級電腦需配備經過優化的處理器,提供領先的輸送量、應用程式時延和功耗。

ThunderX2起初專注於GROMACS、NAMD、MILC與LAMMPS等計算科學應用程式,其配置就已展現出超乎意料的性能。此次它又獲得GPU的支持,使其能夠更加快速、高效的體現出聯合優勢。

「ThunderX2伺服器處理器對NVIDIA GPU的支持,創造出了顯著的差異化價值,充分滿足百萬兆級運算時代對性能和功耗的要求。」Marvell 半導體公司副總裁兼伺服器處理器事業部總經理Gopal Hegde說道,「NVIDIA GPU加速對Arm架構的支援將進一步拓展ThunderX2生態系統在HPC、雲計算和邊緣計算市場的應用,促進底層韌體,系統軟體以及獨立商務軟體等各類商業應用程式。」
「CUDA加速在ThunderX2對處理器的支持是一個重大里程碑,標誌著高能效和高性能的Arm架構正式進軍軟體基礎架構市場。」Arm高級副總兼基礎架構事業部總經理Chris Bergey說道, 「對於整個行業生態系統的創新,其廣度和深度將為現有或者未來的邊緣計算、雲計算等 GPU 負載提供一個輕鬆的遷移路徑和強有力的支援。」

「經NVIDIA GPU加速的Arm計算架構為全球客戶在構建下一代AI賦能超級電腦提供更多的選擇。」NVIDIA 副總裁兼加速計算總經理Ian Buck表示,「NVIDIA 無與倫比的AI與HPC平台和Marvell強大的基於Arm的ThunderX2伺服器處理器的結合已展現出備受矚目的應用程式性能。」

生態系統支援
ThunderX2伺服器處理器是應用範圍最廣的基於Armv8-A的伺服器處理器,其生態系統覆蓋超過 100 家合作夥伴企業,涉及商業、開源和行業標準等各個領域。借由NVIDIA的完整軟體套件支援,部署在ThunderX2系統上超過600 個HPC應用程式和AI框架將得以提速。

「SUSE 與 Marvell 合作,通過SC8000計算加速擴展平台為業界提供具備行業領先性能的ThunderX2處理器,將資料中心的AI功能應用于各類邊緣應用程式。」One Stop Systems首席執行長Steve Cooper稱,「SC8000是業內首個將基於NVLink的NVIDIA Tesla GPU與Arm伺服器整合的解決方案。將基於Arm的架構併入我們的解決方案,將擴展針對客戶的AI on the Fly邊緣設備的應用場景。」

「Red Hat與Marvell在Arm伺服器生態系統方面的合作歷史源遠流長,有助於為企業Arm架構提供開放的全行業標準。」Red Hat高級副總裁兼首席技術長Chris Wright表示,「將 NVIDIA GPU用於配備有CUDA-X軟體開發套件與庫的ThunderX系統,方便客戶在Red Hat平台上選擇運行HPC、人工智慧與機器學習應用程式架構。」

「在近期的Catalyst UK部署中,SUSE與Marvell在HPC方面的強強聯手取得了顯著成功。」SUSE副總裁兼產品及解決方案管理者Daniel Nelson說道, 「在本次合作中,我們很高興看到Marvell ThunderX2增加了對NVIDIA GPU和HPC套件、人工智慧與機器學習應用程式的支援。 SUSE期待推動Arm生態系統的進一步優化和軟體基礎架構支援,並將在丹佛市舉辦的SC19行業會議上展出 GPU 支援系統。」   (新聞來源:Marvell 官網)
媒體聯絡窗口 與我聯繫
© 2018 EDOM Technology. All Rights Reserved.