業界新聞

NVIDIA 推出 Magnum IO 套裝軟體,協助資料科學家及AI和高效能運算研究人員消除資料瓶頸

(本資訊由廠商提供,不代表PCDIY!立場) 2019-11-19 16:18:16

新產品傳輸大量資料的速度是過去的20倍

NVIDIA (輝達) 今天宣布推出NVIDIA Magnum IO 軟體,可以協助資料科學家、 AI 與高效能運算研究人員在幾分鐘而非幾小時內處理海量資料。

經過優化後的 Magnum IO 能夠排除儲存及輸入/輸出的瓶頸,在執行如財務分析、建立氣侯模型與其他高效能運算作業時,可針對多伺服器與多 GPU 節點提供高達 20 倍的資料處理效能。


NVIDIA 與網路及儲存領域的頂尖業者密切合作,包括 DataDirect Networks、Excelero、IBM、Mellanox 和 WekaIO,並肩開發出 Magnum IO。

NVIDIA 創辦人暨執行長黃仁勳表示:「處理大量收集或模擬的資料,是 AI 這般由資料帶動之科學研究領域的核心。隨著資料的規模和出現速度呈現指數級增長,資料中心所面臨的巨大挑戰和成本考量就是資料處理。極致的運算需要有極致的輸入/輸出功能,而 Magnum IO 將巔覆運算領域的 NVIDIA GPU 加速技術用在輸入/輸出功能和儲存裝置上,做到了這一點。如今 AI 研究人員與資料科學家不用再等待資料,反而能專心在他們的研究工作上。」

Magnum IO 的核心是 GPUDirect,資料可以藉此繞過 CPU,在 GPU、儲存裝置和網路設備提供的「開放高速公路」上進行傳輸。由點對點及遠端直接記憶體存取 (RDMA) 組成的 GPUDirect,與眾多傳輸互連及 API 皆相容,其中包括 NVIDIA NVLink™、NCCL、OpenMPI 及 UCX。

其最新元素是 GPUDirect Storage,讓研究人員在存取儲存裝置之際可以繞過 CPU,並且快速取得資料檔案來進行模擬、分析或視覺化等作業。

NVIDIA Magnum IO 軟體現已上市,而特定早鳥計畫的客戶現已可取得尚未上市的 GPUDirect Storage。NVIDIA 計畫在 2020 年上半年讓更多客戶接觸到 GPUDirect Storage。

商業生態體系的支持

「現代的高效能運算與 AI 研究活動,得依賴驚人數量的資料來進行,而這個規模往往超過 PB 等級,這需要新的技術領先水準來善加因應。DDN 利用 NVIDIA 的 Magnum IO 軟體套件與我們的平行 EXA5 儲存架構,為資料傳輸另闢蹊徑,使得 GPU 透過高頻寬直接取得 PB 等級的資料量,而這是過去做不到的。」- DDN 研究長 Sven Oehme

「頂尖高效能運算與 AI 研究人員如今需要取得的資料量,不斷突飛猛進,使得許多單位難以因應輸入/輸出工作。任何想要加快 AI 及運行資料密集型作業負載的組織,IBM Spectrum Scale 可以滿足它們的需求。使用 IBM Spectrum Scale 和 NVIDIA GPU 加速技術,就能協助客戶緩解輸入/輸出作業的瓶頸,更快從資料中取得所需的見解。」— IBM 儲存裝置管理部門副總裁 Sam Werner

「頂尖的高效能運算與 AI 研究人員選擇使用 Mellanox,讓他們能夠運用各項最先進的技術,以盡可能高效率且快速的方式移動和處理大量資料。我們一直與 NVIDIA 合作,確保 Magnum IO 能夠跟 Mellanox 最先進的 InfiniBand 和乙太網路互連解決方案順利搭配,使得雙方的共同客戶能夠完全克服資料瓶頸、促進其科學、研究和產品開發活動的腳步。」— Mellanox Technologies 軟體架構部門資深副總裁 Dror Goldenberg

發表您的看法

請勿張貼任何涉及冒名、人身攻擊、情緒謾罵、或內容涉及非法的言論。

請勿張貼任何帶有商業或宣傳、廣告用途的垃圾內容及連結。

請勿侵犯個人隱私權,將他人資料公開張貼在留言版內。

請勿重複留言(包括跨版重複留言)或發表與各文章主題無關的文章。

請勿張貼涉及未經證實或明顯傷害個人名譽或企業形象聲譽的文章。

您在留言版發表的內容需自負言論之法律責任,所有言論不代表PCDIY!雜誌立場,違反上述規定之留言,PCDIY!雜誌有權逕行刪除您的留言。

最近新增