業界新聞

NVIDIA全新A100 GPU 提升AI訓練與推論速度最高達 20 倍,全新Ampere 資料中心 GPU 全面進行生產

(本資訊由廠商提供,不代表PCDIY!立場) 2020-05-15 14:04:36

NVIDIA 首款具彈性、多執行個體 GPU 整合資料分析、訓練與推論,獲全球頂尖雲端服務供應商與伺服器製造商採用

NVIDIA (輝達) 今天宣布首款基於 NVIDIA® Ampere 架構打造的 NVIDIA A00 GPU 已全面進行生產,並供貨給全球客戶。

A100 汲取 NVIDIA Ampere 架構設計上的突破,為 NVIDIA 帶來八代 GPU 中,有史以來最大的效能躍進,同時整合人工智慧 (AI) 訓練與推論,效能較先前的 GPU 提升最高達 20 倍。作為通用型作業負載加速器的 A100,也是專為資料分析、科學運算與雲端繪圖所打造。

NVIDIA A100 GPU


NVIDIA創辦人暨執行長黃仁勳表示:「雲端運算與 AI 強大的趨勢正在推動資料中心設計的結構性轉變,因此以前完全由 CPU 組成的伺服器機海,如今只需 GPU 加速運算即可完成。NVIDIA A100 GPU 代表 20 倍的 AI 效能提升,以及從資料分析到訓練、再到推論的端到端機器學習加速器。此為首次可以在單一平台上加速橫向或縱向擴充的作業負載。NVIDIA A100 將同時提升吞吐量,並降低資料中心的成本。」

內建於 A100 的全新彈性化運算技術,實現為每項工作提供適當規模的運算力。多執行個體 GPU 的功能讓每個 A100 GPU 最多可以劃分為 7 個獨立的執行個體以進行推論任務,而第三代的 NVIDIA NVLink® 互連技術可以讓多個 A100 GPU 視為一個巨型 GPU,以執行更大型的訓練任務。

預期全球領先的雲端服務供應商與系統建造商,將會把 A100 GPU 結合至他們的產品中,包括阿里雲 (Alibaba Cloud)、亞馬遜網路服務 (AWS)、源訊 (Atos)、百度雲 (Baidu Cloud)、思科 (Cisco)、戴爾科技 (Del Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、Google雲端、杭州華三通信技術 (H3C)、惠普企業 (HPE)、浪潮 (Inspur)、聯想 (Lenovo)、微軟 Azure、甲骨文 (Oracle)、廣達電腦/ 雲達科技 (Quanta/ QCT)、Supermicro (美超微) 與騰訊雲 (Tencent Cloud)。

全球一致立即採用

微軟為第一批率先採用 NVIDIA A100 GPU 運算力的企業,將充份發揮 A100 的效能與可擴充性。

微軟企業副總裁 Mikhail Parakhin 表示:「微軟採用當前世代的 NVIDIA GPU,大規模訓練全球最大的語言模型 Turing Natural Language Generation (T-NLG)。Azure 將使用 NVIDIA 最新一代的 A100 GPU 訓練更大型的 AI 模型,進而推動語言、語音、視覺與多模態領域的最新進展。」

在新冠肺炎大流行期間,成為餐廳仰賴之生命線的隨選食物平台 DoorDash 則指出,擁有具彈性之 AI 架構的重要性。

DoorDash 機器學習工程師 Gary Ren 表示:「現今需要大量數據且複雜的 AI 訓練與推論作業負載,可以透過像 NVIDIA A100 GPU 等先進技術中獲益,其有助於縮短模型訓練所需時間,並加速機器學習開發的流程。此外,使用基於雲端的 GPU 叢集讓我們發現新的彈性,我們可以依需求擴大或縮小規模,這將有助於提升效率、簡化我們的運作流程並節省成本。」

其它初期採用的單位包括國家級實驗室,以及部分全球領先的高等教育學府與研究機構,每一個單位都透過 A100 打造其次世代超級電腦,包括:
● 美國印第安納大學的 Big Red 200 超級電腦是基於 HPE Cray Shasta 系統所打造,將支援科學與醫學研究,以及 AI、機器學習與資料分析等先進研究。
● 德國 Jülich 超級電腦中心的 JUWELS 加速器系統由 Atos 打造,是專為超大規模運算力與 AI 任務而設計。
● 德國卡爾斯魯爾理工學院正與 Lenovo 聯手打造其 HoreKa 超級電腦,未來在材料科學、地球系統科學、能源與行動研究工程、粒子物理學與天體粒子物理學等領域,將能夠執行更大規模的多尺度模擬。
● 德國 Max Planck 運算暨資料中心的次世代超級電腦 Raven 由 Lenovo 打造,為 Max Palnck 機構的高效能運算應用程式的開發、優化、分析與視覺化,提供高階支援。
● 位於美國勞倫斯柏克萊國家實驗室裡的美國能源部國家能源研究科學運算中心,正在打造基於 HPE Cray Shasta的次世代超級電腦 Perlmutter,以支援超大規模的科學計劃,並開發新能源、提升能源效率,以及發掘新材料。

A100 的五大突破

NVIDIA A100 GPU 是一項技術設計上的突破,由五大關鍵創新所推動:
● NVIDIA Ampere 架構:A100 的核心是 NVIDIA Ampere GPU 架構,其包含超過 540 億個電晶體,是全球最大的七奈米處理器。
● 具備 TF32 的第三代 Tensor Cores:NVIDIA 被各界廣泛採用的 Tensor Cores 現在變得更具彈性、更快速,且更容易使用。其擴充能力包含全新用於 AI 的 TF32,無需改變任何編碼,便能讓 FP32 精度的 AI 效能提升最高達 20 倍。此外,Tensor Cores 現在還支援 FP64,針對高效能運算應用的運算力,比前一世代最高多出 2.5 倍。
● 多執行個體 GPU (Multi-instance GPU; MIG):MIG 是一項全新的技術,可以讓單一 A100 GPU 最多劃分為 7 個獨立的 GPU,以便針對不同規模的工作提供不同程度的運算,進而提供最佳的利用率與極大化的投資報酬率。
● 第三代 NVIDIA NVLink:將 GPU 之間的高速連接速度加倍,以便在伺服器內提供高效率的效能擴充。
● 結構化稀疏 (Structural sparsity):這項提升效率的全新技術,掌握 AI 數學原本稀疏的特性,讓效能加倍。

上述這些功能加總起來讓 NVIDIA A100 成為多元、要求極高的作業負載的理想選擇,其中包括 AI 訓練與推論,以及科學模擬、對話式 AI、推薦系統、基因組學、高效能資料分析、地震模型與金融預測。

NVIDIA A100 隨新系統上市,未來將擴展至雲端

同步於今日發表的 NVIDIA DGX A100 系統,以 NVIDIA NVLink 互聯 8 個 NVIDIA A100 GPU 為特色。您可以立即透過 NVIDIA 和認可的合作夥伴進行選購。

阿里雲、AWS、百度雲、Google 雲端、Microsoft Azure、甲骨文與騰訊雲,正在計劃提供基於 A100 的服務。

此外,預期全球領先的系統製造商,包括源訊、思科、戴爾科技、富士通、技嘉、杭州華三通信技術、HPE、浪潮、聯想、廣達電腦/雲達科技與美超微,將推出各種基於 A100 的伺服器。

為協助合作夥伴加速伺服器的開發,NVIDIA 打造出具備多重 GPU 組態並整合基板型式的伺服器構建模組 HGX A100。

配置四個 GPU 的 HGX A100 提供 GPU 與 NVLink 之間的完全互連,而配置八個 GPU 的版本則透過 NVIDIA NVSwitch™ 提供完整的 GPU 至 GPU 頻寬。具有全新多執行個體 GPU 架構的 HGX A100,可以配置成 56 個小型的 GPU,每一個 GPU 的速度都比 NVIDIA T4 更快,最大則可組成巨型的八個 GPU 伺服器,AI 效能達到 10 petaflops。

A100 的軟體優化

NVIDIA 同時宣布多項軟體堆疊的更新版本,讓應用程式開發人員得以發揮 A100 GPU 的創新功能。其包括用於加速繪圖、模擬與 AI 的 50 多種 CUDA-XTM 函式庫全新版本、CUDA 11、多模態對話式 AI 服務框架 NVIDIA Jarvis、深度的推薦應用框架 NVIDIA Merlin,以及 NVIDIA HPC SDK,其中包含可以協助高效能運算開發人員針對 A100 編碼進行除錯與優化的編譯器、函式庫與工具。

發表您的看法

請勿張貼任何涉及冒名、人身攻擊、情緒謾罵、或內容涉及非法的言論。

請勿張貼任何帶有商業或宣傳、廣告用途的垃圾內容及連結。

請勿侵犯個人隱私權,將他人資料公開張貼在留言版內。

請勿重複留言(包括跨版重複留言)或發表與各文章主題無關的文章。

請勿張貼涉及未經證實或明顯傷害個人名譽或企業形象聲譽的文章。

您在留言版發表的內容需自負言論之法律責任,所有言論不代表PCDIY!雜誌立場,違反上述規定之留言,PCDIY!雜誌有權逕行刪除您的留言。

最近新增