AI PC 人工智慧 神兵利器
-
英特爾以開放與軟體優先的方式加速開發者創新,英特爾提供開發者人工智慧、安全、量子運算等一站式解決方案
Intel Innovation大會的第二天,英特爾展示促進開放生態系方面的努力以及孕育社群創新的投資,從晶片涵蓋到系統,再到應用以及軟體堆疊的各個層面。 透過不斷擴大的平台、工具和解決方案,英特爾專注於協助開發者提升生產力,並更有能力實現推動社會公益的潛力。英特爾推出全新工具來支援人工智慧、安全和量子運算方面的開發者,並宣布最新Project Amber認證服務的第一批客戶。 英特爾技術長Greg Lavender表示:「英特爾正在扶植開放生態系,以達成我們的軟體優先策略,這將使我們能夠共同並持續創新。英特爾是開發者社群的忠實成員,我們在軟硬體資產方面的廣度和深度,有助於透過共同創新和協作為所有人擴大機會」。 Lavender在以開發者為中心的Intel Innovation第二天開場主題演講當中,強調英特爾對開放、選擇和信任的承諾,首先是oneAPI:一個跨產業、開放、基於標準的程式設計模型,允許開發商為他們試圖解決的具體問題選擇最佳架構。在採納oneAPI和實作進展的基礎上,該計畫正轉型成一個社群論壇,以形塑oneAPI的未來方向,並滿足開發者、軟體供應商、國家實驗室、研究人員和晶片供應商與時俱進的需求。 Codeplay是英特爾的子公司,專精於推動開放標準和提供SYCL和oneAPI工具的跨平台實作,之後將承擔起oneAPI開發社群的責任。 英特爾將繼續提供使用oneAPI規範的開發者工具和容易使用的套件。英特爾oneAPI 2023工具包將於12月推出,支援英特爾即將推出的最新CPU、GPU和FPGA架構,並包含開源SYCLomatic相容性工具等。SYCLomatic協助將CUDA原始碼轉換為SYCL原始碼,進而為開發者提供運算架構方面的選擇。 英特爾還宣布6個教育和研究機構成立oneAPI卓越中心,擴大支援重要應用中的oneAPI,並拓展開發oneAPI教育課程。新的卓越中心包括北京大學軟體與微電子學院、英國科學與技術設施委員會、以色列理工學院、猶他大學與Lawrence Livermore國家實驗室(LLNL)的合作、加州大學聖地牙哥分校和柏林Zuse研究所。 對於希望以快速、高效率和特定產業方式打造新人工智慧解決方案的開發者來說,英特爾推出3款用於醫療保健產業的人工智慧參考套件:文件自動化、疾病預測和醫學影像診斷。開發者可以在GitHub找到這些新套件與7月份推出的其它4款套件。 Lavender表示:「我們的目標是讓開發者透過開源生態系或英特爾提供的產品,輕鬆獲取最好的軟體技術。」開發者可能沒有意識到,但根據Evans數據公司在2021年進行的全球開發調查顯示,約有90%的開發者正在使用由英特爾開發或最佳化的軟體。舉例來說,英特爾十多年來一直是Linux核心的主要貢獻者,最近還協助將oneDNN效能資料庫整合至TensorFlow,自動為使用此熱門人工智慧架構的數百萬人帶來高達3倍的效能提升。 於開放軟體、硬體解決方案和商業需求的交會處,蘊藏著全新的機會—例如正在推廣中的德國電子處方箋計畫。 IBM開發了電子處方箋解決方案,並整合Intel® Software Guard Extensions(SGX)與Gramine,提供卓越的客戶體驗,同時協助維護平台的完整性以及對嚴格安全和隱私的需求。英特爾是開源Gramine計畫的主要貢獻者,該計畫讓德國的國家數位衛生機構能夠在最低程度的修改下,獲得SGX指定位址空間提供的完整性和保密性。 還有更多的實例尚在進行當中,這都要歸功於Project Amber,這是一個用於機密運算認證的軟體即服務產品,幾個月前在Intel Vision正式推出。首屈一指的美國聯邦政府科技承包商Leidos,正在使用Project Amber建立概念驗證,用來保護退伍軍人的健康資訊,提供將來在行動診所使用。 Leidos Health Group總裁Liz Porter與Lavender一同登台,並解釋:「Project Amber讓Leidos無需打造和維護複雜、昂貴的認證系統,使我們能夠專注於我們的核心差異化能力,如智慧自動化以及由AI/ML驅動的分析法。」 開放技術的另一個好處是,它可以被組合成來自不同專業供應商和客戶的無數解決方案。Red Hat技術長Chris Wright在Lavender的演講中,透過預錄影片宣布Red Hat的OpenShift Data Science已經「與英特爾的AI產品組合完成整合,因此開發者可以使用英特爾的AI Analytics工具包和OpenVINO™ 工具,訓練和部署他們的模型。」 Red Hat正努力將Habana® Gaudi® 訓練加速器納入其服務當中,提供「具有成本效益、高效能的深度學習模型訓練和部署—這些全部都是可管理的雲端服務」。Wright還宣布推出英特爾和Red Hat的聯合AI Developer Program,旨在「幫助開發者使用Red Hat OpenShift Data Science和英特爾的整合AI和邊緣產品組合,輕鬆地學習、測試和部署模型」。 對於那些準備將加速需求推向未來的廠商而言,英特爾推出Intel Quantum SDK,旨在協助開發者學習如何設計量子演算法程式,並充分發揮此新興技術的潛力。測試版現已透過Intel Developer Cloud提供。 Lavender還詳細介紹後量子密碼學方面的進展,這是英特爾在5月份Intel Vision上概述因應量子電腦威脅的三階段方法的一部分。近期發展方向朝著標準化以及提升機會和風險急迫性方面進行,「是我們產業在2030年之前,準備好Y2Q就緒或抗量子的重要一步。」Lavender表示:「許多人認為Y2Q的影響將比2000年的『千禧蟲』更大。」 作為英特爾將神經形態技術推向商業化目標的一部分,英特爾實驗室宣布為開發者提供包括Kapoho Point在內的新工具、一款使用Loihi 2研究晶片的可堆疊多板平台、並更新Lava開放軟體開發架構,以及英特爾神經形態研究社群(INRC)增加的新成員和八個英特爾贊助的大學計畫。 長期以來,英特爾培養未來創新的另一種方式是透過教育和學術界的合作。英特爾在今日公布Intel® Rising Star Faculty Award計劃,以表彰那些具有創新和顛覆性想法,對半導體和運算產業的研究或教育做出重大貢獻的年輕教師。 今年的獲獎者來自世界各地15個機構,他們不僅在從人工智慧到量子材料的研究方面取得進展,更在創新教學、為資訊科學和工程領域納入弱勢族群與女性方面也有所貢獻。
-
台北榮民總醫院以數據爲本 實現AI醫療,戴爾科技集團攜手台北榮總 打造現代化大數據AI平台 驅動醫療創新,ESG驅動下一波轉型 強化營運韌性 建立永續競爭力
過去2年多的疫情成了全球醫療保健產業數位轉型的催化劑,消弭長達數十年過時的營運障礙,驅動醫療保健機構更有目的性地擁抱新興科技,積極建置智慧醫療所需的現代化平台。根據調查顯示,89%的醫療保健機構因疫情加快數位轉型的腳步[i]。長期專注於務實創新的戴爾科技集團攜手台北榮民總醫院,從現代化科技、數位互聯員工、線上醫療、個人化精準醫療四大面向,打造現代化健康大數據AI平台。台北榮總雖不是第一家建置大數據平台的醫療機構,透過雙方的合作卻是在最短時間內,最快收穫數據(data)價值效益的醫療機構。到目前為止,已協助醫院提升33%的醫學論文量、醫學論文分數高出平均3倍、提高臨床用藥精準度以延長癌症3年與5年的存活率,以及透過大數據分析,以不同排列組合,計算出個人化最適COVID-19疫苗施打方案,提高疫苗保護力。 戴爾科技集團ESG射月目標其中一項便是期望在2030年前,以科技力量改善全球10億人的生活,而醫療保健是非常重要的一環。隨著全球人口繼續老化,截至今年65歲以上已超過7.71億人[ii],其中三成以上患有一種或多種慢性疾病,如癌症、慢性肺病和心臟疾病[iii]。慢性病管理和治療產生大量醫學影像,因此做好數據管理,並從不斷增長的患者數據中獲得智能洞察,變得更加重要。台灣戴爾科技集團總經理廖仁祥表示:「我們的醫療產業客戶正面臨複雜挑戰,像是對於效率與安全性要求極高的遠端醫療與照護、新的診斷醫學、隨需隨取的臨床資訊等需求。根據調查,74%的醫療保健機構對於數據與AI工具深具信心,相信兩者將成為疾病治療的關鍵[iv]。全台將近50%的醫學中心均採用戴爾科技集團解決方案,協助加速智慧醫療轉型。」 廖仁祥指出,我們很榮幸透過建立以數據為本的AI基礎架構環境,整合結構化與非結構化的數據儲存、提升存取效率、加速數據分析,協助台北榮總快速開發出各種智能化應用,以最快速度享受數據帶來的各項優勢與好處。這也顯現出,台北榮總在數位轉型過程中,堅持以數據為核心,再輔以到位的技術、流程與人才技能,培養出韌性體質,以敏捷彈性的數據架構,強化永續營運競爭力。 台北榮總民總醫院大數據中心負責人朱原嘉博士表示:「數據已成為醫療保健機構獲得完整患者視圖的關鍵資產。以往我們遇到的挑戰是數據散落各處,讓醫師難以取得醫療大數據進行臨床研究,影響醫學論文產量的質量。因此,我們選擇與戴爾科技集團合作,透過建立一個大數據整合基礎架構,打造流通無縫的數據池,讓各種數據能夠儲存在同一處,透過AI與機器學習,達到醫療智能化,並將這些數據轉化為具有高價值的洞察資訊,不僅大幅提升論文質量,更幫助醫師進行精準診斷、精準用藥,進而為患者做出改變生活的醫療決策,這就是我們邁向未來智慧醫療的終極目標。」 因為疫情影響,透過遠端看診的民眾愈來愈多,也影響到台北榮總每天門診人數與醫院營收等,而AI平台架構的導入,也驅動醫療商業模式的創新。例如:台北榮總團隊運用連續型資料庫,整合1.1億筆即時參數,以訓練心衰竭風險預警AI,同時持續優化AI模型,進一步打造肺積水預警AI;另一方面,也將採用國際醫療資料交換標準FHIR(HL7),讓模型無縫介接不同醫療設備品牌的數據,進而將AI模型商品化,從不同以往的創新醫療模式,提升醫院的營運績效與營收。 ESG已經是全球潮流與各產業組織的發展趨勢,要在這場國際醫療領域中持續保持領先地位,台北榮總更是不能缺席。朱原嘉博士進一步表示,為了能在2050年達到淨零碳排目標,台北榮總將持續優化AI,延伸擴展至運用AI,計算出最佳電力使用模型,以及運用多雲環境,落實節能減碳目標;並透過多雲的自我維運模式,解決少子化及缺工問題導致的人力短缺困境。 台北榮總透過AI數據平台的建置,也部署聯邦式學習(federal learning),讓數據留在醫院本地端、權重在雲端的模式,以邊際與AIoT等終端裝置收集病患的血壓值、心律管理、生理資訊量測等數據,再透過自動化分析工具提供有價值的資訊給醫生,以加速診療判斷。如此,不僅可提升精準醫療品質,更能夠消弭員工的數位落差。 此外,在全球資訊戰愈來愈嚴重之時,為了進一步保護病患隱私與個資,台北榮總未來期望能夠建置避風港計畫(Sheltered Harbor Program),強化資安韌性,為機密關鍵資訊提供堡壘型的完備防護,讓醫療服務不中斷。 秉持「以客為尊」以顧客為導向的服務理念,台北榮總將持續致力於醫療技術創新、服務品質提昇,遂行醫療服務、教學訓練、醫學研究三大任務的發展與成長,以「品質」、「效能」為核心競爭力,謀求人類的健康與福址。
-
史上最強!NVIDIA Hopper GPU架構再破紀錄!H100 GPU在MLPerf人工智慧推論基準測試初登場即創新世界紀錄!
在人工智慧推論的產業標準測試中,NVIDIA H100 GPU 創下世界紀錄,A100 GPU 展現主流效能領先優勢,Jetson AGX Orin 則在邊緣運算領先群雄 NVIDIA H100 Tensor 核心 GPU 在 MLPerf 人工智慧 (AI) 基準測試初登場,便在各項推論作業負載創下世界紀錄,其效能較前一代 GPU 高出達 4.5 倍。 此測試結果顯示,對於先進 AI 模型有最高效能需求的用戶來說,Hopper 就是首選產品。 此外,NVIDIA A100 Tensor 核心 GPU 及用於開發 AI 機器人的 NVIDIA Jetson AGX Orin 模組在影像和語音辨識、自然語言處理和推薦系統等所有 MLPerf 測試項目中,整體推論表現持續領先群雄。 亦稱為 Hopper 的 H100,在本輪測試的六個神經網路中提高單一加速器的效能標準。它在獨立伺服器和離線的情況下,在傳輸量和速度皆展現領先優勢。 NVIDIA Hopper 架構的效能較 NVIDIA Ampere 架構的 GPU 高出 4.5 倍,在 MLPerf 測試結果中持續保持全面領先地位。 Hopper 在熱門的 BERT 自然語言處理模型上的出色表現,部分要歸功於它的 Transformer 引擎。BERT 自然語言處理模型是 MLPerf AI 模型中規模最大、對效能要求最高的模型之一。 這些推論基準測試是 H100 GPU 的首次公開展示,此產品將在今年底上市。H100 GPU 將參與 MLPerf 日後的訓練測試。 各大雲端服務供應商與系統製造商已採用的 NVIDIA A100 GPU,在最新的 AI 推論測試中依舊位居主流效能的領導地位。 在資料中心與邊緣運算的類別和情境中,A100 GPU 的成績比其他參與者提交的測試結果都更為突出。A100 在六月的 MLPerf 訓練基準測試中一馬當先,展現處理整個 AI 工作流程的出色能力。 A100 GPU 自 2020 年 7 月首次參與 MLPerf 基準測試以來,隨著 NVIDIA AI 軟體持續改善,效能已經提高 6 倍。 NVIDIA AI 是在資料中心與邊緣運算中,唯一能夠運行所有 MLPerf 推論作業負載和情境的平台。 NVIDIA GPU 能夠在各大 AI 模型上提供頂尖效能,讓用戶成為真正的贏家。他們在真實世界中的應用通常會用到多種神經網路。 例如,AI 應用程式可能要理解使用者的口語請求、對影像進行分類、提出建議,然後用聽起來像人的聲音做出回應。每一步都要用到不同類型的 AI 模型。 MLPerf 基準測試涵蓋這些 AI 模型及其它熱門的 AI 作業負載和情境,像是電腦視覺、自然語言處理、推薦系統、語音辨識等。這些測試確保用戶能獲得可靠且靈活的效能來進行部署。 MLPerf 基準測試具透明度且客觀,也因此用戶仰賴這些測試結果以做出明智的採購決策。亞馬遜 (Amazon)、Arm、百度 (Baidu)、Google、哈佛大學 (Harvard)、英特爾 (Intel)、Meta、微軟 (Microsoft)、史丹佛大學 (Stanford) 與多倫多大學 (University of Toronto) 等眾多業者與學術單位皆對 MLPerf 表達支持。 NVIDIA Orin 運行 MLPerf 邊緣運算類別的每一項基準測試,多項表現更勝於其他低功耗系統單晶片。相較於四月時首次參與 MLPerf 測試,這次的能源效率提高多達 50%。 在前一回合的測試中,Orin 的運行速度比上一代 Jetson AGX Xavier 模組快 5 倍,而能源效率平均高出 2 倍。 Orin 將 NVIDIA Ampere 架構 GPU 與強大的 Arm CPU 核心叢集整合到單一晶片內。已可在用於開發機器人和自主系統的 NVIDIA Jetson AGX Orin 開發套件及生產模組中取得,並支援完整的 NVIDIA AI 軟體堆疊,包括用於自動駕駛車 (NVIDIA Hyperion)、醫療設備 (Clara Holoscan) 與機器人 (Isaac) 的多個平台。
-
NVIDIA Research 打造人工智慧模型,在虛擬世界中增添 3D 物件和人物角色
在 NVIDIA Research 開發出全新人工智慧 (AI) 模型後,越來越多公司及創作者可以將各種 3D 建築物、車輛和人物角色置入他們打造的龐大虛擬世界中。 NVIDIA GET3D 單純使用 2D 影像進行訓練,便能產生出極為逼真的紋理和具複雜幾何細節的 3D 形狀。用戶使用與熱門繪圖軟體應用程式一樣的格式來建立這些 3D 物件,可以立即把這些形狀匯入 3D 渲染器和遊戲引擎中,進行後續編輯工作。 產生出的物件可用來呈現出 3D 形狀的建築物、戶外空間或整個城市,供遊戲、機器人、建築和社群媒體等業界使用。 GET3D 可以按照用來訓練它的資料產生出不限數量的 3D 形狀。就像藝術家精緻細膩的雕塑黏土一樣,GET3D 模型將數字轉變成複雜的 3D 形狀。 像是使用 2D 汽車圖片的資料集來訓練 GET3D 模型,它會建立出 3D 形狀的轎車、卡車、賽車及小貨卡等車輛。使用 2D 動物圖片來進行訓練時,它就會產生諸如 3D 形狀的狐狸、犀牛、馬和熊等動物。而使用 2D 椅子圖片進行訓練時,它則會產生各種 3D 形狀的轉椅、餐椅和舒適的躺椅。 NVIDIA AI 研究部門副總裁 Sanja Fidler 表示:「GET3D 模型讓我們更離大眾化使用 AI 來創作 3D 內容更近了一步。它能夠即時產出帶有紋理的 3D 形狀,這對開發人員來說或許會顛覆過去的遊戲規則,協助他們快速在虛擬世界中加入各種有趣的物件。」Sanja Fidler 同時也是 NVIDIA 位於多倫多的 AI 研究實驗室的主管,這項工具就是由該實驗室所開發。 11 月 26 日至 12 月 4 日在紐奧良與線上舉行的神經訊息處理系統大會 (NeurIPS) 上,NVIDIA 將發表超過 20 篇論文並舉行多場研討會,GET3D 便是其中之一。 現實世界具豐富樣貌,街道兩旁是獨一無二的建築,各種車輛呼嘯而過,形形色色的人群穿梭其中。用人工方式模擬出一個能反映這些特色的 3D 虛擬世界須花費不少時間,而難以在此數位環境中添加各種細節。 AI 模型在建立 3D 虛擬世界時雖然比過去用人工的方法更快,但仍不夠精細。就算最新的逆向渲染法也只能根據從不同角度拍攝的 2D 影像來產生出 3D 物件,開發人員一次只能建立一個 3D 形狀。 GET3D 就不同了,在一個 NVIDIA GPU 上進行推論時,一秒鐘大概能產生 20 個形狀,其運作方式就像是用於產生 2D 影像的生成對抗網路,同時產生 3D 物件。使用規模愈大、內容越多樣化的資料集來訓練它,便能輸出更多元精細的內容。 NVIDIA 的研究人員使用從攝影機不同角度拍攝 3D 形狀的 2D 圖片合成資料來訓練 GET3D 模型,他們在 NVIDIA A100 Tensor 核心 GPU 上處理 100 萬張圖片,僅用了兩天時間就完成訓練工作。 GET3D 的名稱源自於其能生成清晰紋理 3D(Generate Explicit Textured 3D)網格,意味著用三角網格來建立各種形狀,就像是混凝紙漿模型上面覆蓋著紋理材料。這讓使用者可以輕鬆把物件匯入遊戲引擎、3D 建模器和電影渲染器中並進行編輯。 創作者把 GET3D 產出的形狀匯出至繪圖應用程式,便能在物體於場景中移動或轉動時加上逼真的照明效果。開發人員將 GET3D 搭配 NVIDIA Research 的另一項 AI 工具 StyleGAN-NADA,就可以用文字描述替影像加上特定風格,例如將渲染出的汽車變成燒毀的汽車或計程車,或是把正常的房子變成鬼屋。 研究人員指出日後的 GET3D 版本可使用攝影機姿勢預估技術,讓開發人員能使用真實環境的資料 (而非合成資料) 來訓練模型。研究人員還將改進 GET3D 模型以支援通用生成技術,開發人員便能一次使用各種 3D 形狀來訓練GET3D,而非一次用一種物件類別來進行訓練。
-
NVIDIA新聞快訊:重新定義創意:全新 GeForce RTX 40 系列 GPU 與 NVIDIA Studio 更新,加速推動人工智慧革命
在 NVIDIA GTC 大會主題演講中,NVIDIA 創辦人暨執行長宣布推出的全新 GeForce RTX 40 系列 GPU。此系列 GPU 是由超高效的 NVIDIA Ada Lovelace 架構提供支援,並展現 NVIDIA Studio 如何顯著加速所有內容創作的精彩內容。 3D 藝術家可以享受 DLSS 3 技術帶來的效益。DLSS 3 是以人工智慧驅動的第四代 RTX Tensor 核心和新的光流加速器來生成額外的畫格並顯著提高 FPS。在 NVIDIA Omniverse、Unity 和 Unreal Engine 5 等 3D 應用程式中執行各項作業時,除了可以讓操作的可視區域變得更流暢,同時也加快了移動的速度。 包括在 NVIDIA Studio 軟體套件中的 NVIDIA Omniverse,讓人們更深入的發揮創造力與進行協同合作。全新的 Omniverse 應用程式 RTX Remix 讓製作遊戲模組的人能夠擁有強大的新工具。 除了嘉惠 3D 內容創作者,我們還為 PC 遊戲圈裡專門製作遊戲模組的創作者推出幾近於魔法的 RTX 和 AI 工具,其中包括 Omniverse 的應用程式 RTX Remix。我們已經使用它製作支援 RTX 的《傳送門 RTX 版》,玩家們可以在 Valve 官網免費下載經典遊戲大作《傳送門 (Portal)》。 包括在 NVIDIA Omniverse 中的工具 RTX Remix 嘉惠遊戲圈裡專門製作遊戲模組的數百萬名創作者。藝術家們能夠利用光線追蹤和 DLSS 技術,輕鬆為經典遊戲製作更加極致的模組,也能在連接至 Omniverse 的應用程式中輕鬆協作。 全新第八代 NVIDIA 雙 AV1 編碼器是全新 GeForce RTX 40 系列 GPU 專用的硬體,為影片編輯和直播主播帶來顯著提升。影片編輯者可以減少一半的時間,更新後的張量核心將使 AI 工具的效能提高 70%。直播主可以輕鬆製作高質量的串流內容,並受益於合作夥伴的全新 NVIDIA Broadcast 效果。借助雙編碼器,遊戲玩家可以使用 GeForce Experience 捕捉高達 8K60 的素材。 九月號 NVIDIA Studio 驅動程式已可供下載。 #圖=http://www.pcdiy.com.tw/assets/images/origin/fac17948b62ecd7078ed308494645c58.png NVIDIA 還與多家合作夥伴合作,為 NVIDIA Studio 的創意應用帶來更多提升: OBS Studio 和 Discord 將在其下一次推出軟體版本中支援 AV1 熱門的 DaVinci Resolve、Adobe Premiere Pro 外掛程式 Voukoder,還有中國最受歡迎的影片剪輯應用程式「剪映」皆開始支援 AV1 及雙編碼器。 支援 NVIDIA Broadcast SDK 中的新功能將在 OBS、VTube Studio 等軟體中提供。 在 NVIDIA Omniverse 中製作的《NVIDIA Racer RTX》也在 GTC 中展示,這是一段以 GeForce RTX 40 系列 GPU 全新技術打造出令人讚歎的展示內容。造訪 NVIDIA Studio 部落格,了解一支由創意總監 Gabriele Leone 率領的 NVIDIA 全球團隊如何在 NVIDIA Omniverse 中運用GeForce RTX 40 系列 GPU 與 DLSS 3 打造出令人讚嘆的展示內容。
-
Supermicro 推出全新 NVIDIA H100 最佳化 GPU 系統,擴展 NVIDIA 認證伺服器產品組合;新款伺服器可將 AI 訓練效能提升多達 9 倍
Supermicro 提供超過 20 種組合式解決方案,可讓客戶從支援全新 NVIDIA H100 GPU 的 8U、5U、4U、2U 和 1U 系統中選擇,將 AI/ML、高效能運算 (HPC) 和推論工作負載最佳化 Super Micro Computer, Inc. (SMCI) 為企業級運算、GPU、儲存、網路解決方案和綠色運算技術等領域的全球領導者,再度擴充其領先業界的加速運算基礎架構,推出全新的完整產品系列,針對 NVIDIA H100 Tensor Core GPU 最佳化,包含超過 20 種產品選項。具有龐大 NVIDIA 認證系統產品組合的 Supermicro,現在支援全新 NVIDIA H100 PCI-E 及 NVIDIA H100 SXM GPU。 Supermicro 總裁暨執行長梁見後 (Charles Liang) 表示:「Supermicro 今天正式推出搭載全新 NVIDIA H100 的 GPU 伺服器。我們持續提供目前業界最完整的產品系列,並能以各種規格供應這些系統,包括 8U、5U、4U、2U 和 1U 選項,也能在我們的 SuperBlade®、工作站及通用型 GPU 系統中使用最新的 GPU。對於特定的 AI 應用,相較於前幾代的 GPU 加速器,客戶的 AI 推論效能提升可達 30 倍。我們 GPU 伺服器創新的氣流設計可降低風扇轉速、降低耗電量、噪音,同時降低總擁有成本。」 通過 NVIDIA H100 PCIe GPU 認證的 Supermicro 系統配備 NVIDIA AI Enterprise,這套端對端雲端原生 AI 及資料分析套裝軟體經過最佳化,可讓組織運用 AI。配備 NVIDIA AI Enterprise 的 Supermicro 系統結合 NVIDIA H100 GPU,可簡化 AI 就緒平台的建置,加速 AI 發展及部署,並提供效能、安全性及可擴展性,更快取得洞見,獲得商業價值。 NVIDIA 全球 OEM 客戶副總裁 Kevin Connors 表示:「NVIDIA H100 為我們的加速運算平台再度跨出了一大步。Supermicro 搭載 NVIDIA H100 的各種伺服器,可加速處理各種規模的工作負載,大幅提升效能並降低成本,幫助企業加快產品上市時間。」 Supermicro 也會針對 NVIDIA H100 GPU 將特定現有世代系統進行認證,目前可提供 Supermicro GPU 伺服器 SYS-420GP-TNR、SYS-420GP-TNR2 以及 SYS-740GP-TNRT Supermicro 工作站等。對於現有出貨的工作站提供 NVIDIA H100 GPU 認證,客戶可保留現有的 CPU 選擇,同時享有全新 GPU 帶來的效能提升。此外,配合搶先體驗計畫,內建 NVIDIA H100 GPU 的新一代 Supermicro 系統已開始出貨。 Supermicro 支援開放標準並遵守開放電源規範,提供客戶快速交付及安裝,更快取得生產力成果。此外,8U 8-GPU 等機型的 Supermicro 伺服器也支援標準和 OCP DC 機櫃配置的 AC 和 DC 電源。
-
AMD以創始會員身分加入新成立PyTorch基金會,促進各界廣泛採用人工智慧與機器學習功能
AMD將提供多元運算引擎功能與開放軟體等領域的專業技術,協助各種加速工作負載達到領先業界的效能 AMD(NASDAQ: AMD)宣布加入新成立PyTorch基金會,擔任創始會員。此基金會將成為非營利性Linux基金會的一部分,透過培植與支持PyTorch開源計畫所建構的生態系,促進各界採用人工智慧(AI)工具,PyTorch是Meta創建與支持的機器學習(ML)軟體框架。 AMD作為創始會員,將加入業界各方力量,優先促成PyTorch社群的成長。藉由持續挹注AMD ROCm™開放軟體平台、AMD Instinct™加速器、自行調適SoC與CPU等的創新力量,AMD將協助PyTorch基金會使最先進的工具、函式庫以及其他零組件實現大眾化,讓所有人都能取用這些機器學習的創新成果。 AMD資料中心與加速處理事業群全球副總裁Brad McCredie表示,開放軟體對於推動高效能運算(HPC)、AI以及ML的研究至關重要,AMD準備好為PyTorch基金會貢獻在開放軟體平台與創新技術的經驗。AMD Instinct加速器與ROCm軟體現已在全球各地運行重要的HPC與ML系統,從研究實驗室的exascale等級超級電腦一直到大型雲端主機的部署,充分展現HPC與AI/ML的融合趨勢。我們將和基金會其他會員合作,聯手推動科學與研究的加速發展,為世界帶來重大影響。 Meta基礎架構部門副總裁Santosh Janardhan表示,我們非常高興AMD加入PyTorch基金會,為我們的會員挹注HPC、AI、以及ML等領域的專業技術。AMD過去一直支持PyTorch,包括著手整合ROCm開放軟體平台,以及和開源社群與其他基金會成員全面合作,致力提升ML與AI工作負載的效能。AMD提供的協作支援,讓我們的參與層面拓展至各個產業計畫,發揮全球性影響力。 AMD憑藉廣泛的產品與軟體陣容具有獨特的定位,協助客戶與合作夥伴開發與部署具有多重形態AI的各種應用,從雲端與企業一路涵蓋到邊緣與終端。藉由種類眾多的硬體,包括AMD Instinct與Alveo加速器、自行調適SoC與CPU,AMD能支援種類眾多的AI與ML模式,從小型終端一直到大型橫向擴充訓練與推導等工作負載。 此外,AMD和AI開放社群全面合作,致力推動與擴充機器學習與深度學習功能以及各種最佳化。Vitis AI為AMD自行調適SoC與Alveo資料中心加速器提供一個全方位AI推導開發平台。Vitis AI可透過外掛方式整合到各種常用的軟體開發工具,藉由眾多經過最佳化的開源函式庫,協助軟體開發者將機器學習加速機制融入到程式碼。 ROCm™開放軟體平台因應AI/ML與HPC社群的各種需求持續演進。透過最新釋出的ROCm 5.0,開發者不僅能透過AMD Infinity Hub取得各種全套輸出式AI框架容器、先進工具、以及加速安裝等資源,更能享受更快的核心啟動速度與程式效能。此外,配合最新版PyTorch 1.12,對應的AMD ROCm™支援也從公測版升級至穩定版。如欲瞭解詳情,敬請參閱此連結。
-
NVIDIA Hopper 在 MLPerf 人工智慧推論基準測試初登場即創新世界紀錄
在人工智慧推論的產業標準測試中,NVIDIA H100 GPU 創下世界紀錄,A100 GPU 展現主流效能領先優勢,Jetson AGX Orin 則在邊緣運算領先群雄 NVIDIA H100 Tensor 核心 GPU 在 MLPerf 人工智慧 (AI) 基準測試初登場,便在各項推論作業負載創下世界紀錄,其效能較前一代 GPU 高出達 4.5 倍。 此測試結果顯示,對於先進 AI 模型有最高效能需求的用戶來說,Hopper 就是首選產品。 此外,NVIDIA A100 Tensor 核心 GPU 及用於開發 AI 機器人的 NVIDIA Jetson AGX Orin 模組在影像和語音辨識、自然語言處理和推薦系統等所有 MLPerf 測試項目中,整體推論表現持續領先群雄。 亦稱為 Hopper 的 H100,在本輪測試的六個神經網路中提高單一加速器的效能標準。它在獨立伺服器和離線的情況下,在傳輸量和速度皆展現領先優勢。 NVIDIA Hopper 架構的效能較 NVIDIA Ampere 架構的 GPU 高出 4.5 倍,在 MLPerf 測試結果中持續保持全面領先地位。 Hopper 在熱門的 BERT 自然語言處理模型上的出色表現,部分要歸功於它的 Transformer 引擎。BERT 自然語言處理模型是 MLPerf AI 模型中規模最大、對效能要求最高的模型之一。 這些推論基準測試是 H100 GPU 的首次公開展示,此產品將在今年底上市。H100 GPU 將參與 MLPerf 日後的訓練測試。 各大雲端服務供應商與系統製造商已採用的 NVIDIA A100 GPU,在最新的 AI 推論測試中依舊位居主流效能的領導地位。 在資料中心與邊緣運算的類別和情境中,A100 GPU 的成績比其他參與者提交的測試結果都更為突出。A100 在六月的 MLPerf 訓練基準測試中一馬當先,展現處理整個 AI 工作流程的出色能力。 A100 GPU 自 2020 年 7 月首次參與 MLPerf 基準測試以來,隨著 NVIDIA AI 軟體持續改善,效能已經提高 6 倍。 NVIDIA AI 是在資料中心與邊緣運算中,唯一能夠運行所有 MLPerf 推論作業負載和情境的平台。 NVIDIA GPU 能夠在各大 AI 模型上提供頂尖效能,讓用戶成為真正的贏家。他們在真實世界中的應用通常會用到多種神經網路。 例如,AI 應用程式可能要理解使用者的口語請求、對影像進行分類、提出建議,然後用聽起來像人的聲音做出回應。每一步都要用到不同類型的 AI 模型。 MLPerf 基準測試涵蓋這些 AI 模型及其它熱門的 AI 作業負載和情境,像是電腦視覺、自然語言處理、推薦系統、語音辨識等。這些測試確保用戶能獲得可靠且靈活的效能來進行部署。 MLPerf 基準測試具透明度且客觀,也因此用戶仰賴這些測試結果以做出明智的採購決策。亞馬遜 (Amazon)、Arm、百度 (Baidu)、Google、哈佛大學 (Harvard)、英特爾 (Intel)、Meta、微軟 (Microsoft)、史丹佛大學 (Stanford) 與多倫多大學 (University of Toronto) 等眾多業者與學術單位皆對 MLPerf 表達支持。 NVIDIA Orin 運行 MLPerf 邊緣運算類別的每一項基準測試,多項表現更勝於其他低功耗系統單晶片。相較於四月時首次參與 MLPerf 測試,這次的能源效率提高多達 50%。 在前一回合的測試中,Orin 的運行速度比上一代 Jetson AGX Xavier 模組快 5 倍,而能源效率平均高出 2 倍。 Orin 將 NVIDIA Ampere 架構 GPU 與強大的 Arm CPU 核心叢集整合到單一晶片內。已可在用於開發機器人和自主系統的 NVIDIA Jetson AGX Orin 開發套件及生產模組中取得,並支援完整的 NVIDIA AI 軟體堆疊,包括用於自動駕駛車 (NVIDIA Hyperion)、醫療設備 (Clara Holoscan) 與機器人 (Isaac) 的多個平台。
-
AI賦能!華碩2022台北國際自動化工業大展秀工業4.0智慧工廠新解方!
2022台北國際自動化工業大展即日起至8月27日於南港展覽館盛大登場,華碩智慧物聯網今年以「AI賦能,加速實現智慧工廠」為題,首次展出AI示範工廠的中央監控管理平台、主機板包裝AI瑕疵檢測設備,以及AR眼鏡智慧製造、廠辦人臉辨識門禁系統與EHS智慧工業安全防護平台等解決方案,盼藉此加速產業升級轉型,創造更多核心競爭優勢,接軌國際。 其中,中央監控管理平台可全方位整合工廠內部設備控制、現場管理、企業營運,還有生產稼動率、廠務系統、機聯網、勞工安全防護監控等資訊,並將其數據化及視覺化,提升工廠經營效率。主機板包裝AI瑕疵檢測設備,則可針對主機板檢測瑕疵示警,預防不良品進入包裝,流入市面,且僅需極少數良品就能完成AI訓練,同時保留歷史檢測資料,以用於生產履歷追蹤,或根據客製化需求,串接生產系統。 此外,員工還可透過AR眼鏡展示虛實整合的智慧工廠,即時瞭解、攜行產程資訊,從事遠端多元協作、設備巡檢;而為提升安控品質,華碩也推出廠辦人臉辨識門禁系統,除兼具門禁、測溫、人臉辨識等多功能,亦可快速追蹤訪客足跡,避免其入侵限制區域,嚴密守護商業機密及客戶個資等重要資產。 在勞工安全防護方面,更與台灣普利司通合作,導入EHS智慧工業安全防護平台,將作業風險以AI數據化,以利相關人員分析、應對及教育,加速整體流程改善週期;當出現高風險行為時,還能立即提醒員工,監督導正,確保職場工作平安。 本次台北國際自動化工業大展,華碩另同步於現場展出升級版AISVision機器視覺瑕疵檢測方案,以及專為智慧工廠與Edge AI應用量身打造的最佳硬體選擇,包括:配備NVIDIA® 高運算力Edge AI平台PE-1000N與加速卡、邊緣運算電腦,以及搭載最新第12代Intel®處理器的工業電腦主機板600系列與模組;歡迎有興趣的業者或廠商把握機會,一同前來參觀交流。 2022台北國際自動化工業大展_華碩攤位M436 展覽時間:2022/8/24(三)~8/26(五) 09:30 - 17:00; 2022/8/27(六) 09:30 - 16:00 展覽地點:南港展覽館一館4樓 (台北市南港區經貿二路1號)
-
技嘉在臺灣雲端大會以一站式高效能運算解決方案助企業「AI上雲」
台北時間7月22日 – 科技創新、研發技術享譽國際的GIGABYTE技嘉科技將在7月26日 於台北國際會議中心的【2022臺灣雲端大會】中,以伺服器展示數位新常態中企業追求靈活性、彈性和節省成本所需的AI應用。在大會現場除了攤位上的產品及應用解說,當天更由技嘉的專家在現場的講堂中為與會來賓闡述議程 - 「啟動企業邁向人工智慧應用的一站式解決方案」。用搭載NVIDIA AI Enterprise的伺服器技術及技嘉產品於全球各領域的實務案例,介紹當今企業於數位轉型中特別關切的AI趨勢。 在現代以數據驅動商業決策的趨勢下,導入AI成為當今企業實現提高組織效率、降低成本、提升客戶忠誠度,以及增加收入等需求的關鍵技術,如何借力雲端服務的便捷,快速有效的導入AI,也是一個企業在追求數位轉型上迫切的課題。技嘉在軟硬體整合的技術上,推出為雲而生的NVIDIA 認證系統™AI運算伺服器 - G482/G492與G262高效能運算伺服器,以支援NVIDIA 加速卡能廣泛應用於GPU加速運算特性,提供各種加速工作負載的最佳基礎設備選項,助企業善用雲端原生資源,顯著增強AI應用。系統搭載NVIDIA AI Enterprise軟體套件強強聯手,可於公有雲及 VMware 與 Red Hat 的常見虛擬化與容器編排平台上執行,同時也獲得平台驗證與最佳化調適,以一站式的解決方案,助客戶降低企業AI應用與數位轉型的錯誤成本,可迅速部署與流暢運作AI,實現各式各樣的營運效益,更有效的達成企業的目標。 根據Hive Ventures《2022台灣企業AI趨勢報告》指出,57.62%的受訪企業表示對導入AI於商業流程有急迫性的需求。然而,企業如何有效地迅速部署與流暢運作AI,實現各式各樣的業務效益,將成為一大挑戰。因此技嘉也以「AI上雲」的主軸,在雲端大會上闡述議程 - 「啟動企業邁向人工智慧應用的一站式解決方案」。從AI的應用面概論,簡述技嘉完整的伺服器產品線以高效能、易管理、更安全、可擴充等特性泛用於各種應用場域。同場也介紹技嘉過往的成功案例 - 從協助國立成功大學在2020 APAC HPC AI競賽斬獲冠軍、科學研究機構Lowell Observatory洛厄爾天文台分析太空中數以億計的天文資料來尋找第二個地球、以及與以色列的自駕車公司一起打造自動駕駛的中樞大腦所運用的演算法,讓現場聆聽的產業IT人員在第一時間理解技嘉的技術所在,並可以直覺的反應到自己的工作項目。 2022臺灣雲端大會將於7月26日在台北國際會議中心展開,技嘉的議程則將於上午11:20在會議室101B開始,帶來精彩內容讓您掌握AI應用的成功關鍵,也歡迎大家在#5技嘉攤位分享心得感想,交流切磋。對AI、雲端、未來科技感興趣的人皆可在技嘉活動專頁上了解「AI上雲」的相關資訊,也可事前免費報名獲取參加大會的門票。技嘉亦期待透過這單日的活動充分展現其軟硬整合的AI實力,提供現場與會嘉賓一個平台契機,落實企業導入AI並數位轉型的目標。
最多人點閱
- 「Intel Core Ultra 200S」CPU強勢來襲,史上最強「Intel第15代 研發代號 Arrow Lake」桌上型電腦處理器「台積電 TSMC 神隊友代工」LGA1851腳位「Core Ultra 5 245K/KF、Core Ultra 7 265K/KF、Core Ultra 9 285K處理器 與 Z890主機板」聯袂登場!
- AMD Ryzen 7 8700G實測開箱,Radeon 780M Graphics內顯與Ryzen AI火力加持「次世代1080p 遊戲 處理器」強勢來襲!
- Supermicro SUPERO X13SWA-TF實測開箱,史上最強「8+3+1+1共13相供電」Intel W790「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」 HEDT高階桌機工作站主機板!
- GIGABYTE Server MW83-RP0實測開箱,史上最強「8+3+1+1共13相供電」實戰Intel Xeon w9-3495x為終極效能而生「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」HEDT工作站主機板!
- Intel Xeon W-2400與W-3400處理器完全解密!研發代號Sapphire Rapids-WS與W790晶片組主機板 HEDT高階桌機工作站 LGA4677腳位 強大運算核心 正式登場,史上最強大24核心48執行緒Xeon w7-2495X 56核心112執行緒Xeon w9-3495X強勢來襲!
- AMD Ryzen Threadripper 7000 & Threadripper 7000 PRO處理器完全解密!史上最強HEDT TRX50高階桌機、Workstation WRX90工作站平台 提供最高64核心128執行緒7980X 96核心192執行緒7995WX 具備DDR5 R-DIMM、PCIe 5.0 x16與PCIe Gen 5 SSD超強戰鬥力!
- ASUS Pro WS W790-ACE實測開箱,史上最強「12+1+1共14相供電」Intel Xeon w9-3495X處理器最佳拍檔「AI加速 三組PCIe 5.0 x16雙插槽顯示卡擴充」HEDT工作站主機板!
- Intel Xeon w9-3495X實測開箱,史上最強56核心112執行緒 採用LGA4677腳位 對應W790主機板 次世代 HEDT高階桌機 工作站 處理器重裝上陣!
- 微星MPG B650 EDGE WIFI實測開箱,AMD B650玩家級主機板優質精品 feat. AMD Ryzen 5 8600G/ 7 8700G
- ASUS Pro WS WRX90E-SAGE SE實測開箱,史上最強「32+3+3+3共41相供電」AMD Ryzen Threadripper PRO 7995WX「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」為終極運算效能而生HEDT高階桌機工作站主機板!
- 威剛 ADATA DDR5-4800 256GB R-DIMM 套裝(32GB x8)實測開箱,Intel W790伺服器級工作站主機板「八記憶體通道」PC DIY火力全開評測!
- AMD Ryzen Threadripper 7980X實測開箱,史上最強64核心128執行緒 採用sTR5腳位 對應TRX50、WRX90主機板 次世代 HEDT高階桌機處理器強勢登場!