PCDIY!業界新聞
-
領航兆級參數運算!華碩全方位AI解決方案震撼NVIDIA GTC
華碩今日於NVIDIA GTC 2026發表全液冷AI基礎架構,為新世代NVIDIA Vera Rubin平台帶來全方位端對端解決方案,包括:機架級AI工廠、桌上型AI超級運算、邊緣AI與企業AI,助攻企業、雲端供應商打造高效節能的大規模AI叢集,降低PUE與TCO,成就無與倫比的數位生產力。 其中,採用NVIDIA Vera Rubin的全新ASUS AI POD,是一款專為海量AI工作負載設計的液冷裝置,可提供多元冷卻模式、客製化散熱方案和備援功能,滿足各式所需;同時,亦結合專家諮詢、儲存配置、基礎架構部署等一站式服務,加速企業升級,共創無限商機。 而同為本次展出一大亮點的XA VR721-E3,為100%液冷機櫃級系統,其熱設計功耗(TDP)最高可達227kW (MaxP)或187kW (MaxQ),每瓦效能提升10倍,相當適合兆級參數模型運算,成為大規模AI工廠強悍動能來源;此外,華碩亦攜手Schneider Electric、Vertiv等國際大廠,構築全棧式電力與冷卻基礎設施,無論是標準部署、先進液冷環境,皆能實現零降速(zero-throttle)性能與高度冗餘。 針對數據中心的嚴苛需求,華碩另同步推出支援NVIDIA HGX Rubin NVL8系統的伺服器系列,配備八顆NVIDIA Rubin GPU,並透過第六代NVIDIA NVLink連接,且每顆GPU整合高達800G頻寬,能協助企業以較低成本轉型至液冷架構,包括:配備創新混合冷卻系統的XA NR1I-E12L與全液冷的XA NR1I-E12LR;其中,XA NR1I-E12L不僅將液冷(D2C)技術精準應用於NVIDIA GPU基板,更搭配氣冷系統為雙Intel Xeon 6 處理器提供絕佳散熱。 堅強的產品陣容還有搭載NVIDIA HGX B300系統的XA NB3I-E12、配備NVIDIA MGX架構與NVIDIA ConnectX-8 SuperNIC的ESC8000A-E13X,以及內建NVIDIA RTX PRO 4500 / 6000 Blackwell伺服器版GPU的ESC8000A-E13P,可輕鬆應對巨量資料處理分析、AI / 影像及視覺運算。 實際應用方面,ASUS AI工廠已累積多個成功案例,像是ASUS ESC8000系列,支援NVIDIA Omniverse所建構的生產線數位分身(Digital Twin),搭配NVIDIA可客製化多鏡頭追蹤工作流,以進行遠端模擬,降低部署風險;且為推動AI開發與普及,華碩亦與NVIDIA認證儲存供應商,如:IBM、DDN、Weka、VAST Data密切合作,建立具備擴展性的區塊儲存(VS320D-RS12)、物件儲存(OJ340A-RS60)及軟體定義系統,確保從邊緣到雲端都擁有高度靈活性。 作為AI 領域專家,華碩創建完整的實體AI生態系統,提供從初期開發到最終部署所需的關鍵算力,而這場科技革命始於開發人員的桌面,也就是搭載NVIDIA Grace Blackwell Ultra平台的桌上型超級電腦—ASUS ExpertCenter Pro ET900N G3,其內建NVIDIA NVLink-C2C互連技術與748GB一致性記憶體(Coherent Unified Memory),足以承擔訓練海量模型的重任。 而極致小巧的ASUS Ascent GX10,則配備NVIDIA Grace Blackwell Superchip,以提供Petaflop等級震撼效能(每秒千萬億次浮點運算),是快速模型迭代,以及具擴充性邊緣配置的理想首選!同時,此強大的開發能力亦可無縫轉換至內建NVIDIA Jetson Tho的推論引擎—ASUS PE3000N,其內蘊高達2,070 TFLOPS的驚人運算,再加上NVIDIA Cosmos等開放模型與Metropolis 的視覺AI庫,即使執行感測器融合或自動導航都能從從容容、游刃有餘! 安全可靠的代理AI 此外,Ascent GX10及ExpertCenter Pro ET900N G3亦相容最新NVIDIA NemoClaw平台,此開源架構可簡化OpenClaw AI助理部署流程,並安裝NVIDIA OpenShell,以支援NVIDIA Nemotron等開源模型,開發人員可在本地建置全天候運作的自主代理程式,透過隔離的沙箱環境、權限控管與私有裝置端推論,確保AI應用更安全且值得信賴。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Red Hat 攜手 NVIDIA 推出 Red Hat AI Factory,加速實現大規模生產級 AI 全新聯手打造的產品結合 Red Hat AI Enterprise 與 NVIDIA 加速運算軟體,為建置、部署及擴展 AI 應用程式提供統一基礎架構
世界領先開放原始碼軟體解決方案供應商 Red Hat 近日宣布推出 Red Hat AI Factory with NVIDIA,這是一款與 NVIDIA 共同打造的軟體平台,結合 Red Hat AI Enterprise 與 NVIDIA AI Enterprise,為大規模部署 AI 的企業提供端到端的最佳化 AI 解決方案。Red Hat AI Factory with NVIDIA 是雙方深度合作的最新里程碑,旨在將最新的 AI 創新技術加速交付給企業客戶,同時為 NVIDIA 硬體架構提供 Day 0 支援。 隨著代理式 AI(Agentic AI)應用程式的蓬勃發展,預計至 2029 年企業 AI 支出將超過 1 兆美元 。企業正積極將其策略轉向為高密度、代理式工作負載,並致力於解決隨之產生的 AI 推論與基礎架構需求。為協助企業在 AI 時代應對上述挑戰,Red Hat AI Factory with NVIDIA 可賦能 IT 營運團隊,使其得以簡化涵蓋傳統基礎架構與持續演進的 AI 堆疊需求的管理流程。 Red Hat AI Factory with NVIDIA 讓企業加速邁向生產級 AI,並為 AI 工廠(AI factories)提供軟體平台。該平台運行於加速運算基礎架構上,為模型及驅動推論堆疊的 NVIDIA GPU 提供更高的效能。此平台支援 Cisco、Dell Technologies、Lenovo 與 Supermicro 等頂尖系統製造商的 AI 工廠基礎架構,賦能 IT 管理員與營運團隊以管理任何企業工作負載般同規格的營運嚴謹度與可預測性,擴展並維護 AI 部署。 Red Hat 技術長暨全球工程資深副總裁 Chris Wright 表示:「從 AI 實驗階段轉向工業級規模、涵蓋全企業範疇的生產環境,需要徹底改變我們管理 AI 運算堆疊的方式。透過 Red Hat AI Factory with NVIDIA,我們正加速 AI 的部署並快速邁向生產階段。憑藉我們經驗證的混合雲產品所驅動、穩定且高效能的基礎,得以賦能客戶掌握其 AI 策略,並以應用於核心 IT 平台同等的嚴謹度進行擴展。」 NVIDIA 企業 AI 平台副總裁 Justin Boitano 指出:「企業正在建立 AI 工廠,以便在推論過程中大規模地將資料轉化為智慧,而這需要橫跨混合雲的生產級基礎架構與軟體。Red Hat AI Factory with NVIDIA 提供軟體基礎,協助企業應對快速的基礎架構創新節奏,同時可靠地建置與部署新一代的代理式 AI 應用程式。」 這個雙方共同打造的軟體平台整合 Red Hat 與 NVIDIA 在開源協作、工程設計及支援方面的專業知識,提供值得信賴的企業級解決方案。Red Hat AI Factory with NVIDIA 為跨環境(無論是地端、雲端或邊緣)的 AI 部署提供具高度擴展性的基礎。其核心功能具備高效能 AI 推論、模型調整、客製化,以及代理部署與管理,並以安全性為核心,使企業得以維持從資料中心至公有雲的架構控制權,並實現以下優勢: ● 加速價值實現時間:透過簡化的工作流程與即時存取預先配置的模型,加速邁向生產級 AI。這些模型包含獲得擔保的 IBM Granite 系列、NVIDIA Nemotron 與 NVIDIA Cosmos 開源模型,並以 NVIDIA NIM microservices 形式交付。此外,企業可使用 NVIDIA NeMo 進一步將模型與企業資料對齊,減少調整時間與成本。 ● 最佳化效能與成本:藉由統一的高效能服務堆疊,最大化基礎架構使用率並增強推論效能。Red Hat AI Factory with NVIDIA 提供內建的可觀測性功能,並運用由 vLLM、NVIDIA TensorRT-LLM 與 NVIDIA Dynamo 驅動的 Red Hat AI 推論能力,以滿足嚴格的 AI 服務水準目標(SLO)。這有助於企業透過最佳化模型與 NVIDIA GPU 之間的連接,降低 AI 的總體擁有成本(TCO)。 ● 智慧 GPU 調度:透過智慧調度與池化基礎架構(pooled infrastructure),實現依需求存取 GPU 資源,並具備自動檢查點機制(checkpointing)以保護長時間執行的作業,並在動態環境中維持更可預測的運算成本。 ● 強化企業態勢:運用 Red Hat Enterprise Linux 彈性且穩定的基礎,企業可從初始階段即受惠於內建的進階安全性與合規功能,有助於降低風險、節省時間並減少停機時間,為需要隔離與持續驗證的關鍵任務 AI 工作負載提供安全性強化的基礎。NVIDIA DOCA 微服務奠基於此基礎打造零信任架構,並在整個基礎架構中提供 AI 執行期間的安全性。 服務提供狀態 Red Hat AI Factory with NVIDIA 現已推出。 Cisco 運算資深副總裁暨總經理 Jeremy Foster 分享:「Cisco 專注於協助客戶將 AI 從實驗階段安全且大規模地推向生產並橫跨分散式環境。透過支援 Red Hat AI Factory with NVIDIA,Cisco 賦能企業無論是資料中心或邊緣環境,皆可在一致的企業級基礎架構上部署與運行 AI。我們攜手合作為客戶提供更簡單、更可靠的方式執行 AI 關鍵任務工作負載,並具備對核心基礎架構所期望的效能、安全性與營運控制。」 Dell Technologies 基礎架構解決方案事業群資深副總裁暨技術長 Ihab Tarazi 表示:「企業正迅速將其 AI 投資轉化為實際營運,而這需要能在跨混合環境中可靠運行、強大且整合的基礎架構。透過與 Red Hat 和 NVIDIA 的合作,我們將為客戶帶來更高水準的整合,進一步加速企業 AI 的成果。」 Lenovo 基礎架構解決方案事業群資深副總裁 Vlad Rozanovich 表示:「企業 AI 的下一個世代在於即時行動與實質的商業報酬,而工業級強度的混合基礎為關鍵。我們能夠提供可擴展的企業級平台,結合 Lenovo 的推論最佳化基礎架構與 Red Hat AI Factory with NVIDIA,為客戶提供即時優勢。此具韌性的代理式 AI 基礎,可在其營運的任一地點進行部署與管理。」 Supermicro EMEA 總裁暨董事總經理、技術與 AI 資深副總裁 Vik Malyala 表示:「Supermicro 擁有廣泛的 Red Hat 認證系統產品組合,並致力於為 AI 工廠提供最先進的加速運算基礎架構。我們針對 Red Hat AI Factory with NVIDIA 的驗證解決方案,有助於確保客戶能夠將我們的高效能專用系統與強大的企業級軟體平台相結合,簡化關鍵 AI 企業工作負載的部署與擴展,協助企業在混合雲中實現更快的價值實現時間,以及可預測、高效率的營運。」 • 探索 Red Hat AI Factory with NVIDIA • 了解 Red Hat 與 NVIDIA 的合作如何創造價值 • 透過 MaaS Code Assistant 的快速入門,親身體驗 Red Hat AI Factory with NVIDIA • 探索 Red Hat AI Enterprise 的優勢 • 進一步了解 Red Hat 與 NVIDIA 的合作 • 深入了解 Red Hat • Red Hat Taiwan 官網 • 加入 Red Hat Taiwan Facebook 專頁 • 關注 Red Hat 新聞 • 閱讀 Red Hat 部落格 • 在 Red Hat Twitter / X 追蹤 Red Hat • 在 YouTube 觀看 Red Hat 影片 • 在 LinkedIn 追蹤 Red Hat →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Dell AI Factory with NVIDIA 加速企業 AI ROI 實現 升級 AI 資料平台、端到端基礎架構與服務 突破 AI 部署瓶頸
• 超過 4,000 家企業採用 Dell AI Factory,投資報酬率(ROI)最高可達 2.6 倍,並提供從實驗到正式部署的明確路徑 • 廣泛的產品組合更新可簡化企業 AI 部署,將分散的資料轉化為 AI 動能,並縮短從試點到正式導入的時間 戴爾科技集團(NYSE: DELL)在 Dell AI Factory with NVIDIA 推出滿兩週年之際,宣布其 AI 資料平台(Dell AI Data Platform)、端到端 AI 基礎架構,以及 AI 解決方案與服務產品組合的多項最新進展,協助企業將 AI 從試點階段擴展至大規模正式部署。隨著超過 4,000 家客戶導入 Dell AI Factory,而早期採用者在第一年內即實現最高達 2.6 倍的投資報酬率(ROI) ,戴爾科技證明端到端的方法能夠帶來可量化的商業成果。 企業 AI 發展正經歷根本性的轉變。隨著 AI 程式碼助理與代理式工作流程大幅降低開發客製化應用的成本與時間,越來越多 CIO 選擇在企業內部與本地部署環境中建立 AI 能力,進而帶動對自有基礎架構的需求。 然而,不明確的投資報酬率是阻礙 AI 大規模部署的主要挑戰。過去兩年 Dell AI Factory with NVIDIA 的應用經驗顯示,實現可量化回報需要三個關鍵要素:能夠讓企業資料具備 AI 就緒能力的資料平台、可將最新技術從試點順利擴展至正式部署的基礎架構,以及透過簡化部署與加速 ROI 來縮短價值實現時間的解決方案與服務。戴爾科技是以 NVIDIA 技術為核心,同時提供上述三項能力的領先供應商,為企業建立從 AI 投資到實際商業成果的可驗證路徑。 作為領先的 AI 基礎架構供應商 ,戴爾科技提供業界完整的 AI 基礎架構產品組合 ,整合資料、基礎架構、解決方案與服務等多層面能力。 • 將企業知識轉化為 AI 動能的資料平台 AI 正迅速從輔助型工具演進為自主、具代理能力的系統,但其成效仍受限於可存取、可信任並可加以運用的資料。Dell AI Data Platform with NVIDIA 透過統一的 AI 平台來應對此挑戰,整合戴爾科技的高效能儲存、模組化資料引擎,以及 NVIDIA 的加速運算、網路、軟體與 CUDA-X 函式庫。作為 Dell AI Factory with NVIDIA 的資料基礎平台,它可支援從檢索增強生成(RAG)與多模態搜尋,到代理式工作流程與大規模資料處理等多種工作負載。最新進展將使企業能更快速、輕鬆地將資料轉化為實際 AI 成果。 • 支援從桌面到資料中心 AI 工作流程的基礎架構 戴爾科技的新一代基礎架構可在 AI 發展的各個階段提供支援,從快速原型開發到大規模部署,全面支援 AI 工作流程。 ● Dell Pro Max with GB10 與 Dell Pro Max with GB300 – 專為 AI 打造的桌面型 AI 超級電腦,可用於建構與執行 AI,提供代理式 AI 工作流程與自主代理開發所需的運算能力、記憶體容量與全天候可靠性。透過 NVIDIA NemoClaw 與 NVIDIA OpenShell,企業可在桌面端利用本地 AI 建立安全、可自主運作且長時間執行的代理,同時確保資料安全與隱私。戴爾科技也是首家推出搭載 NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip 桌面系統的 OEM 廠商,可提供最高 20 petaFLOPS 的 FP4 運算效能與 748GB 一致性記憶體(coherent memory),支援在兆參數規模下開發與部署自主 AI 代理。 ● Dell Pro Precision 工作站 – 提供 AI 開發者與資料科學家所需的運算效能與擴充能力。塔式(Tower)機型最高可搭載五張 NVIDIA RTX PRO Blackwell Desktop Generation GPU,而配備 NVIDIA RTX PRO Blackwell Generation Laptop GPU 的行動工作站,則在更纖薄流線的設計中提供更強大的效能。 ● PowerEdge XE9812 為戴爾科技旗艦級液冷伺服器,採用 NVIDIA Vera Rubin NVL72 平台,可支援大規模即時訓練與推論。 ● PowerEdge XE9880L、XE9882L 與 XE9885L 為液冷伺服器,搭載 NVIDIA HGX™ Rubin NVL8,專為在既有資料中心空間與電力限制下加速經驗證的 AI 效能而設計。 用於資料中心的企業級工作負載: ● PowerEdge R770、R7715 與 R7725 搭載全新 NVIDIA RTX PRO™ 4500 Blackwell Server Edition GPU,使團隊能在通用型基礎架構中加入 AI 加速器。 ● PowerEdge R9822 與 M9822 首度導入 NVIDIA Vera CPU,為企業在應對高需求企業級工作負載時提供更多選擇。 用於高效能網路與新興技術: ● Dell PowerSwitch SN6000 系列採用 NVIDIA Spectrum-6 架構的乙太網路交換器,提供 1.6Tbs 傳輸能力,並支援液冷設計與共同封裝光學(co-packaged optics)選項,專為基於 Vera Rubin 架構的 Dell 平台打造。 ● PowerSwitch SN5610 與 SN2201 現提供更多網路作業系統選擇,包括 Cumulus Linux 與戴爾科技的 Enterprise SONiC Distribution。 ● NVIDIA Quantum-X800 InfiniBand Q3300-LD 為液冷交換器,可為 AI 與雲原生工作負載提供高頻寬網路功能。 ● 戴爾整合式機架可擴充系統(IRSS) 擴展納入 Dell PowerSwitch 與 NVIDIA 液冷交換設備,為 AI 基礎架構提供整合式機櫃層級的電力與散熱管理能力。 NVIDIA NVQLink 與 CUDA-Q 支援 – 戴爾科技是首家 OEM 在搭載 NVIDIA AI 基礎架構 的 PowerEdge 伺服器上整合 NVIDIA NVQLink with CUDA-Q 的供應商,使企業與研究機構能探索新興的量子與古典複合式運算(quantum-classical computing)應用情境。 這些能力透過將量子處理器(Quantum Processing Units, QPU) 的運算能力與 NVIDIA 加速運算結合,用於量子系統控制與錯誤校正,並建立於可信賴的 Dell PowerEdge 伺服器平台之上,進而加速在先進藥物研發與材料科學模擬等領域的突破性研究。 更新的 Dell AI Solutions 結合全新模組化架構、Dell Automation Platform 藍圖以及 NVIDIA AI Enterprise 軟體,在簡化營運與降低部署複雜度的同時,協助企業實現實際業務成果。全新服務亦可補足企業技術能力落差,支援 AI 從實驗階段擴展至正式生產環境。 ● Knowledge Assistant 為設計、部署與管理智慧助理提供基礎架構,並與 Aible、 Cohere’s North 與 NVIDIA等產業領導者合作。 ● ClearML 藍圖透過安全且高效率的 GPU 叢集管理與工作負載排程機制,提升企業代理式 AI(Agentic AI)環境的運作效率。 ● 代理式 AI 平台與 Cohere’s North、DataRobot 及 NVIDIA 合作,讓企業能透過協調、治理與可觀測性機制,安全地部署並管理 AI 代理。 ● Dell Accelerator Services for Agentic AI 提供整合式能力,支援企業在任何階段推動 AI 發展,從實驗與驗證到企業級整合,協助縮小技能缺口並降低技術複雜度。 簡化 AI 基礎架構部署: ● Dell AI Factory with NVIDIA 模組化架構透過降低部署複雜度、因應快速演進的技術變化並支援持續導入,為企業 AI 提供清晰且簡化的發展路徑。整合式自動化機制使企業能以適當規模開始部署,並隨需求變化靈活擴展。 戴爾科技集團董事長暨執行長 Michael Dell 表示:「兩年前,企業關心的是如何取得 AI 技術;而今天,他們關心的是如何讓資料具備 AI 就緒能力、如何大規模落實 AI 應用,以及如何證明 ROI。Dell AI Factory with NVIDIA 正是為了回應這三個問題而生。我們從一開始就以值得信賴的顧問角色參與其中,協助客戶規劃並推動完整的 AI 旅程——從將原始資料轉化為 AI 動能、完成部署,到最終實現可量化的商業成果。」 NVIDIA 創辦人暨執行長黃仁勳表示:「AI 基礎架構正在各地快速建設——每一間企業都將以 AI 為動力,每一個國家也都將打造自己的 AI 基礎架構——而這需要整合式資料平台、可擴展的基礎架構以及部署專業能力。戴爾科技正是以 NVIDIA 技術為核心,可同時提供這三項能力的供應商。Dell AI Factory with NVIDIA 為 AI 各個階段提供經驗證的基礎架構藍圖,為下一個產業時代提供發展動能。」 更多資源 ● 進一步了解 Dell AI Data Platform with NVIDIA。 ● 在 X 與 LinkedIn 上關注戴爾科技 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Nutanix 推出 Nutanix Agentic AI:全堆疊軟體解決方案,釋放企業
• 專為代理式 AI 應用程式提供高效能、合規性與安全保障,並協助企業降低總 Token 成本 • 賦能企業基礎架構與平台團隊,使其能更輕鬆地建置、擴展與營運 AI 工廠 • 為開發團隊提供一套與 NVIDIA AI Enterprise 整合的豐富 AI PaaS 服務,以加速代理式 AI 工作負載的部署 混合多雲端運算領導者 NutanixⓇ(納斯達克交易所代號:NTNX)今(17)日宣布推出 Nutanix Agentic AI 解決方案。這是一套專為協助客戶加速採用代理式 AI,推動企業轉型而打造的完整軟體堆疊解決方案。 隨著代理式 AI 的興起,企業導入 AI 已來到關鍵轉折點。成功的關鍵不再是模型本身或單一 AI 代理的建構,而是如何管理能夠安全地大規模運行數千個 AI 代理所需的複雜基礎架構。企業的基礎架構與平台團隊需要更完善的解決方案,以建置並營運 AI 工廠(AI Factory),同時在共享資源的情況下,確保最佳效能、安全性以及符合資料主權等合規要求。此外,資料科學家與代理式 AI 開發者也期望能夠輕鬆取得相關工具與服務,以執行與微調模型、建立 AI 代理,並安全地與企業資料進行連結。 Nutanix 產品管理執行副總裁 Thomas Cornely 表示:「與專為執行『單一大型任務』而最佳化模型訓練 AI 基礎架構不同,實際投入生產環境的代理式 AI 基礎架構,必須能夠支援數千個 AI 服務、代理,以及多位使用者與開發者同時運作的高擴展性與快速變化需求。Nutanix Agentic AI 透過延伸 AHV 虛擬機管理程式(Hypervisor)、虛擬化 Flow Networking、Nutanix Kubernetes Platform(NKP)與 Nutanix Enterprise AI(NAI)解決方案,為企業 AI 工廠提供雲端營運模式,使基礎架構與平台團隊能夠更簡單地建置、營運與治理 AI 工廠,同時為代理式 AI 開發者提供所需的效能、豐富的模型與 AI 平台服務。」 此解決方案在 Agent Builder 層與 NAI 進行整合,並可協調經 NVIDIA 認證的 AI 工廠生態系統,以支援多種部署配置。透過完整的基礎架構編排與安全軟體,結合 AI 平台即服務(PaaS)與模型即服務(MaaS),該方案可在動態、多使用者的 AI 環境中,協助資料科學家與代理式 AI 開發者建置、執行與保護代理式 AI 應用。透過整合 NVIDIA Agent Toolkit(包含 NVIDIA OpenShell 開放執行環境),Nutanix 與 NVIDIA 亦正攜手為企業打造自主代理(Autonomous Agents)運行的基礎架構。 Nutanix Agentic AI 解決方案能降低系統複雜性、提供最佳化的效能與安全性,並透過以下功能設計協助企業降低並預測 Token 成本: 1. 代理式 AI 服務與 Kubernetes 平台:此 AI PaaS 與 Kubernetes 原生軟體層包含以下功能: a. 進階 AI Gateway 與 MaaS:NAI 最新 2.6 版本新增 AI Gateway 服務,可對雲端託管與私有 LLMs 進行統一的政策控管。同時新增模型上下文協定(MCP)伺服器與模型微調(Fine-Tuning) 支援,進一步擴展既有的 MaaS 能力,使 AI 代理能夠安全地連接企業工具與資料來源。此外,NAI 亦新增對 NVIDIA Nemotron 開放式 AI 模型系列的支援,包含資料集與訓練工具,協助開發者打造具備推理能力、可安全存取工具,並能自主完成複雜多步驟任務的代理式 AI 系統。 b. 具備豐富 AI 工具庫的開放式 Kubernetes 平台:Nutanix 透過在其符合 CNCF 標準的 NKP 上擴展豐富的預建開放式 AI 開發工具庫,包括 Notebooks、向量資料庫、機器學習營運(MLOps)工作流程引擎、代理式 AI 框架,從而簡化邁向代理式 AI 的路徑。由於平台已與 NVIDIA AI Enterprise 完整整合,開發者可立即部署 NVIDIA NIM 微服務(包含 Nemotron),以加速生產環境中高效能 AI 應用程式的開發與部署。 2. 基礎架構最佳化與安全性:在 NVIDIA 拓撲感知 AHV 的早期存取版本中,Nutanix AHV 虛擬機管理程式已進一步強化,可自動最佳化 GPU 高密度伺服器上虛擬機(VM)的實體資源配置,以提升整體效能。同時,Nutanix 虛擬化 Flow Networking 亦新增支援將網路資料平面卸載至 NVIDIA BlueField,在提供高效能網路連線的同時,降低主機 CPU 與記憶體的消耗。透過這些強化功能,代理式 AI 工作負載可在虛擬機架構下獲得完整的優勢,包括工作負載與租戶隔離、Day-2 維運能力,以及基礎架構韌性,在確保最佳效能、安全性與資源利用率的同時,有助於降低每個 Token 的運算成本。 3. AI 基礎資料服務:代理式 AI 應用需要強大的基礎資料服務作為支撐。作為基於 NVIDIA AI 資料平台參考架構所打造的解決方案,Nutanix Unified Storage(NUS)可為數千個 GPU 客戶端提供線性擴展的讀寫效能。透過提供用於 KV Cache 卸載的高容量儲存層,並支援 RDMA 上 S3 與 NFS,Nutanix 打造可擴展且低延遲的資料架構,能最大化所有企業 AI 工作負載的 GPU 效能。 Nutanix Agentic AI 解決方案透過 NVIDIA 認證的 AI 工廠架構,協助企業將代理式 AI 應用落地並加速導入。企業客戶可在 Cisco、Dell 與 Supermicro 的硬體平台上部署 AI 工廠,並由 Nutanix 與 NVIDIA 共同完成技術驗證與支援。 分析師觀點 NAND Research 首席分析師 Steve McDowell 表示:「Nutanix 的 Agentic AI 技術堆疊消除了許多可能拖慢企業 AI 專案的基礎架構運行問題。透過整合從最上層的 MaaS、建立在標準化 Kubernetes 發行版的 AI 平台,到具備 GPU 感知能力的虛擬機管理程式(Hypervisor)與資料處理器(DPU)加速網路等各層技術,企業可獲得更一致且完整的 AI 技術堆疊,進而打造兼具高效能與安全性的 AI 工廠,同時降低每個 Token 的成本。」 NVIDIA 企業 AI 平台副總裁 Justin Boitano 表示:「代理式 AI 需要能安全管理數千個 AI 代理,且須具備企業級規模。Nutanix 整合 NVIDIA Agent Toolkit 與開放式 Nemotron 模型,為企業提供建構與高效營運 AI 工廠的基礎。隨著 AI 代理持續演進,我們也正攜手推動企業自主 AI 的規模化發展。」 Dell Technologies ISG 產品管理資深副總裁 Travis Vigil 表示:「企業 AI 的發展正從實驗階段邁向大規模生產,因此需要能支援從模型訓練、推論到資料管理等完整 AI 工廠流程的基礎架構。Dell 領先的 AI 基礎架構支援 Nutanix 簡化 AI 營運並最大化效能與安全性的願景。我們攜手協助企業將重心放在打造能創造實際商業價值的 AI 應用,而不是管理複雜的營運架構。」 Cisco Compute 資深副總裁暨總經理 Jeremy Foster 表示:「企業 AI 的討論已不僅是更好的模型,而是營運速度與信任,也就是團隊能多快且多安全地從實驗走向大規模生產。透過將 Cisco 基礎架構與 Nutanix 解決方案整合,我們正在消除複雜硬體編排與快速應用部署之間的界線,並透過具拓撲感知能力的智慧與安全機制,最佳化整個生態系統中的每一項資源。我們共同打造一個即開即用、無摩擦的環境,使企業能以符合其營運需求的韌性、安全性與生命週期一致性來部署 AI 工廠。」 Lenovo 基礎架構解決方案集團副總裁 Scott Patti 表示:「讓 AI 普及化意味著讓企業 AI 更容易部署,並能從邊緣、核心到完整的 AI 工廠環境實現可擴展性。Lenovo 的 Hybrid AI 產品組合使客戶能以更快速且更有信心的方式,將 AI 從實驗階段推進至實際生產環境。透過與 Nutanix 和 NVIDIA 的合作,我們共同打造 Lenovo ThinkAgile HX AI 解決方案,提供整合運算、GPU、網路與資料的統一全堆疊基礎架構,支援混合環境中的 AI 部署。透過降低營運複雜度並簡化部署流程,我們協助企業更有效率地建置與擴展 AI 工廠,加速價值實現,同時最佳化效能、成本與 Token 使用效率。」 TCS 全球合作夥伴生態系與聯盟負責人 Rajnikant Gupta 表示:「我們很高興與 Nutanix 合作,透過簡化營運、強化安全性並提升使用者體驗,協助客戶釋放 AI 的全部潛能。透過將 Nutanix 全堆疊 AI 解決方案與 TCS 在 AI 驅動轉型方面的深厚專業結合,我們協助企業加速導入代理式 AI,以建立長期的競爭優勢。我們強大的專業人才與合作夥伴生態系,也持續為 AI 創新與客戶成功樹立新的標竿。」 Supermicro 首席增長官 Cenly Chen 表示:「透過與 Nutanix 的合作,我們能夠提供業界運算密度最高且能源效率最佳的 AI 工廠基礎架構。我們採用液冷式資料中心模組化解決方案,結合運行於 Supermicro 機架級系統上的 Nutanix 智慧軟體層,企業可更快速部署 AI 工廠,並實現業界最快的上線速度與具永續性的 Token 運算效率。」 Everpure AI 副總裁 Kaycee Lai 表示:「將 Everpure 領先業界的儲存與資料管理平台和 Nutanix 針對 NVIDIA 最佳化的 AHV 基礎架構整合,可打造統一的 AI 資料架構,以解決代理式 AI 時代的數據引力挑戰。透過消除 AI 堆疊中的瓶頸,我們確保企業基礎架構團隊不再需要在大規模擴展與營運簡化之間做出取捨。我們攜手提供高效能、低延遲的基礎架構,以驅動 AI 工廠生態系中最具挑戰性的 RAG 管線與高併發推論工作負載。」 Accenture 全球基礎架構工程 AI 與高效能運算負責人 Dave Malik 表示:「Accenture 協助客戶現代化其平台策略,打造能重新塑造營運模式並支援大規模代理式 AI 的架構。Nutanix 在 Agentic AI 解決方案中所提供的能力,可協助企業建立代理式 AI 架構,打造跨資料與平台整合的 AI 介面,並重新設計流程,使營運更加整合且高效率。」 Fujitsu Limited 執行長暨高級執行副總裁暨平台事業部負責人 Kazushi Koga 表示:「我們的客戶正在尋找能簡化數千個 AI 代理與運作管理的方法,同時避免成本與營運負擔大幅增加。Nutanix Agentic AI 解決方案運行於 Fujitsu 經 NVIDIA 認證的基礎架構上,並結合 Fujitsu 針對資料主權與關鍵任務環境所開發的技術,能提供以 AI 驅動為核心的企業願景化為現實所需的效能與資源最佳化。我們很榮幸能與 Nutanix 攜手合作,提供新一代 AI 工廠能力。」 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Facebook 強化原創內容獎勵機制 移除超過 2,000 萬個假冒創作者的帳號 為創作者推出仿冒內容檢舉工具
• Facebook 鼓勵原創內容,藉由提升作品觸及率與營利收益,並同步調降非原創內容的推薦權重,讓優質原創作品獲得更多曝光。 • Facebook 更新原創性內容準則,明確定義作品在動態消息與 Reels 獲得曝光及推薦的標準,協助創作者了解如何提升內容的能見度。 • Facebook 正測試內容保護工具的進階功能,協助創作者快速掌握潛在的冒名行為,並簡化檢舉流程。 過去一年,Facebook 持續打擊垃圾內容,並限制抄襲與冒名者擠壓原創空間,同時提升 Facebook 動態消息與 Reels 的內容關聯性,藉此鼓勵創作者的原創內容,Facebook 也強調在平台上發布原創內容的創作者將獲得更多支持與獎勵。 此外,Facebook 已更新原創性內容準則,明確定義「原創內容」的標準,並陸續推出全新工具,協助創作者檢舉潛在冒名者以保護其作品。這些措施賦予創作者更高的內容主控權,幫助拓展粉絲群,優化 Facebook 整體的社群體驗。 Facebook 大量移除假冒創作者的帳號 原創 Reels 的觀看次數與時數翻倍成長 Facebook 在動態消息與 Reels 中優先推薦原創內容,同時降低非原創內容的觸及。這些努力已展現顯著成效:2025 年下半年,Facebook 原創 Reels 的觀看次數與時長,相較 2024 年同期呈現接近翻倍成長。隨著原創內容在平台上的散播規模持續擴大,原創創作者在 Facebook 獲得的收益機會也隨之增加。 此外,Meta 持續打擊假冒創作者的行為,在 2025 年已移除超過 2,000 萬個假冒大型內容創作者的帳號,此舉成功讓與大型創作者相關的冒名檢舉量下降 33%。 Facebook 更新原創性內容準則,更明確地定義「原創內容」標準,鼓勵創作者產出優質內容,並優化推薦機制,讓原創內容更容易被看見。具體規範包括: • 凡是由創作者或其個人檔案與粉絲專頁擁有者親自拍攝或製作的內容,即被視為 Facebook 上的原創內容。 • 針對 Reels 適度融入第三方內容的情形(如混搭、疊壓),若創作者現身影片中並帶入全新資訊、觀點分析或對原有敘事有實質性的延伸與改編,則該影片將被視為原創內容。然而,若內容僅是單純拍攝觀看後反應的影片、拼接多段影片或對既有畫面加上旁白,而未增添任何實質新的元素,則會視為非原創內容。針對此類作品,Facebook 將會適當地在動態消息與 Reels 中調降排序。 • 重複或僅對他人貼文稍作編輯的內容,將被視為非原創內容並降低排序。這包含重新上傳自己未參與創作的貼文或僅添加邊框、插入字幕、調整速度等微幅修改。關於更多非原創行為的認定,請參考企業商家使用說明。 • 重複或僅對他人貼文做輕微編輯的內容,將被視為非原創並降權。這包括重新上傳自己未參與創作的貼文,或僅做低價值修改,例如加邊框、插入字幕、調整 Reel 速度等,以及上述和說明中心中提及的其他行為。 當創作者發揮創意轉化內容時,影片將有機會在 Reels 與動態消息中被推薦,進而獲得更多機會將內容遞送出去給更多觀眾。但若創作者持續發布多數為非原創的內容,Meta 極可能將該帳號的內容不列入推薦範圍並降低排序,甚至失去營利資格。若對原創內容的判定結果有異議,創作者可以隨時提出申訴,Meta 亦將持續精進系統執行的精準度。欲瞭解更多申訴流程,請參閱此處。 Facebook 不僅支持上的原創內容,更持續開發全新工具,協助創作者保護作品並拓展影響力。去年,Facebook 推出內容保護功能,自動保護創作者在平台上的原創 Reels 影片,當偵測到與這些影片相符的內容時,原創作者也能在第一時間採取行動,追蹤、封鎖或撤銷冒名影片。目前,Facebook 也正進階測試此項功能,未來將能偵測潛在冒名行為,讓創作者能在同一介面輕鬆提交檢舉。這些新功能將陸續開放給使用內容保護功能的創作者 。 創作者可於專業主控板中查詢是否已獲得內容保護工具使用權,或在此申請。 Meta 目標將 Facebook 打造成為原創內容蓬勃發展的園地,讓原創作者的心血及創意可獲得回報。透過更明確的原創性內容準則與內容保護工具,真實且具特色的創作者聲音將更容易被看見並脫穎而出。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Epson 與 Manz 合作研發先進設備,開啟半導體數位製程新篇章
以高精度 MEMS(微機電系統)製造技術與 PrecisionCore 噴頭聞名的精工愛普生公司(SEIKO EPSON CORP., 以下簡稱Epson),與全球高精密設備製造領導者 Manz 宣布展開策略性合作,攜手推動印刷電子在半導體產業中的創新應用,實現半導體金屬化製程中的高效生產與可擴展的解決方案。此次合作結合了 Epson 世界領先的噴墨印刷技術,以及 Manz 在高精密設備製造與智慧軟體開發方面的專業,為半導體製造業注入全新動能。合作涵蓋實驗室驗證設備與高效率量產解決方案的開發,並於台灣桃園設立全新研發中心,為全球市場提供創新製造技術,協助客戶推進下一代印刷電子應用。 本次合作,Epson 以獨家的 PrecisionCore 精點微噴噴頭印刷技術將功能性材料精準塗佈在如聚醯亞胺(Polyimide / PI)、環氧樹脂薄膜(Ajinomoto Build-up Film / ABF)、固態模封材料(Epoxy Molding Compound / EMC)、矽晶圓(Silicon Wafers)與玻璃等基板上,省去光罩製程,直接形成精密電路結構。這項技術大幅簡化了金屬化製程的複雜度,相較於傳統製程,能顯著提升材料使用效率、環境永續性、製程良率與生產彈性。 雙方攜手開發的工業級噴墨印刷設備更支援 3D 列印,能製造低溫金屬結構,突破傳統金屬熔點限制,拓展半導體封裝材料的應用範圍。因應產業朝向方形基板發展,這套設備也支援玻璃通孔(Through Glass Via / TGV)金屬化與面板級封裝(Panel-level Packaging)重佈線層(Redistribution Layer / RDL)佈線,進一步提升製程效率與產品可靠度。 Manz Asia 總經理林峻生表示:「在台灣設立研發中心,能強化我們在即時測試、製程驗證與生產優化方面的能力,有助於縮短技術導入週期並提升市場競爭力,也讓我們更有信心加速噴墨列印在半導體產業的落地。」 Epson 執行董事暨噴頭事業部總經理福田俊也(Shunya Fukuda)指出,採用噴墨技術的數位積層製造,有望成為推動半導體封裝演進的關鍵技術基礎。Epson 具備高精度墨滴控制技術,以及在顯示器與印刷電子領域累積的量產經驗,將與 Manz 共同打造從實驗室到量產皆能無縫銜接的製造平台,並期望為半導體產業的永續發展做出貢獻。 本次雙方合作研發中心,提供專為半導體金屬化製程量身打造的完整噴墨印刷解決方案,從實驗室驗證到量產機型、提供客製化製程驗證與樣品列印服務,到擴大全球市場採用,並加速整合噴墨印刷技術在半導體製程的一條龍服務。 本次合作是邁向更高效率、更具彈性與永續的半導體製造流程的重要里程碑。隨著數位印刷技術持續演進,Epson 與 Manz 合作開發相關設備,致力於推動產業轉型,提供具全球競爭力的先進製造解決方案。 ● RDJet100:專為驗證半導體先進封裝金屬化製程中,新型功能性墨水與基板的實驗室設備,搭載 Epson 噴墨印刷技術。 ● SDC系列:針對半導體前段與後段製程的工業生產設備,支援晶圓與面板基板多元製程需求。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
NVIDIA 推出專為代理型 AI 打造的 Vera CPU NVIDIA Vera CPU 在大規模資料處理、AI 訓練與代理型 AI 推論方面,提供最高效能與能效
● NVIDIA Vera CPU 的效率是傳統 CPU 的兩倍,而運算速度則可提升 50%。 ● 與 NVIDIA 合作部署 Vera CPU 的客戶包括阿里巴巴、字節跳動、Meta 與 Oracle Cloud Infrastructure,以及 CoreWeave、Lambda、Nebius 與 Nscale。 ● 已開始採用 Vera CPU 的製造合作夥伴包括戴爾科技集團、慧與科技、聯想集團與美超微,以及華碩、仁寶、鴻海科技集團、技嘉科技、和碩聯合科技、雲達科技、緯創和緯穎。 NVIDIA 今日推出 NVIDIA Vera CPU。這是全球首款專為代理型人工智慧(AI)與強化學習時代打造的處理器,其效率是傳統機架級 CPU 的兩倍,運算速度提升 50%。 隨著推理與代理型 AI 持續發展,規模、效能與成本日益取決於支撐相關模型的基礎設施。這些模型需要規劃任務、執行工具、與資料互動、執行程式碼並驗證結果。 NVIDIA Vera CPU 延續了 NVIDIA Grace™ CPU 的成功,使各種規模與各產業的組織都能建構 AI 工廠,並在大規模環境中釋放代理型 AI 的能力。具備最高的單執行緒效能與每核心頻寬,Vera 代表了一種全新的 CPU 類別,可為大規模 AI 服務提供更高的AI資料輸送量、回應速度與效率,支援如程式碼助理等大規模 AI 服務,以及消費型與企業型 AI 代理。 與 NVIDIA 合作部署 Vera 的領先超大規模雲端服務商包括阿里巴巴、CoreWeave、Meta 與 Oracle Cloud Infrastructure。此外,戴爾科技集團、慧與科技、聯想集團與美超微等全球系統製造商也正在以此技術打造伺服器設計。這種廣泛採用確立了Vera 成為開發者、新創公司、公私部門機構及企業最重要 AI 工作負載的新 CPU標準,並有助於推動 AI 的普及化與加速創新。 NVIDIA 創辦人暨執行長黃仁勳表示:「Vera 在 AI 發展的轉捩點問世。隨著智慧變得更具代理能力,能夠進行推理與行動,負責協調與運行這些工作的系統重要性也隨之提升。CPU 不再只是支援模型,而是驅動模型運作。透過突破性的效能與能效,Vera 讓 AI 系統能以更快速度思考並擴展到更大的規模。」 NVIDIA 宣布推出全新的 Vera CPU 機架,整合 256 顆液冷式 Vera CPU,可同時支援超過 22,500 個並行的 CPU 執行環境,且每個環境都能以完整效能獨立運行。透過此架構,AI 工廠能夠在單一機櫃中快速部署並擴展至數萬個同時運行的實例與代理型 AI 工具。 全新 Vera 機架採用NVIDIA MGX™ 模組化參考架構打造,並獲全球 80 家生態系合作夥伴支持。 作為 NVIDIA Vera Rubin NVL72 平台的一部分,Vera CPU 可透過 NVIDIA NVLink™-C2C 互連技術與 NVIDIA GPU 配對使用,提供 1.8 TB/s 的一致性頻寬(相當於 PCIe Gen 6 頻寬的 7 倍),以實現 CPU 與 GPU 之間的高速資料共享。此外,NVIDIA 也推出全新的參考設計,使用Vera 作為 NVIDIA HGX™ Rubin NVL8 系統的主機 CPU,負責協調GPU 加速工作負載所需的資料傳輸與系統控制。 Vera 系統夥伴同時提供雙插槽與單插槽 CPU 伺服器配置,適合用於強化學習、代理型推論、資料處理、工作流程協調、儲存管理、雲端應用與高效能運算等工作負載。 在所有配置中,Vera系統都可與 NVIDIA ConnectX® SuperNIC 網路卡及 NVIDIA BlueField® DPU 整合,以提供加速的網路、儲存與安全功能,這些能力對代理型 AI 至關重要。這能讓客戶根據特定工作負載加以最佳化,同時在整個 NVIDIA 平台上維持單一的軟體堆疊。 透過結合高效能且高能效的 CPU 核心、高頻寬記憶體子系統及第二代 NVIDIA Scalable Coherency Fabric,Vera 能在代理型 AI 與強化學習常見的高利用率環境下,提供更快速的代理回應能力。 Vera 搭載 88 個 NVIDIA 自行設計的 Olympus 核心,為編譯器、執行時引擎、分析流程、代理型工具與協調服務提供高效能。每個核心均可透過 NVIDIA 空間多執行緒技術同時執行兩項任務,提供穩定且可預測的效能,非常適合需要同時執行大量工作的多租戶 AI 工廠。 為了進一步提升能效,Vera 引進第二代 NVIDIA 低功耗記憶體子系統,採用 LPDDR5X 記憶體並提供最高 1.2 TB/s 頻寬,相較於一般通用型 CPU,頻寬提升至兩倍,同時功耗僅為一半。 AI 原生軟體開發領域的創新者 Cursor,正採用 NVIDIA Vera 來提升其 AI 程式碼撰寫代理的效能。 Cursor 共同創辦人暨執行長 Michael Truell 表示:「我們很高興能運用 NVIDIA Vera CPU 來提升整體資料輸送量與效率,藉此為客戶提供更快、反應更靈敏的程式碼撰寫代理體驗。」 領先的串流資料與 AI 平台 Redpanda 正在使用 Vera,大幅提升系統效能。 Redpanda 創辦人暨執行長 Alex Gallego 表示:「Redpanda 最近測試了在 NVIDIA Vera 上執行 Apache Kafka 相容工作負載,發現其效能遠高於我們曾測試過的其他系統,且延遲最多可降低 5.5 倍。Vera 代表 CPU 架構的一個新方向,具備更大的記憶體容量與更低的每核心運算負擔,使我們的客戶能將即時串流工作負載擴展至前所未有的規模,並釋放新的 AI 與代理型 AI 應用。」 計劃部署 Vera CPU 的國家級實驗室包括萊布尼茲超級運算中心、洛斯阿拉莫斯國家實驗室、勞倫斯柏克萊國家實驗室旗下的國家能源研究科學運算中心,以及德州先進運算中心(TACC)。 德州先進運算中心高效能運算總監 John Cazes 表示:「在德州先進運算中心,我們最近測試了 NVIDIA 的 Vera CPU 平台,為部署該技術至我們即將推出的 Horizon 系統做準備。當我們執行六個科學應用時,看到了令人印象深刻的初步成果。Vera 的每核心效能與記憶體頻寬代表著科學運算的一大躍進,我們期待今年稍晚在 Horizon 系統上為 CPU 使用者提供基於 Vera 的運算節點。」 計劃部署 Vera CPU 的主要雲端服務供應商包括阿里巴巴、字節跳動、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI 與 Vultr。 採用 Vera CPU 的主要基礎架構供應商包含 Aivres、華擎科技、華碩、仁寶、思科、戴爾科技集團、鴻海科技集團、技嘉科技、慧與科技、Hyve、英業達、聯想集團、神達、微星、和碩聯合科技、雲達科技、美超微、緯創與緯穎。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
NVIDIA Vera Rubin 開啟代理型 AI 新前沿 七款全新晶片全面量產,助力打造全球規模最大的 AI 工廠,其可配置的 AI 基礎架構 針對 AI 各階段進行最佳化,從預訓練、後訓練與測試階段擴展到代理型推論皆涵蓋其中
NVIDIA Vera Rubin 平台正開啟 AI 的下一個前沿,包含: ● Vera Rubin NVL72 GPU 機架 ● Vera CPU 機架 ● NVIDIA Groq 3 LPX 推論加速器機架 ● NVIDIA BlueField-4 STX 儲存機架 ●NVIDIA Spectrum-6 SPX 乙太網路機架 【2026年3月16日,美國聖荷西訊】NVIDIA 今日宣布,NVIDIA Vera Rubin 平台正開啟代理型人工智慧(AI)發展的下一個前沿,目前七款新晶片已全面進入量產,以擴展全球規模最大的 AI 工廠。 該平台整合 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 交換器、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU 與 NVIDIA Spectrum™-6 乙太網路交換器,以及全新整合的 NVIDIA Groq 3 LPU。這些晶片目標透過協同運作來組成一台強大的 AI 超級電腦,驅動 AI 的各個階段,從大規模預訓練、後訓練、測試階段擴展,到即時的代理型推論皆涵蓋其中。 NVIDIA 創辦人暨執行長黃仁勳表示:「Vera Rubin 代表跨世代的躍進,七款突破性晶片、五組機架、一台巨型超級電腦,旨在驅動 AI 的每一個階段。代理型 AI 的關鍵轉捩點已然來臨,且由 Vera Rubin 為史上最大規模的 AI 基礎設施建設拉開序幕。」 Anthropic 執行長暨共同創辦人 Dario Amodei 表示:「企業與開發者正將 Claude 應用於日益複雜的推理、代理型工作流程及關鍵任務決策,而這需要能夠與時俱進的基礎設施。NVIDIA 的 Vera Rubin 平台為我們提供了所需的運算、網路及系統設計,讓我們在持續提供服務的同時,也能提升客戶所仰賴的安全性與可靠性。」 OpenAI 執行長 Sam Altman 表示:「NVIDIA 的基礎設施是我們持續推進 AI 前沿的重要基礎。有了 NVIDIA Vera Rubin,我們將能大規模運行更加強大的模型與代理,並為數億用戶提供更快速且更可靠的系統。」 AI 基礎設施正迅速演進,從獨立晶片與單一伺服器,發展到完全整合的機架級系統、POD 級部署、AI 工廠與主權 AI。這些進展正帶來顯著的效能提升,為各產業、各規模的組織,從新創公司和中型企業,到公私合作機構與大型企業,帶來更高的成本效益。這也同時有助於普及 AI 技術,並提升能效,以驅動全球最具挑戰性的工作負載。 透過運算、網路和儲存的深度協同設計,並在擁有全球供應鏈的 80 多家 NVIDIA MGX 生態系合作夥伴的支持下,NVIDIA Vera Rubin 提供了最全面的 NVIDIA POD 級平台,這是一台超級電腦,其中多個專為 AI 打造的機架協同運作,形成一個龐大且一致的系統。 Vera Rubin NVL72 整合 72 顆 Rubin GPU 與 36 顆 Vera CPU,透過 NVLink 6 進行互連,並搭配 ConnectX-9 SuperNIC 與 BlueField-4 DPU,帶來突破性的運算效率。該系統在訓練大型混合專家模型時,所需 GPU 數量僅為NVIDIA Blackwell 平台的四分之一,且每瓦的推論資料輸送量最高可提升 10 倍,每個詞元成本僅為先前的十分之一。 NVL72 專為全球超大規模 AI 工廠打造,可透過 NVIDIA Quantum-X800 InfiniBand 與 Spectrum-X 乙太網路無縫擴展,在大型 GPU 叢集上維持高利用率,同時降低訓練時間與總擁有成本(TCO)。 強化學習與代理型 AI 工作負載需要大量基於 CPU 的環境,以測試並驗證在 GPU 系統上運行的模型所產生的結果。 NVIDIA Vera CPU 機架提供高密度液冷基礎設施,採用 NVIDIA MGX 架構並整合最多 256 顆 Vera CPU,提供可擴展且節能的運算能力,並具備世界級的單執行緒效能,從而實現大規模的代理型 AI。 Vera CPU 機架與 Spectrum-X 乙太網路整合,可在整個 AI 工廠內保持 CPU 環境同步。與 GPU 運算機架搭配後,可為大規模代理型 AI 與強化學習提供 CPU 運算基礎。其中 Vera 的運算效率是傳統 CPU 的兩倍,速度則提升 50%。 NVIDIA Groq 3 LPX 標誌著加速運算的重要里程碑。專為代理型系統的低延遲和大型情境需求所設計,LPX與 Vera Rubin 結合了兩款處理器的極致效能,使兆級參數模型每兆瓦的推論資料輸送量最高可提升 35 倍,同時創造出多達 10 倍的營收機會。 在大規模部署下,一組 LPU 叢集可作為巨型的單一處理器運作,實現快速且可預測的推論加速。LPX 配備 256 顆 LPU 處理器,並擁有 128GB 晶片內 SRAM 及 640 TB/s 的擴展頻寬。當與 Vera Rubin NVL72 系統搭配部署時,Rubin GPU 與 LPU 會針對每個輸出詞元,共同運算 AI 模型的每一層,從而提升解碼(decode)效能。 針對兆級參數模型和百萬詞元的情境進行最佳化的 LPX 協同設計架構與 Vera Rubin 進行搭配,可在功耗、記憶體及運算方面實現極致效率。更高的每瓦資料輸送量和更優異的詞元效能,開啟了全新層級的超高端、兆級參數與百萬級情境推論,為所有 AI 供應商拓展營收機會。LPX 採全液冷設計,並建立於 MGX 基礎架構之上,可無縫整合至新一代 Vera Rubin AI 工廠中,預計將於今年下半年推出。 NVIDIA BlueField-4 STX 機架級系統是一套 AI 原生的儲存架構,可將 GPU 記憶體無縫延伸至整個 POD。由整合 NVIDIA Vera CPU 與 NVIDIA ConnectX-9 SuperNIC 的 BlueField-4 驅動,STX 提供高頻寬的共享儲存層,針對大型語言模型(LLM)與代理型 AI 工作流程產生的大量 KV 快取資料,進行最佳化的儲存與讀取。 NVIDIA DOCA Memos™ 是全新的 DOCA 框架,可大幅強化 BlueField-4 儲存的能力,並支援專用的 KV 快取儲存處理。與通用儲存架構相比,可將推論時的資料輸送量提升高達 5 倍,同時顯著提高能源效率。其成果在於實現整個 POD 層級的情境共享能力,不僅能加速 AI 代理的多輪互動,亦可擴展 AI 服務規模,並提升整體基礎設施的利用率。 Mistral AI 共同創辦人暨技術長 Timothée Lacroix 表示:「NVIDIA BlueField-4 STX 機架級情境記憶體儲存系統將帶來關鍵的效能提升,這對於我們大規模擴展代理型 AI 成果至關重要。透過提供專為 AI 代理記憶體打造的全新儲存層級,STX 具備絕佳優勢,能確保我們的模型在對大量資料集進行推理時,仍能維持一致性與速度。」 NVIDIA Spectrum-6 SPX 乙太網路機架 Spectrum-6 SPX 乙太網路機架專為加速 AI 工廠的東西向流量而設計,可搭配 Spectrum-X 乙太網路或 NVIDIA Quantum-X800 InfiniBand 交換器,並大規模提供低延遲且高輸送量的機架間連線能力。 採用共同封裝光學元件的 Spectrum-X 乙太網路光子技術,相較於傳統可插拔式收發器,在光學方面的能效提高 5 倍,韌性也同步提升 10 倍。 NVIDIA 與超過 200 家資料中心基礎設施合作夥伴共同宣布推出適用於 Vera Rubin 的 NVIDIA DSX 平台。該平台包含 DSX Max-Q,可實現整個 AI 工廠的動態供電配置,使固定功率的資料中心能部署多出 30% 的 AI 基礎設施。全新的 DSX Flex 軟體讓 AI 工廠成為具備電網彈性的資產,釋放出 100 百萬瓩的閒置電網電力。 NVIDIA 亦同步發表 Vera Rubin DSX AI 工廠參考設計,這是一套專為協同設計 AI 基礎設施打造的藍圖,以最大化每瓦的詞元產出與整體有效輸送量,同時提升系統韌性並加速 AI 系統導入生產環境。 透過緊密整合運算、網路、儲存、電力與散熱系統,該架構可提升能效,確保 AI 工廠在持續的高強度工作負載下,仍能穩定擴展並維持最大化的正常運行時間。 基於 Vera Rubin 平台的產品將於今年下半年開始由合作夥伴推出,包括主要雲端服務供應商 Amazon Web Services、Google Cloud、Microsoft Azure 與 Oracle Cloud Infrastructure,以及 NVIDIA 雲端合作夥伴 CoreWeave、Crusoe、Lambda、Nebius、Nscale 與 Together AI.。 全球系統製造商思科、戴爾科技集團、慧與科技、聯想集團與美超微預計將推出多款採用 Vera Rubin 平台的伺服器產品。此外,Aivres、華碩、鴻海科技集團、技嘉科技、英業達、和碩聯合科技、雲達科技、緯創和緯穎等廠商也將提供相關系統。 AI 實驗室與尖端模型開發者,包括 Anthropic、Meta、Mistral AI 與 OpenAI,也正計畫利用 NVIDIA Vera Rubin 平台訓練規模更大且能力更強大的模型,並以相較前幾代 GPU 更低的延遲和成本,支援長情境與多模態系統。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
就決定就是你了!Garmin推Pokémon Sleep全新動態錶面一起去冒險 48隻寶可夢登場 根據身體能量指數變換姿勢 開啟健康生活節奏
全球智慧穿戴領導品牌 Garmin 長期致力以創新科技協助用戶掌握日常活動、健康與睡眠狀態,透過數據化分析提供全面的健康洞察,幫助每個人找到適合自己的身心平衡生活方式。Garmin 此次攜手超人氣 IP「Pokémon Sleep」推出全新主題錶面,結合睡眠紀錄與寶可夢收集玩法的健康管理,讓寶可夢成為陪伴用戶日常的健康夥伴。錶面推出皮卡丘、卡比獸、妙蛙種子、小火龍、傑尼龜等48隻寶可夢,依據配戴裝置期間的Body Battery 身體能量指數變化,寶可夢會根據您剩餘的身體能量指數變換不同姿勢,在夜晚則會隨機出現三種睡姿。相容的Garmin裝置支援與Pokémon Sleep App 連動,不需將手機放在枕頭邊即可記錄睡眠資料,從活力滿滿到疲憊入睡,讓用戶更直覺掌握身體電量,適時休息補充能量。 Pokémon Sleep 主題錶面即日起於 Garmin Connect IQ Store APP免費下載,適用於指定錶款,包括 fēnix、Forerunner、Venu、 vívoactive 等系列,讓寶可夢陪伴用戶一起掌握身體能量、建立規律睡眠節奏,為每一天補充滿滿活力。 ● Pokémon Sleep:卡比獸與夥伴們 在充滿綠意的萌綠之島場景中,卡比獸將與皮卡丘、妙蛙種子、小火龍與傑尼龜等寶可夢一同登場。寶可夢會依據身體能量變化呈現不同姿態與表情,每晚會隨機出現三種睡姿的其中一種,為日常健康管理增添趣味互動。 ● Pokémon Sleep:就決定是你了! 用戶可從 48 隻寶可夢中選擇自己最喜愛的寶可夢作為錶面主題,打造專屬的寶可夢陪伴體驗,讓健康管理獨有個人風格。 |Garmin Connect IQ Store APP 下載連結:https://apps.garmin.com/zh-TW |Pokémon Sleep:卡比獸與夥伴們 - 錶面下載連結: https://apps.garmin.com/zh-TW/apps/33e3fa77-82cf-4aa2-bba3-5eb99bca424e |Pokémon Sleep:就決定是你了! - 錶面下載連結: https://apps.garmin.com/zh-TW/apps/880e3034-3e6e-4521-88d4-a208f2406b66 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Microsoft AI Summit Taipei 重磅登場,引領人機協作新篇章 匯聚產業領袖分享企業案例,Agent、Copilot 助力打造 AI 落地關鍵藍圖
Microsoft AI Summit Taipei 於今(10)日盛大登場,以 AI Agent、Copilot 為主軸,由微軟國內外重磅講者攜手生態系夥伴進行分享,內容聚焦企業與 AI Agent「人機協作」新模式,並與全球同步宣布專為前瞻企業打造的 Microsoft 365 E7 方案。活動吸引逾 1,500 人報名,匯聚金融、醫療等多元產業代表,共同探討企業如何透過 AI 參與營運流程、輔助決策,進一步重塑工作流程、客戶體驗與創新商業模式;同時藉由企業的多元實務經驗分享,助力台灣企業邁向 AI 新局,開啟產業智慧驅動成長的新篇章。 台灣微軟總經理卞志祥表示:「全球 AI 技術正快速從模型能力競賽走向規模化落地階段,企業競爭關鍵也隨之轉向平台整合、資料治理與安全合規等整體能力的建構。過去 30 多年,微軟陪伴台灣企業從數位轉型進入 AI 轉型,如今正邁向前瞻轉型(Frontier Transformation)新階段,以 AI 為企業核心全面重塑組織運作與創新。而 AI 真正落地的關鍵在於資料治理而產生的智慧(Intelligence)與信任(Trust),台灣微軟持續在地深耕,以雲端、AI 與資料中心區域等關鍵技術,攜手產業夥伴實現 AI 應用落地,並以引領全球的解決方案與厚實經驗共同打造完整生態系,讓台灣在全球科技舞台發光發熱。」 此次活動由首度來台的微軟亞洲區總裁 Rodrigo Kede Lima 進行第一場演講,以如何成為前瞻性企業(Becoming Frontier)為題,分享全球企業發展的最新趨勢,並強調 AI 的價值不僅在於提升營運效率,更是驅動企業轉型的關鍵力量,賦能第一線開發者與業務團隊,加速將創新構想轉化為落地實踐。 針對企業如何系統化推動 AI 轉型,Rodrigo Kede Lima 進一步提出 Frontier Success Framework,強調企業應從零散的創新嘗試,轉向聚焦帶動的成長與可衡量的商業成果,其中包含賦能員工、重塑客戶互動、重塑商務流程以及加速創新突破四大面向,並以台灣企業已進行商業應用的案例進一步闡述導入效益: ● 賦能員工:中國信託商業銀行透過在商務流程中整合 Microsoft Copilot 釋放人力價值,讓組織與團隊得以從繁瑣的人工作業轉向更具價值的策略規劃與創新,推動內部全員 AI 化,打造 AI 賦能的企業文化。 ● 重塑客戶互動:台灣微軟與華碩共同打造基於 Azure AI 的多代理(Multi-Agent)架構的 AI 助理系統「ASUS AI Assistant」,由不同 AI Agent 分別負責意圖理解、產品知識檢索、推薦決策與客服回應等任務,並在同一平台上協作完成完整服務流程。透過多代理協作,由不同專業能力的 Agent 間自動分工、交互驗證並整合結果,快速回應客戶需求。 ● 重塑商務流程:藉由 Microsoft Copilot Studio 的協助,一家金控公司已在確保合規的情況下,成功創建一個內部生成式 AI 小幫手。這款 AI 工具與 Microsoft 365 合作,有效協助員工處理文件、撰寫郵件、生成郵件摘要,以及查找資訊等工作。 ● 加速創新突破:亞東紀念醫院運用微軟 Azure 台灣資料中心區域,打造台灣首座基因定序雲端系統,將基因分析由數小時縮至數分鐘、大規模聯合分析效率提升達 16 倍,協助即時臨床決策洞察、縮短研究週期,加速精準醫療創新落地。 在 Rodrigo Kede Lima 的主題演講中更以電商行銷案例展示微軟完整解決方案在企業各工作流程中的應用,說明企業如何透過 Copilot 與系統中不同 AI Agent 分別負責市場分析、內容生成、庫存檢查與客服回應。案例中,各 Agent 自動協調並重新規劃促銷內容與物流安排,企業無需逐一指派任務即可於第一時間找出問題,並在安全治理框架下完成跨系統、跨團隊的協作流程,大幅縮短問題處理與補貨週期,還利用 Microsoft Foundry 產生商用等級的行銷素材。Rodrigo Kede Lima 更進一步強調,未來微軟也將持續攜手台灣企業與生態系夥伴,共同建構 AI 生態系與微軟台灣資料中心區域等關鍵數位基礎建設布局。 本次 Microsoft AI Summit Taipei 也邀請微軟在金融與醫療領域的夥伴現身說法,共同分享企業在不同場景如何導入 AI,並逐步建立可擴展與複製的轉型路徑: ● 中國信託商業銀行分享企業轉型路徑,強調以「人」為核心的策略,透過精準分眾設計,結合種子教練與同儕支持,建立從創新者到大眾皆能接受的內部擴散機制,結構化推進、逐步堆疊打造組織級 AI 實力,並以 Microsoft 365 Copilot 等系列工具建立流程專屬 AI 代理人支援策略任務,帶動可量化成效,如研究作業由 12 小時縮至 3 小時、行銷文案製作節省 80% 時間等,讓 AI 從單點工具導入,走向組織級能力升級。 ● 奇美醫療財團法人奇美醫院分享 AI 在醫療場域的實際應用經驗,說明如何結合臨床需求與數位工具,加速醫療服務優化與創新落地。透過 Microsoft Foundry 建構企業級 AI 環境,將 AI 深入整合至醫療工作流程中,有效減輕醫護人員負擔,提升效率與病患安全。在應用上,奇美醫院導入 AI Agent 個案管理系統,分析住院病人的在院流程,找出可優化環節並提供照護建議,同時設置人工審核機制,確保關鍵決策仍由人員把關。此外,醫院也打造醫護人員的 AI 個人工作站,整合各職類 AI Agent,讓醫護人員能依照臨床需求客製自己的 AI 助手與照護流程。 Microsoft AI Summit Taipei 除豐富議程外,現場亦邀集邁達特數位、雲馥數位、零壹科技、新加坡商網達先進科技有限公司台灣分公司、Shure、朋昶數位科技、Veeam Software、網創資訊、中華電信、碩益科技與安然科技等產業合作夥伴,從技術架構、落地案例到商務價值,於現場共同展示最新 AI 應用與解決方案,協助與會者全面掌握關鍵趨勢。 微軟將以更完善的雲端與 AI 解決方案,持續攜手在地產業夥伴推動 AI 資料治理與應用落地,助力台灣企業加值全球科技競爭力,並穩步推進資料中心等關鍵基礎建設,持續深耕台灣、強化生態系布局,以前瞻企業願景賦能 AI 時代的轉型與創新,攜手台灣企業邁向智慧新紀元。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
最多人點閱
- SP廣穎電通將於德國2015 Embedded World展示全方位工控系列產品
- InWin 805 NVIDIA EDITION機殼爆紅,迎廣GeForce GTX特仕版機箱正式開賣!
- 2024開學季筆電選購指南: 10大熱銷筆電推薦榜
- Windows 10 搭載 Office 版本聲明稿 Office Mobile 、 Office 2016 與 Office 365 版本差異說明
- 你的人生「升級」了沒?倒數十天!Windows 10開闊你的無限視野
- 全新Intel Core X系列處理器- Intel Core i9 極致版處理器 重裝上陣
- PLEXTOR展現軟實力,一舉推出三大獨家軟體
- JEDEC發布全新DDR5標準規範,從DDR5-4800起跳! 將加速導入下世代高效能電腦系統
- 不再是Toshiba品牌,全新Dynabook 2019 新品發布,透過運算與服務改變世界
- Mac 版 Office 2016 正式在台上市!
- microSD技術邁入第十年,SanDisk microSD記憶卡出貨量突破20億片
- 英特爾前進3D NAND,發表Intel SSD 600p、6000p、E 5420s、E 6000p、DC P3520、DC S3520固態硬碟!