PCDIY!業界新聞
-
HPE 推出首款 AMD「Helios」AI機架級解決方案 整合Broadcom開放式網路架構,加速AI部署
專為AI打造且具備縱向擴展能力的HPE Juniper Networking交換器與軟體,為業界首款採用標準乙太網路架構且能大幅提升AI訓練與推論效能的解決方案 本文重點 ● HPE宣布推出採用AMD「Helios」AI機架級架構的解決方案,並與Broadcom合作導入業界首創縱向擴展乙太網路架構 ● HPE將成為首批為兆級參數AI訓練與大量推論提供一站式機架解決方案的科技公司之一,該解決方案可提供高達260TB的總縱向擴展頻寬與2.9 FP4 exaflops的AI效能 ● AMD「Helios」AI機架級架構是為大規模AI工作負載打造的開放式整合平台,以業界標準為設計核心 台北訊-2025年12月4日-Hewlett Packard Enterprise(NYSE:HPE)宣布推出業界首款採用AMD「Helios」AI機架級架構的解決方案,整合縱向擴展乙太網路技術,協助neoclouds等雲端服務供應商(cloud service providers, CSP)加速部署大規模人工智慧(AI)訓練與推論。此方案以開放式Ultra Accelerator Link over Ethernet(UALoE)標準為基礎,結合專為AI打造的HPE Juniper Networking硬體與軟體,以及Broadcom的Tomahawk 6網路晶片,可支援兆級參數模型訓練、高推論傳輸率與大規模模型的流量需求。此解決方案由具備直接液冷基礎架構與Exascale級系統部署經驗的HPE Services團隊進行交付,為客戶提供更高的靈活度、互通性、能源效率與更快速的部署能力,以因應產業對AI運算容量日益增長的需求。 「十多年來,HPE與AMD持續突破超級運算的技術極限,打造多個Exascale等級的系統,並積極推動開放式標準,」HPE總裁暨執行長Antonio Neri表示。「隨著全新AMD『Helios』與HPE專為AI打造的縱向擴展網路解決方案問世,我們能協助雲端服務供應商加速部署,並在擴展AI運算時獲得更高的靈活性與更低的風險。」 「HPE一直是AMD攜手在高效能運算領域突破極限的關鍵合作夥伴,」AMD董事長暨執行長蘇姿丰博士表示,「透過『Helios』,我們將進一步深化合作,結合AMD的完整運算技術堆疊與HPE的系統創新,打造開放式的機架級AI平台,為AI時代的客戶實現卓越效率、出色的擴展性與突破性的效能。」 導入業界首創乙太網路架構一站式機櫃解決方案,加速 AI 部署落地 HPE將成為首批提供AMD Helios機架級解決方案的公司之一,大幅提升機架級AI的運算效能。此解決方案採用開放運算計畫(Open Compute Project, OCP)規格設計,針對電力供應、先進液冷與高維運性進行優化,以滿足次世代AI系統的需求。 ● 機架級效能:每個機櫃可連接72個AMD Instinct MI455X GPU,提供260TB/s的總縱向擴展頻寬與最高2.9 EFLOPS的FP4效能,以加速AI工作負載並支援大規模AI模型。此外,系統配備31TB的第四代高頻寬記憶體(HBM4)與1.4PB/s的記憶體頻寬,為嚴苛的AI與HPC工作負載提供充足的容量與資料傳輸效能。 ● 業界首款採用標準乙太網路且可縱向擴展的交換器與軟體:HPE擴展其「AI網路」(networks for AI)解決方案功能和範疇,推出專為AMD「Helios」AI機架級架構設計的全新縱向擴展乙太網路交換器與軟體,並與Broadcom攜手共同研發。此方案為業界首款可於標準乙太網路架構下,針對AI工作負載效能最佳化的縱向擴展交換解決方案。新方案整合HPE AI原生自動化與網路驗證 (AI-native automation & assurance)技術,協助客戶簡化網路維運流程,進而加速部署並降低成本。此縱向擴展解決方案與HPE現有的橫向擴展和跨區域擴展(scale-across)產品相輔相成,提供完整的「AI網路」產品線。 ● 開放式標準與創新:AMD「Helios」AI機架級架構基於OCP的Open Rack Wide(ORW)規格打造,採用雙寬度配置與節能省電的液冷技術,並針對長期維護需求進行優化。該架構採用開源的AMD ROCm軟體與AMD Pensando網路技術,加速創新並降低總擁有成本。乙太網路型的HPE Juniper Networking交換器採用開放且成熟的通訊標準,降低供應商綁定風險,並加快功能更新速度。 Broadcom與HPE攜手合作,聯合開發專為AMD「Helios」AI機架級架構打造的HPE Juniper Networking縱向擴展交換器,延續雙方多年來在開放式乙太網路技術深度合作的基礎,共同致力打造 AI 資料中心網路新標竿。此項合作旨在提供兼具擴充性、高效且具成本效益的網路解決方案,因應現代AI工作負載的需求。 「Broadcom很榮幸能參與這項合作,共同推動以開放式乙太網路為基礎的縱向擴展AI基礎架構,」Broadcom總裁暨執行長陳福陽表示。「我們的高效能晶片具備業界領先的超低延遲、卓越效能與無損網路能力,同時具備現代AI工作負載所需的擴展性與效率。透過與HPE及AMD的合作,我們協助客戶以標準乙太網路架構打造高效能AI資料中心,在兼顧規模擴充的同時,依然能保有更大的選擇彈性與部署靈活度。」 上市時程 HPE預計於2026年在全球推出AMD Helios AI Rack機架級解決方案。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
TrendForce: 傳統旺季與新品帶動,3Q25全球智慧手機產量季增9%
根據TrendForce最新調查,下半年手機市場迎來傳統旺季,加上品牌陸續發表新機,推升2025年第三季全球智慧手機生產數季增9%、年增7%,達3.28億支,季節性生產動能明顯成長。 TrendForce表示,第四季各旗艦品牌陸續發表新機,且有全球電商促銷備貨帶動,需求獲得支撐。然記憶體供應緊縮、價格上升,低階手機的獲利空間將先被壓縮,恐抵銷部分增長動能。TrendForce對2025年全年智慧手機產量預測為年增1.6%,不排除受記憶體影響再度下調全年預測。 觀察2025年全球主要智慧手機銷售區域表現,中國的補貼政策第一季明顯拉抬消費,隨後效益逐漸減弱,預估全年銷售將微幅年增2%,以23%市占穩居最大消費市場。印度以13%的市占名列第二,受惠需求回溫,年銷量將成長2%。第三大消費市場為北美,上半年品牌因應關稅提前備貨,下半年需求已放緩,預估全年銷售將年減1%,市占率為11%。 分析第三季主要品牌生產表現,Samsung產量近6,300萬支,季增約8%,以19%的市占維持第一名。其中價位Galaxy A系列持續走量,折疊機迭代後也獲市場正面回應,助益高階機種銷量。 Apple第三季手機產量約為5,700萬支,創歷年第三季最高,居第二名。其iPhone 17基本款「價格持平、容量升級」的策略成功,Pro系列外觀辨識度升級亦有助拉貨。Xiaomi(含Redmi、POCO)下半年藉新機發表、節慶備貨激勵出貨動能,第三季產量近4,500萬支,季增約6%,位居第三。 第四名的OPPO(含OnePlus及Realme)受惠於印度、東南亞和拉美市場銷售復甦,第三季生產數約4,000萬支,季增8%。Transsion(含TECNO、Infinix及itel)第三季成長動能主要來自非洲、亞洲的新興市場,產量突破2,900萬支,季增9%,排第五位。Vivo(含iQOO)的市占率和Transsion差距不到0.5%,旗下iQOO系列帶動中高階機種銷售,加上因應節慶需求積極備貨,第三季生產總數季增逾8%,約為2,800萬支。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
XPG 發表全新 ARMAX DDR5 系列電競記憶體 隱形戰機造型設計 助玩家馳騁無數遊戲戰役
全球記憶體模組及快閃記憶體領導品牌威剛科技旗下電競品牌 XPG ─ 專為電競高手、科技玩家與超頻達人量身打造高效能與酷炫設計的電競產品,為全球電競市場再次迎來重磅消息!今日發表全新 ARMAX DDR5 系列電競記憶體。設計靈感源自戰鬥機高速翱翔天際與捍衛領空的硬派外型,提供高達 6,400 MT/s 的效能。系列包含具備 RGB 炫光的 ARMAX RGB DDR5 與低調內斂的 ARMAX DDR5,旨在成為新世代玩家升級 DDR5 的最佳首選,與玩家共同征服所有遊戲戰役! 因應 SFF (Small Form Factor) 迷你主機的改裝熱潮,ARMAX DDR5 散熱片高度為 39.5mm,能閃避大型 CPU 散熱器或其他設備與線材,並輕鬆安裝於各式小型機殼。效能鎖定 6,000-6,400 MT/s 的新世代平台「效能甜蜜點」,採用嚴選 IC 並內建 PMIC 與 On-Die ECC,支援 Intel® XMP 3.0 與 AMD EXPO 簡易超頻,為玩家提供兼具效能、風格與絕佳相容性的完美體驗。XPG ARMAX DDR5 系列記憶體即日起於全球通路上市,並享有終身有限保固。 XPG ARMAX DDR5 系列設計具備高度辨識性,靈感源自於隱形戰機低調配色與流線造型,兼具科技感與現代感的尖端設計,採用 V 字形頂部導光柱設計,將視覺集中在散熱片中間的俯衝效果,提升產品外觀流線性和觀賞性。ARMAX RGB DDR5 版本支援 XPG PRIME 與各大主機板廠燈控軟體,讓玩家透過 RGB 打造個人化的戰鬥氛圍;而 ARMAX DDR5 則專注於低調沉穩的硬派美學,如同隱匿在黑夜中潛伏的隱形戰機,滿足不同玩家對風格的追求。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
混合專家架構驅動最智慧的前沿 AI 模型, 搭載 NVIDIA Blackwell NVL72 運行速度提升達十倍
● 目前最智慧的前 10 大開源模型,均採用混合專家(MoE)架構。 ●Kimi K2 Thinking、DeepSeek-R1、Mistral Large 3 等模型在 NVIDIA GB200 NVL72 上的運行速度可提升達 10 倍。 當今幾乎所有前沿模型在底層架構中,皆採用模擬人腦效率的混合專家(MoE)模型架構。 正如大腦會根據任務啟動特定區域,混合專家模型將工作分配給專門的「專家」,僅針對每個 AI 詞元啟動相關的專家。這使得詞元的產生速度更快、效率更高,而無需成比例地增加運算量。 業界已經認可這項優勢。在獨立的 Artificial Analysis(AA)排行榜上,排名前十的最智慧開源模型均採用混合專家架構,包括 DeepSeek AI 的 DeepSeek-R1、Moonshot AI 的 Kimi K2 Thinking、OpenAI 的 gpt-oss-120B,以及 Mistral AI 的 Mistral Large 3。 然而,在生產環境中擴展混合專家模型並保持高效能向來極具挑戰。NVIDIA GB200 NVL72 系統極致的協同設計,透過軟硬體的深度整合實現效能與效率的最大化,使混合專家模型的擴展變得實用且直覺。 在 Artificial Analysis 排行榜上被評為最智慧的開源模型 Kimi K2 Thinking 混合專家模型,在 NVIDIA GB200 NVL72 機架級系統上的運算效能,較 NVIDIA HGX H200 提升10倍。這項突破性成果奠基於 DeepSeek-R1 與 Mistral Large 3 混合專家模型所展現的效能表現之上,彰顯混合專家正逐步成為前沿模型的首選架構,以及 NVIDIA 的全端推論平台是釋放其完整潛能的關鍵。 直至近期,業界打造更智慧 AI 的標準做法是建立更大、更密集的模型,這些模型會使用所有模型參數來產生每個詞元,而以當今最強大的模型而言,通常包含數千億個參數。雖然這樣的方法很強大,但需花費龐大的運算能力和能源,因此難以擴展。 就像人腦依靠特定區域來處理不同的認知任務一樣,無論是處理語言、識別物體還是解決數學問題,混合專家模型由多個專門的「專家」組成,對於任何給定的詞元,只有最相關的專家會被路由器啟動。這種設計意味著,即使整個模型可能包含數千億個參數,產生單一詞元時僅需使用其中的一小部分,通常是數百億個參數。 混合專家模型會透過路由器,只啟用最相關的專家來生成每一個詞元。 透過選擇性使用最重要的專家,混合專家架構能夠在不增加運算成本的狀況下,實現更高的智慧和適應性,使其成為高效 AI 系統的基礎,得以最佳化每元和每瓦特的效能表現,讓投入的每一單位能源和資本,都能創造出更多的智慧產出。 基於這些優勢,混合專家因此迅速成為前沿模型的首選架構,今年超過 60% 的開源 AI 模型版本都採用混合專家架構。自 2023 年初以來,該架構使模型智慧提升近 70 倍,推進AI 能力的極限。 從2025年初起,幾乎所有的前沿模型都使用混合專家設計。 Mistral AI 共同創辦人暨首席科學家 Guillaume Lample 表示:「我們兩年前從 Mixtral 8x7B 開始,在開源軟體混合專家模型架構領域開展突破性成果,確保先進智慧技術能廣泛應用於各類場景,且兼具可用性與持續性。Mistral Large 3 的混合專家架構使我們能夠擴展 AI 系統,在大幅降低能耗和運算資源需求的同時,實現更高的效能和效率。」 最先進的混合專家模型,規模與複雜度都已遠遠超出單一 GPU 能力範圍。要讓這類模型順利運行,必須將眾多「專家」分散到多顆 GPU 上執行,也就是所謂的專家平行化(expert parallelism)。但即便是在 NVIDIA H200 這類強大平台上,部署混合專家模型時仍會遇到多種瓶頸,包括: ● 記憶體限制:每處理一個詞元,GPU 都必須從高頻寬記憶體(HBM)動態載入被選中的專家參數,導致記憶體頻寬承受頻繁且沈重的壓力。 ● 延遲:各個專家必須執行近乎即時的全互連(all-to-all)通訊模式來交換資訊,才能匯聚成最終完整答案。然而在 H200 上,當專家分散到超過八顆 GPU 時,就必須透過較高延遲的橫向擴展網路來通訊,進而限制了專家平行化所能帶來的效益。 解方是:極致協同設計(extreme codesign)。 NVIDIA GB200 NVL72 為機架級系統,內含 72 顆 NVIDIA Blackwell GPU,以單一 GPU的形式協同運作,提供 1.4 exaflops 的 AI 效能與 30TB 的高速共享記憶體。這 72 顆 GPU 透過 NVLink Switch 串接成單一、龐大的 NVLink 互連網狀架構,讓每顆 GPU 間都能以每秒130 TB 的 NVLink 連線頻寬互相通訊。 混合專家模型可以善用這樣的設計,將專家平行化擴展到過去難以達成的境界,將專家分散到多達 72 顆 GPU 上。 ● 降低每顆 GPU 上的專家數量:當專家被分散到最多 72 顆 GPU 上時,每顆 GPU 所承載的專家數量就能下降,進而降低各 GPU 高頻寬記憶體在載入參數時所承受的壓力。每顆 GPU 上的專家變少,也能釋放出更多記憶體空間,讓單一 GPU 能同步服務更多使用者,並支援更長的輸入長度。 ● 加速專家通訊:分布在不同 GPU 上的專家可藉由 NVLink 即時互相通訊。NVLink Switch 本身也具備足夠的運算能力,能處理部分整合多個專家資訊所需的計算,進一步加快輸出最終答案的速度。 其他全端最佳化同樣是釋放混合專家推論效能的關鍵。NVIDIA Dynamo 框架負責協調解耦式服務(disaggregated serving),將預填(prefill)與解碼(decode)任務分派到不同 GPU 上,讓解碼能搭配大規模專家平行化運行,而預填則採用更適合其工作負載的平行化技術。NVFP4 格式可在維持準確度的同時,進一步提升效能與能源效率。 NVIDIA TensorRT-LLM、SGLang 與 vLLM 等開源推論框架,都已支援這些混合專家模型最佳化。其中,SGLang 對於推進 GB200 NVL72 上的大規模混合專家發揮了顯著作用,協助驗證並完善今日廣泛採用的多項技術。 為了將這樣的效能帶給全球企業,GB200 NVL72 正由多家大型雲端服務供應商與 NVIDIA 雲端合作夥伴導入,包括 Amazon Web Services、Core42、CoreWeave、Crusoe、Google Cloud、Lambda、Microsoft Azure、Nebius、Nscale、Oracle Cloud Infrastructure、Together AI 等。 CoreWeave 共同創辦人暨技術長 Peter Salanki 表示:「在 CoreWeave,客戶正運用我們的平台,將混合專家模型導入生產環境,打造各式代理型工作流程。透過與 NVIDIA 的緊密合作,我們得以提供一個高度整合的平台,將混合專家效能、擴展性與可靠性集於一身。只有在專為 AI 而生的雲端環境中,才能做到這一點。」 DeepL 等客戶也正運用 Blackwell NVL72 機架級設計來建構並部署下一代 AI 模型。 DeepL 研究團隊主管 Paul Busch 表示:「DeepL 正使用 NVIDIA GB200 硬體來訓練混合專家模型,藉此在訓練與推論階段提升模型架構效率,在 AI 效能上樹立全新標竿。」 NVIDIA GB200 NVL72 能以高效擴展複雜的混合專家模型,在每瓦效能上實現 10 倍躍進。這不只是基準測試上的表現,而是能為即時、大規模 AI 工作負載帶來 10 倍的詞元產出效益,徹底改變受限於能源與成本的資料中心,在大規模AI部署下的經濟模式。 在 NVIDIA GTC Washington, D.C. 大會上,NVIDIA 創辦人暨執行長黃仁勳特別說明了 GB200 NVL72 如何在 DeepSeek-R1 模型上提供相較 NVIDIA Hopper 高出 10 倍的效能,而這樣的效能優勢同樣延伸到其它 DeepSeek 版本。 Together AI 共同創辦人暨執行長 Vipul Ved Prakash 表示:「結合 GB200 NVL72 與 Together AI 的客製最佳化,我們在像 DeepSeek-V3 這樣的大規模混合專家推論工作負載上,已能超越客戶預期。這些效能成長源自 NVIDIA 全端最佳化,再加上 Together AI Inference 在核心函式庫、執行階段引擎與推測解碼(speculative decoding)上的突破。」 被視為最智慧的開源模型之一的 Kimi K2 Thinking,則為另一個證明:在 GB200 NVL72 上部署時,其生成效能提升達 10 倍。 Fireworks AI 目前已在 NVIDIA B200 平台部署 Kimi K2,以在 Artificial Analysis 排行榜取得頂尖表現。 Fireworks AI 共同創辦人暨執行長 Lin Qiao 表示:「NVIDIA GB200 NVL72 機架級設計,讓混合專家模型服務的效率大幅提升。展望未來,NVL72 有潛力徹底改變我們服務超大規模混合專家模型的方式,相較 Hopper 平台帶來顯著的效能改善,為前沿模型的速度與效率樹立全新標竿。」 Mistral Large 3 在 GB200 NVL72 上,也較前一代 H200 平台實現了 10 倍的效能成長。這樣世代間的躍進,轉化為更佳的使用者體驗、更低的單詞元成本,以及更高的能源效率。 NVIDIA GB200 NVL72 機架級系統的設計,目標是在混合專家模型之外,同樣提供強大的 AI 效能。 觀察 AI 發展的方向即可理解原因:最新一代多模態 AI 模型通常包含專門處理語言、視覺、音訊與其他模態的組件,並只在當下任務需要時啟用相關組件。 在代理型系統中,不同「代理」則分別專精於規劃、感知、推理、工具使用或搜尋等工作,再由一個協調者整合它們的輸出,形成單一結果。這兩種情境的核心模式都與混合專家類似:將問題的各個部分導向最適合的專家,最後再協調並整合其輸出,產出最終結果。 當這個概念擴展到實際生產環境中,由多個應用與代理共同服務多位使用者時,就能解鎖全新的效率層級。與其為每個代理或應用分別複製一整套龐大 AI 模型,此方式能建立開放存取的共用專家池,將每一個請求導向最合適的專家。 混合專家是一種強大的架構,正推動產業邁向一個能力強大、效率與規模得以並存的未來。GB200 NVL72 今日已將這項潛力化為現實,而搭載 NVIDIA Vera Rubin 架構的未來產品藍圖,將持續拓展前沿模型的邊界。 想更深入了解 GB200 NVL72 如何擴展複雜混合專家模型,可參閱此篇技術深度解析。 本文屬於 Think SMART 系列,聚焦說明領先的 AI 服務供應商、開發者與企業,如何運用 NVIDIA 全端推論平台的最新進展,在實際應用中提升推論效能與投資報酬。 (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
十銓科技發表 TEAMGROUP PD40 迷你外接式固態硬碟 輕巧之姿融合高速效能 隨行儲存引領行動新潮
全球記憶體領導品牌十銓科技秉持創新精神,持續為消費者打造多元且可靠的儲存解決方案,今日宣布推出 TEAMGROUP PD40 迷你外接式固態硬碟,採用最新 USB4 Type-C 傳輸介面,讀取速度最高達 4,000 MB/s,兼具卓越效能與輕巧設計,將行動儲存體驗推向新層次,無論是高畫質影片、照片或大型檔案,都能在數秒內完成資料傳輸,滿足商旅人士與日常使用者對「高速」、「穩定」與「便攜」的多重需求。 TEAMGROUP PD40 迷你外接式固態硬碟以霧黑搭配深紅的配色,呈現具質感與俐落的設計美學;機身橡膠凹槽紋理兼顧手感與防滑效果,一體成型掛孔兼具時尚與實用,無論懸掛於背包或隨身攜帶,皆能靈活存取資料;僅 22 公克的輕量機身提供 1TB、2TB 與 4TB【1】 容量選擇,採用 USB4 Type-C 傳輸介面,相容多種 USB 3.2 及 USB 2.0 裝置,實現多裝置、多系統間的隨插即用,陪伴使用者自在掌握每一份重要資料與回憶。 TEAMGROUP PD40 迷你外接式固態硬碟提供 5 年保固,並具備 IP54 防塵與防潑水【2】 認證,配備 Type-C 接口矽膠蓋,可防止灰塵與水漬潑濺,進一步確保資料安全與產品耐用性,提供全天候的安心防護。詳細銷售資訊,敬請密切關注十銓科技於全球各大通路的最新消息。 【備註】 【1】 1GB = 1,000,000,000 位元組,1TB = 1,000,000,000,000 位元組。但由於部分容量用於格式化及系統功能,實際可用容量可能低於標示容量,且不同作業系統因單位換算方式不同,顯示容量可能有所差異。 【2】 依據外部實驗室測驗國際防護等級認證IEC 60529 IP54,經測試可防潑濺,且可部分防止灰塵侵入,前述為產品非運作狀態下。 【了解更多】 PD40 迷你外接式固態硬碟 (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
華碩智慧指揮中樞亮相 2025 醫療科技展 大秀人機協作新紀元
華碩以「Healthcare AI 引領智慧醫療 共築健康台灣」為主軸,於12月4日「2025台灣醫療科技展」盛大登場,內容涵蓋機器人協作、次世代數位醫療、醫療數據、AI 醫材、智慧醫材和先進醫學影像六大主軸,進一步強化智慧醫療生態系的整合與發展。華碩以AI技術為核心,全力協助全球醫療院所推動Healthcare 4.0數位轉型,共同實現「健康台灣」的願景。 華碩電腦營運長暨全球資深副總裁謝明傑表示:「今年,我們正式完成代理式AI與醫療場域使用的機器人開發,有效提升診斷效率與照護品質。透過創新解決方案,華碩正引領台灣醫療體系邁向更智慧、更精準、更以人本為核心的新紀元。」 面對全球醫療人力短缺與高齡化挑戰,全台首創智慧指揮中樞 Maestro,以「自動化流程」減輕第一線醫護負擔。Maestro的核心技術在於結合 AI運算、機器人調度與資料串接,並整合類人形機器人 Zenbo Jr. II、服務型機器人 Kairo、跨載具虛擬人 Sage等,可即時理解任務內容,調度最適合的機器人執行,且自動支援導引、諮詢、衛教、數據採集等大量非臨床任務,讓醫護得以專注臨床決策與人文關懷。 Maestro 亦能延伸至院外照護應用,串接 Zenbo Jr. II、醫院既有的 HIS/NIS 以及 OmniCare+ 遠距健康數據管理平台,將出院後的健康追蹤、提醒與衛教納入同一流程中,讓照護得以從院內、社區到家庭無縫銜接,提升整體醫療效率。 透過與各級醫療院所的密切合作,華碩成功跨出整合式系統串接的第一步。今年第四季,華碩智慧醫療資訊平台 ASUS xHIS® 於新北市立聯合醫院正式落地,成為全台首家採用次世代標準的智慧醫院。新北市立聯合醫院項正川院長表示:「與華碩合作導入次世代HIS,是新北聯醫邁向智慧醫療的重要里程碑。」該平台整合門診、急診與住院核心系統,串接跨院區多專科資料,結合智慧醫令、病歷書寫與決策輔助功能,顯著提升診療效率與病人安全。 此外,華碩攜手臺北榮總啟用智慧病歷助手 (ASUS Clinical AI Assistant),透過大語言模型 (LLM) 自動生成專業且符合醫院格式的病歷草稿,節省醫師的文書時間,更專注於臨床照護與決策。臺北榮民總醫院李偉強副院長表示:「透過華碩團隊的協助,我們期望在生成式 AI 導入後,能系統性改善臨床紀錄流程,也將分階段擴展使用情境,實現更智慧、更高效的臨床環境。」未來將結合語音輸入、異常偵測等功能,藉由AI 即時運算,提供臨床決策支援、跨科資訊整合等更全面的應用。 華碩內視鏡 AI 解決方案 EndoAim,以最先進的深度學習與電腦視覺技術為核心,於腸胃鏡檢查中即時偵測息肉、進行分類,並搭載全球首創、無須額外器具的一鍵息肉尺寸量測技術,大幅提升診斷準確性。根據多篇臨床文獻,導入 AI 可有效提升 ADR(腺瘤檢出率)至少約 14%,協助醫護即早發現潛在風險。 EndoAim 已全面導入台灣近60 家醫療院所,穩坐國內市場第一,包含:臺大醫院、亞東醫院、中國醫藥大學附設醫院、高雄榮民總醫院等多家醫學中心,基層診所也持續跟進,讓民眾在各級醫療機構皆能享有高品質的智慧醫療服務。EndoAim 也同步加速國際布局,目前已成功於海外有多家醫療院所導入,成為華碩醫療 AI 技術邁向全球的重要里程碑。 手持超音波再添AI新功能 助力臨床高效決策 華碩手持無線超音波LU800聚焦自動量測、智慧流程與影像優化三大方向,已累積16項AI輔助功能。包含此次推出的「Auto Tissue」及與急診、加護病房必備的「Auto IVC」兩大AI新功能;「Auto Tissue」可在肌肉骨骼掃瞄中快速辨識組織分層,取得關鍵指標;「Auto IVC」能自動進行下腔靜脈量測,提供IVC直徑與塌陷率參考數據,提升診斷效率,縮短急救流程,展現臨床上的高效價值。 本次展覽首度亮相的華碩攜帶式超音波EchoLab,具備優異的影像畫質外,系統更內嵌免程式編碼平台與同步多訊號擷取技術(包含 RF raw data、外部時序控制埠等),為診所、醫院、研究機構打造一站式超音波掃描與 AI 推論環境。當臨床掃瞄、資料擷取到AI模型開發與驗證皆可在同一超音波系統上無縫完成時,即使醫護團隊不具備工程背景也能建立客製化專屬AI 模型,加速智慧醫療在第一線的落地與創新。 華碩與Fujifilm攜手合作,結合Micro LED顯示器與Fujifilm Synapse 3D 進階醫學影像分析平台,透過華碩高亮度與廣色域、點距僅0.93mm的81吋Micro LED顯示器,呈現 3D 影像重建、器官分割與手術規劃等關鍵資訊。Synapse 3D 搭載ReiLI AI技術,協助從醫學影像中自動辨識並呈現關鍵解剖結構。系統內含超過 50 種專業模組,涵蓋放射科、胸腔科、肝膽外科、移植外科、心臟科與泌尿科等多個領域,可支援術前規劃流程及行動裝置查看,提升臨床工作效率,為醫師提供更完善的影像資訊參考。這項跨界合作將深化臨床影像應用,成為數位醫療轉型的解決方案。首次展出的 MA2482A 醫療顯示器具備23.8吋、八百萬畫素高解析度與2000尼特高亮度,符合 DICOM Part 14 標準,還具備低反射抗眩光技術與內建校色器,可自動做色彩校正,確保醫學影像的真實性與穩定性,並預計在2026年底取證FDA、TFDA與EU MDR醫療器材許可證。 從數據到行動 華碩健康精靈打造專屬健康旅程 現場亦展示華碩健康錶全新的AI功能「華碩健康精靈」(ASUS HealthAI Genie),運用生成式AI將手錶搜集到的個人數據與醫學文獻進行比對分析,將數據轉化為行動目標,提供衛教資訊、活動指引及對話式健康諮詢,完成「健康狀態」與「建議方案」之間的最後一哩路,以貼心、直覺的方式落實個人健康管理。華碩健康小站與全家便利商店、桂冠實業合作推出「全家健康生態圈」,在展區設置體驗站,展現為長者提供的一站式健康管理與社區照護服務。 (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
點亮文青桌面美學!ASUS Jelly75撞色鍵盤玩出新氣氛
隨著混合辦公與掌機遊戲熱潮延燒,消費者對於桌面周邊的「顏值」與「功能性」需求快速提升,市場成長動能亮眼。為回應這股趨勢,華碩推出兩款全新周邊——好看又好打的ASUS Jelly75無線機械式鍵盤KD201,以及專為遊戲掌機打造的ROG Bulwark電競擴充基座 DG300。兩款新品皆以高相容性與精緻設計為核心,無論工作、娛樂或混合情境,都能帶來更舒適、沉浸的使用體驗。 華碩首款機械式鍵盤Jelly75,以罕見的撞色設計登場,帶來「曠野橙」與「電流綠」兩款設計,並以具辨識度的空白鍵與Esc鍵強化視覺層次。2.4GHz、USB與藍牙三模連線,最多可連接五台筆電、桌機與平板等裝置;配備專屬系統鍵,一鍵快速切換Windows與macOS系統裝置,提升便利性。採用Gasket結構,能有效吸收震動與按鍵敲擊聲,提供彈性且低噪音的打字手感。4段可調式白色背光,在辦公情境中能減緩視覺疲勞。高度耐用的鍵軸擁有最高5,000萬次點擊壽命與穩定的防滑PC鍵帽,加上熱插拔設計,可依個人偏好更換機械鍵軸(需自行購買);使用Type-C可充電電池,擁有長效續航電力及可靠的效能。建議售價:NT$3,090。 被譽為掌機「最強神隊友」的ROG Bulwark電競擴充基座DG300,據統計有超過三成ROG Xbox Ally玩家選擇搭購。輕巧便攜的7合1擴充設計,具備強大的影像輸出能力,透過HDMI 2.1連接,即享有最高8K 30Hz或4K 144Hz的超高解析度輸出,將掌機畫面投射至大螢幕,呈現流暢無損的極致視覺饗宴,滿足玩家對3A大作細膩畫質的嚴苛要求。翻蓋式設計結合防滑底座,隨時調整至最舒適的觀看角度;基座頂部搭載的「無懼之眼」支援Aura Sync RGB同步燈效,能與其他ROG裝置連動,展現個人專屬電競風格。隨盒附贈ROG 25cm USB® 90度連接線,有效解決線材彎折與耗損的痛點。無論是想提升掌機遊戲臨場感,或打造成桌機級戰鬥基地,ROG Bulwark電競擴充基座DG300都能提供絕佳穩定的體驗。建議售價:NT$4,290。 (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
AMD與HPE擴大合作,攜手推進開放式機架級AI基礎設施
HPE將成為首批採用AMD “Helios”架構的OEM合作夥伴之一,此架構為專為大型AI工作負載設計的開放式全堆疊AI平台。 · HPE將與博通合作,在「Helios」中運用專屬的HPE Juniper Networking交換器,為大規模AI叢集提供高頻寬、低延遲的連接能力。 · AMD與HPE將共同為「Herder」超級電腦挹注動能,此超級電腦搭載AMD Instinct™ MI430X GPU與新一代AMD EPYC™ “Venice” CPU,並基於HPE Cray GX5000平台,旨在推動歐洲各地的高效能運算與主權AI研究。 AMD (NASDAQ: AMD)宣布與HPE擴大合作,攜手加速導入搭載AMD頂尖運算技術的新一代開放式可擴充人工智慧(AI)基礎設施。HPE將成為首批採用AMD “Helios”機架級AI架構的系統供應商之一,此架構將整合與博通(Broadcom)合作開發的專屬HPE Juniper Networking擴充型交換器及軟體,以實現在乙太網路上無縫且高頻寬的連接能力。 「Helios」整合AMD EPYC™ CPU、AMD Instinct GPU、AMD Pensando 先進網路技術以及AMD ROCm™開放式軟體堆疊,提供具備最佳化效能、效率與可擴充性的整合式平台。該系統旨在簡化大規模AI叢集的部署,從而加快解決方案的交付速度,並提高研究、雲端與企業環境的基礎設施靈活性。 AMD董事長暨執行長蘇姿丰博士表示:「HPE一直是AMD重要的長期合作夥伴,與我們攜手重新定義高效能運算(HPC)的無限可能。透過『Helios』,我們將進一步深化合作,匯聚AMD完整的運算技術堆疊與HPE的系統創新,提供一個開放式機架級AI平台,為AI時代的客戶帶來全新等級的效率、可擴充性與突破性效能。」 HPE總裁暨執行長Antonio Neri表示:「十多年來,HPE與AMD持續突破超級運算的界限,交付了多個Exascale等級系統,並倡導加速創新的開放標準。隨著全新AMD “Helios”以及專屬的HPE擴充型網路解決方案問世,我們正為雲端服務供應商客戶提供更快的部署速度、更高的靈活性,並降低其業務中擴展AI運算的風險。」 AMD “Helios”機架級AI平台每個機架可提供高達2.9 exaFLOPS的FP4效能,採用AMD Instinct MI455X GPU、新一代AMD EPYC “Venice” CPU與適用於向外擴展(scale-out)網路的AMD Pensando Vulcano NIC,透過開放的ROCm軟體產業體系整合,為AI與HPC工作負載帶來靈活性與創新。 「Helios」基於OCP Open Rack Wide設計,能協助客戶與合作夥伴簡化部署時程,並為嚴苛的AI工作負載提供可擴充、靈活的解決方案。 「Helios」讓HPE能夠為其客戶整合差異化技術,特別是專為「Helios」設計的擴充型乙太網路交換器及軟體。此交換器與博通合作開發,藉由採用UALoE標準,為AI工作負載提供最佳化效能,進一步強化AMD對開放式標準技術的承諾。 HPE將於2026年在全球推出AMD “Helios” AI機架級架構。 德國斯圖加特大學高效能運算中心(HLRS)的全新Herder超級電腦搭載AMD Instinct MI430X GPU與新一代AMD EPYC “Venice” CPU。基於HPE Cray Supercomputing GX5000平台打造,Herder將為大規模HPC與AI工作負載提供世界級的效能與效率。結合AMD領先業界的運算產品組合與HPE久經考驗的系統設計,Herder將為歐洲研究人員與企業的主權科學發現及工業創新創造強大的新工具。 HLRS主任Michael Resch教授表示:「AMD Instinct MI430X GPU與EPYC處理器結合HPE GX5000平台,對HLRS而言是一個完美的解決方案。我們的科學使用者社群希望我們持續支援HPC在數值模擬的傳統應用。同時,我們也看到人們對機器學習與人工智慧的興趣日益濃厚。Herder的系統架構將使我們能夠同時支援機器學習與人工智慧,並讓使用者能夠開發並受益於新型的混合式HPC/AI工作流程。此平台不僅能讓我們的使用者運行更大規模、更強大的模擬,從而帶來令人振奮的科學發現,更能開發更有效率的運算方法,這些方法只有透過新一代硬體所提供的運算能力才得以實現。」 Herder預計於2027年下半年交付,並預計於2027年底前投入使用。Herder將取代HLRS目前的旗艦型Hunter超級電腦。 (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Android 16 帶來更多功能更新
這次 Android 的更新模式也迎來重要轉變,從過去一年一次的大型更新慣例,改為更頻繁的發布。只要新功能準備就緒,使用者就能在第一時間體驗最新應用。一起來看看這次的更新重點: 協助使用者保持專注 通知功能雖然能讓我們即時掌握資訊,但過多可能反而讓人分心,甚至感到疲乏。我們推出了兩項全新的智慧功能,協助你過濾不必要的干擾,將注意力保留給當下最重要的人事物。 • AI 通知摘要: 這項功能可以自動濃縮冗長的訊息和群組聊天內容,使用者在鎖定螢幕上一眼就能掌握重點與脈絡,大幅節省閱讀時間。 • 通知整理功能: 系統會自動辨識並把次要通知進行分類或靜音(例如:促銷活動、新聞推播和社群動態等),讓使用者更能專注處理手邊的事情。 我們持續協助家長,引導孩子與青少年建立健康的數位使用習慣。透過 Android 設定中的全新「家長安全監護」選項,家庭成員現在可以透過統一整合的入口,輕鬆使用內建的裝置管理功能與 Google Family Link。 這項功能受到 PIN 碼的安全保護,讓你可以直接管理孩子裝置上的相關設定: • 設定每日使用上限: 規劃裝置每天可使用的時數,協助建立良好的使用習慣。 • 安排休息時間: 在特定時段(例如:晚上就寢時間)設定自動鎖定裝置,確保孩子擁有不受干擾的優質睡眠。 • 管理應用程式: 針對特定應用程式設定使用時間限制,或完全限制使用。 • 彈性延長時間: 當設定的使用時間快要結束時,家長可以彈性延長使用,或延長原本設定的休息時間。 「設定」選項中的家長監護功能 1 也整合了 Google Family Link 的設定捷徑。家長可以透過自己的手機,在 Family Link 應用程式 2設定更多進階功能,像是上課時間、應用程式購買要求核准和位置快訊等。 透過「畫圈搜尋」,你可以輕鬆搜尋螢幕上看到的任何內容,包括那些可疑的詐騙資訊。 這項功能將結合來自網路的資訊與 AI 摘要(AI Overview),協助判斷內容是否可能涉及詐騙,並提供相關指引與建議步驟。你不需要切換應用程式或中斷目前的瀏覽體驗,就能直接辨識潛在風險,提升數位安全。 現在,你可以在 Android 手機的 Chrome 瀏覽器中使用「固定分頁」功能。無論是每日必讀的文章,或是正在規劃的旅遊行程,你都可以輕鬆把它們固定在瀏覽器的最前方。讓你隨時都能輕鬆接續上次的瀏覽進度,不用再從眾多分頁裡面反覆翻找想要的資訊。 以上是本次更新的部分內容,Android 16 還推出了外接顯示器功能,讓你可以把手機、摺疊機或平板電腦連接至外接螢幕,滿足你的生產力需求,或是與親友分享自己裝置上的畫面。從今天開始,符合條件的 Pixel 裝置將陸續收到更新通知。 本文作者:Android 平台產品管理與使用者體驗副總裁 Mindy Brooks [1]:在設定中的「家長監護」功能僅支援 Android 16 以上版本的 Pixel 手機與平板電腦。 [2]:Google Family Link 適用於 Android 5.0 以上版本的 Android 裝置,以及 iOS 11 以上版本的 iPhone。使用 Family Link 需為未滿 13 歲(或當地規定年齡)孩童建立受監護的 Google 帳戶。 (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
NVIDIA 與 AWS 擴大全端合作關係,提供未來創新必備的安全高效能運算平台 AWS 將 NVIDIA NVLink Fusion 整合至其客製化晶片, 包括次世代 Trainium4 晶片、Graviton 與 AWS Nitro System
在 AWS re:Invent 大會上,NVIDIA 與 Amazon Web Services(AWS)進一步擴大雙方策略合作,在互連技術、雲端基礎架構、開放模型及物理人工智慧(AI)等領域開展全新技術整合。 做為此次擴大合作的一部分,AWS 將支援 NVIDIA NVLink Fusion 這個專為客製化 AI 基礎架構打造的平台,用於部署其自研晶片,其中包括用於推論與具代理型 AI 模型訓練的次世代 Trainium4 晶片、涵蓋廣泛工作負載的 Graviton CPU,以及 Nitro System 虛擬化基礎架構。 藉由採用 NVIDIA NVLink Fusion,AWS 將結合 NVIDIA NVLink 垂直擴展互連技術、 NVIDIA MGX 機架架構與 AWS 客製化晶片,以提升效能並加速其新一代雲端規模 AI 能力的上市時程。 AWS 正以整合 NVLink 與 NVIDIA MGX 為目標設計 Trainium4,這是 NVIDIA 與 AWS 針對 NVLink Fusion 展開多世代長期合作中的第一步。 AWS 已經大規模部署搭載 NVIDIA GPU 的 MGX 機架。導入 NVLink Fusion 將使 AWS 能進一步簡化各平台的部署與系統管理。 AWS 也可以運用 NVLink Fusion 供應商生態系,取得從機架與機箱到電力供應與冷卻系統等完整元件,滿足整機架部署所需。 透過支援 AWS Elastic Fabric Adapter與 Nitro System,AWS 上的 NVIDIA Vera Rubin 架構將在維持與 AWS 雲端基礎架構完全相容的同時,為客戶提供更強大的網路選項,加速全新 AI 服務的推出。 NVIDIA 創辦人暨執行長黃仁勳表示:「GPU 運算需求正急遽攀升。更多的運算造就更聰明的 AI,更聰明的 AI 帶動更廣泛的應用,而更廣泛的應用又帶動對更多運算的需求,AI 的良性循環已經成形。隨著 NVIDIA NVLink Fusion 導入 AWS Trainium4,我們正把NVIDIA垂直擴展架構與 AWS 的客製化晶片整合,打造新一代加速運算平台。NVIDIA 與 AWS 正攜手打造支撐 AI 產業革命的運算基礎,將先進 AI 帶到世界各國的每一家企業,加速世界邁向智慧化。」 AWS 執行長 Matt Garman 表示:「AWS 與 NVIDIA 攜手合作已超過 15 年,如今這段旅程再寫下新的里程碑。透過與 NVIDIA 合作,我們正推進大規模 AI 基礎架構,為客戶帶來更高的效能、效率與擴充性。未來在 AWS Trainium4、Graviton 與 Nitro System 上支援 NVIDIA NVLink Fusion,將為客戶提供全新能力,讓他們能以前所未有的速度創新。」 AWS 透過包括 NVIDIA HGX B300 及 NVIDIA GB300 NVL72 GPU 在內的 NVIDIA Blackwell 架構,擴充其加速運算產品組合,讓客戶能立即使用業界最先進的訓練與推論 GPU。為視覺應用打造的 NVIDIA RTX PRO 6000 Blackwell 伺服器版本 GPU 也預計在未來數週於 AWS 上提供。 這些 GPU 將成為 AWS 基礎架構的支柱一部分,為全新 AWS AI Factories 服務提供動能。AWS AI Factories 是一項全新 AI 雲端服務,將在由 AWS 代管的客戶自有資料中心中,提供專用的基礎架構,協助全球客戶掌握先進 AI 服務與能力,同時維持對自身資料的掌控權並遵循各地法規。 NVIDIA 與 AWS 承諾在全球部署主權 AI 雲,將最先進的 AI 創新帶給世界各地。隨著 AWS AI Factories 上線,雙方將提供安全且符合主權要求的 AI 基礎架構,在滿足日益嚴格的主權 AI 規範同時,為全球各類型組織帶來前所未有的運算能力。 對公部門機構而言,AWS AI Factories 將重塑美國聯邦級高效能運算與 AI 版圖。採用 AWS AI Factories 的客戶,將能把以可靠性、安全性與可擴展性著稱的 AWS 業界領先雲端基礎架構與服務,與 NVIDIA Blackwell GPU 及涵蓋 NVIDIA Spectrum-X 乙太網路交換器在內的 NVIDIA 全端加速運算平台無縫整合。 這套統一的架構可確保客戶在維持對專有資料的完全掌控並完全遵循在地監管框架的前提下,存取先進 AI 服務與能力,並訓練與部署超大規模模型。 除硬體方面外,此次合作也擴大了 NVIDIA 軟體堆疊與 AWS AI 生態系的整合。NVIDIA Nemotron 開放模型現已整合至 Amazon Bedrock,協助客戶建置生產級生成式 AI 應用與智慧代理。開發者可使用 Nemotron Nano 2 與 Nemotron Nano 2 VL,打造以高效率、高精準處理文字、程式碼、影像與影片的專用代理型AI 應用。 此次整合讓高效能的 NVIDIA 開放模型可以在Amazon Bedrock 的無伺服器平台上立即存取,客戶仰賴其經驗證的擴充性與零基礎架構管理能力。業界領導廠商 CrowdStrike 與 BridgeWise 已率先採用這項服務部署專用 AI 智慧代理。 NVIDIA 與 AWS 也在軟體層共同開發,加速每一家企業的資料支柱。Amazon OpenSearch Service 現已提供向量索引建置的無伺服器 GPU 加速能力。這是以 NVIDIA cuVS這套用於 GPU 加速向量搜尋與資料分群的開源函式庫。這項里程碑標誌著非結構化資料處理開始根本性轉向 GPU。早期採用者已看到向量索引速度最高提升 10 倍,同時成本降至原先的四分之一。 這樣顯著的效能提升,透過在正確時間提供剛好所需的 GPU 運算能力,降低搜尋延遲、加快寫入速度,並讓檢索增強生成(RAG)等動態 AI 技術能以更高生產力運作。AWS 也是首家提供結合 NVIDIA GPU 的無伺服器向量索引服務的大型雲端供應商。 要打造可投入實際運行的 AI 智慧代理,必須具備效能可視化、最佳化能力與可擴展的基礎架構。結合用於代理開發與協調的 Strands Agents、用於深度剖析與效能調校的 NVIDIA NeMo Agent Toolkit,以及提供安全且可擴展代理基礎架構的 Amazon Bedrock AgentCore,企業即可為開發者提供從原型到量產部署的完整且可預期路徑。 這項支援的擴充建立在 AWS 既有的 NVIDIA 技術整合基礎上,包括 NVIDIA NIM 微服務,以及 NVIDIA Riva 與 NVIDIA BioNeMo 等框架,同時也涵蓋已與 Amazon SageMaker 與 Amazon Bedrock 整合的模型開發工具。透過這些整合,企業能以前所未有的速度部署代理型AI、語音 AI 與科學應用。 發展物理 AI 需要高品質且多樣化的資料集來訓練機器人模型,同時也仰賴在實際部署前,透過模擬環境進行測試與驗證的框架。 NVIDIA Cosmos 世界基礎模型(WFM)現已在 Amazon EKS 上以 NVIDIA NIM 微服務形式提供,可在雲端原生架構下,以高可靠性支援即時機器人控制與模擬工作負載。針對大量批次任務與離線工作負載,例如大規模合成資料產生,Cosmos WFM 也能在 AWS Batch 上以容器方式提供。 Cosmos 生成的世界狀態可搭配 NVIDIA Isaac Sim 與 Isaac Lab 等開源模擬與學習框架,用於訓練與驗證機器人。 包括 Agility Robotics、Agile Robots、ANYbotics、Diligent Robotics、Dyna Robotics、Field AI、Haply Robotics、Lightwheel、RIVR 與 Skild AI 等領先機器人公司,正透過 NVIDIA Isaac 平台結合 AWS,應用於多種情境,從機器人資料的收集、儲存與處理,到訓練與模擬,以擴展機器人開發規模。 NVIDIA 今年獲頒 AWS Global GenAI Infrastructure and Data Partner of the Year 大獎,印證雙方多年持續合作的成果。此獎項表揚具備生成式 AI 能力、並在多種型態與格式上支援向量嵌入、資料儲存與管理,或合成資料產生的頂尖技術合作夥伴。 如欲進一步了解 NVIDIA 與 AWS 的合作內容並參與相關議程,歡迎於 12 月 5 日(星期五)前參加於美國拉斯維加斯舉行的AWS re:Invent 大會。 (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
最多人點閱
- Microsoft Azure Certified for IoT 快速打造智慧物聯網
- SP廣穎電通將於德國2015 Embedded World展示全方位工控系列產品
- IEM於台北國際電玩展熱血開打,購買Intel Core i5/i7處理器系列+SSD 750即得限量好禮
- AMD發表全球首款GPU硬體虛擬化產品線
- 希捷科技:2016年六大科技趨勢
- InWin 805 NVIDIA EDITION機殼爆紅,迎廣GeForce GTX特仕版機箱正式開賣!
- 2024開學季筆電選購指南: 10大熱銷筆電推薦榜
- Windows 10 搭載 Office 版本聲明稿 Office Mobile 、 Office 2016 與 Office 365 版本差異說明
- Lenovo聯想持續拓展伺服器市場,瞄準中型企業推出ThinkServer系列伺服器
- 你的人生「升級」了沒?倒數十天!Windows 10開闊你的無限視野
- AMD勇奪精簡型電腦市場第一龍頭寶座!
- Radeon繪圖技術事業群宣佈最新的視覺顯示技術