AI PC 人工智慧 神兵利器
-
2023 Lenovo TW Accelerate 通路展望大會 鎖定「AI商機」 攜手合作夥伴共創新未來
Lenovo自2020年推動「以服務為導向」的轉型策略,結合軟硬體與服務,提供一站式的整合解決方案,目標協助提升各行各業落實數位轉型。Lenovo於今日舉辦2023 Lenovo TW Accelerate通路展望大會,邀請超過70家跨領域夥伴共同探討科技創新,攜手AMD、 台灣微軟及NVIDIA,鎖定AI人工智慧熱門議題,共創科技生態圈,並展現Lenovo在企業解決方案、邊緣運算至雲端應用、綠色科技等成果,強化Lenovo與夥伴間的合作,攜手推動台灣產業的創新前行。 Lenovo作為全球個人電腦領導品牌,持續為企業及終端消費者推出高品質的硬體設備,然而隨著科技日益智慧化與高度整合,Lenovo踏上「以服務為導向」的轉型之路,銷售硬體裝置的同時,綁定具有高附加價值的軟體服務,成為整合式解決方案供應商。以近期掀起熱潮的AI人工智慧為例,透過機器學習可大幅優化企業營運流程,因此最新研究指出,高達43%的企業資訊長認為部署AI人工智慧是當務之急1,同時約有九成 (87%)的員工認為 AI能有效協助他們維持生產力。 Lenovo ThinkEdge邊緣運算伺服器便是AI技術的第一步,透過蒐集即時資料結合AI軟體分析,Lenovo的服務如今已經成功運用在智慧城市發展、零售及廠房管理等領域。 舉例來說,Lenovo在西班牙巴塞隆納街頭設置邊緣運算設備,有效串聯車輛、基礎設施和行人,並可即時分享資訊、控制紅綠燈、降低車輛耗能,助城市減少空污並減少交通問題。此外,邊緣運算還可以提供旅遊資訊,讓巴塞隆納的遊客服務更加完整。Lenovo Edge AI伺服器也在美國連鎖超市Kroger協助監控自助結帳異常,可同時處理 20 個高解析度攝影機影像的 Lenovo AI 伺服器能即時處理影像數據,若有商品未被正確掃描,系統會在結帳螢幕跳出善意提醒,遠端解決問題。 混合辦公模式已成主流,許多企業正在尋求符合業務需求的客製化IT解決方案。為此Lenovo SSG方案服務業務集團推出全新「數位化辦公解決方案Digital Workspace Solutions(DWS)」,結合多種智慧工具與系統,提供專屬的數位化辦公建議服務和技術支援,以此提升安全性、工作效率與員工滿意度,協助企業管理層達成重要績效表現,滿足現代工作領域以及未來商務的需求。 Lenovo以員工需求為考量,結合其豐富的產品組合與完整的端對端服務,數位化辦公解決方案(DWS)可應用至所有 IT 環境和處於不同轉型階段的企業,並包含六大關鍵服務,數位化辦公建議服務、個人化技術配置、協作與生產力、終端統一管理、新一代員工服務支援平台(Service desk)以及安全性。網路安全作為企業資訊長認為當前最迫切需要處理的任務,因此Lenovo在通路展望大會現場展出了旗下的ThinkShield資安解決方案,搭配UEM 統一端點管理解決方案,呈現Lenovo如何為企業量身打造、建置完整的辦公環境,滿足對端點資訊安全的需求,進一步增強品牌競爭優勢。 此次通路展望大會邀請到AI新創夥伴分享科技生態圈在AI時代的策略佈局;更是在現場攤位呈現了ThinkEdge 邊緣運算全系列產品並攜手ISV(獨立軟體供應商)展出台灣AI新創的視覺運算技術與數據應用,提供現場夥伴獨特的互動體驗。同時,現場也展示Lenovo商用家用全新系列筆電、全新Aston Martin聯名工作站等創新硬體,以及最新的Motorola摺疊新機。ESG方面,本次通路展望大會Lenovo展示了相關的目標以及成果,並帶來了充滿活力的創新和洞見。Lenovo將齊全的產品組合、IT技術支援人員和平台全方位整合,推出了全面升級的Lenovo 360通路架構,除了一站式的銷售管道提升了效率和滿意度,更提供Lenovo 360的核心教育訓練,增強產品專業知識、幫助通路夥伴更瞭解其顧客,帶來更大的靈活性以及業績成長。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
Google Cloud與NVIDIA擴展合作夥伴關係,推動人工智慧運算、軟體和服務的進步
Google Cloud與NVIDIA今日宣布推出新的人工智慧基礎架構和軟體,提供客戶建立和部署大規模的生成式人工智慧模型,並加速資料科學工作負載。 在Google Cloud Next的一場爐邊對談中,Google Cloud 執行長 Thomas Kurian與NVIDIA創辦人暨執行長黃仁勳討論了這個合作夥伴關係如何將端到端的機器學習服務帶給全球最大型的人工智慧客戶,包括在基於 NVIDIA 技術建構的 Google Cloud 服務中,使運行人工智慧超級電腦變得更加容易。新的軟硬體整合使用了過去兩年來Google DeepMind和Google研究團隊所使用的相同NVIDIA技術。 黃仁勳表示:「我們正處於一個加速運算和生成式人工智慧相結合的轉折點,以前所未有的速度推動創新。我們與Google Cloud的擴大合作將幫助開發人員加速他們在基礎架構、軟體和服務等方面的工作,從而提高能源效率並降低成本。」 Kurian表示:「Google Cloud在人工智慧創新方面有著悠久的歷史,旨在促進和加速我們客戶的創新。許多Google 產品都是基於NVIDIA GPU 建構和提供服務的,我們許多客戶正在尋求 NVIDIA 的加速運算,以高效開發大型語言模型,從而推動生成式人工智慧的發展。」 Google用於建立大型語言模型(LLM)的框架PaxML,現已經優化以支援NVIDIA加速運算。 PaxML 最初是為了跨越多個 Google TPU 加速器切片而構建的,現在使開發人員能夠使用 NVIDIA® H100 和 A100 Tensor Core GPU 進行先進且完全可配置的實驗和規模。NVIDIA NGC™軟體目錄中即刻起提供GPU優化的PaxML容器。 此外,PaxML 在 JAX 上運行,JAX 已針對利用 OpenXLA 編譯器的 GPU 進行了優化。 Google DeepMind和其他Google研究人員是首批使用PaxML與NVIDIA GPU進行探索性研究的團隊。 NVIDIA NGC 容器登錄服務中將立即提供用於PaxML的NVIDIA優化容器,提供全球正在構建新一代人工智慧應用的研究人員、新創公司和企業使用。 此外,兩家公司還宣布Google透過Google Dataproc服務將無伺服器Spark與NVIDIA GPU整合。這將幫助資料科學家加速Apache Spark的工作負載,以準備進行人工智慧開發所需的資料。 ● Google Cloud將在由NVIDIA H100提供動力的A3虛擬機器上運行 — Google Cloud今天宣布其以NVIDIA H100 GPU提供動力、專門構建的Google Cloud A3虛擬機器將在下個月正式推出,使NVIDIA人工智慧平台更易用於廣泛的工作負載。與前一代相比,A3虛擬機器的訓練速度提高了3倍,網路頻寬也有顯著的提升。 ● NVIDIA H100 GPU 為 Google Cloud 的Vertex 人工智慧平台提供動力 — 預計未來幾週內,在 VertexAI上將普遍可用H100 GPU ,使客戶能夠快速開發生成式人工智慧大型語言模型。 Google Cloud將可使用NVIDIA DGX GH200 — Google Cloud將成為世界上首批能夠使用NVIDIA DGX GH200 人工智慧超級電腦的公司之一,該超級電腦搭載了NVIDIA Grace Hopper 超級晶片,可用於探索其在生成式人工智慧工作負載方面的能力。 ● NVIDIA DGX Cloud將於Google Cloud上運行 — NVIDIA DGX Cloud 人工智慧超級運算和軟體將可供客戶直接從網頁瀏覽器中使用,以提供高速和大規模的進階訓練工作負載。 Google Cloud Marketplace上提供NVIDIA AI Enterprise — 使用者能使用NVIDIA AI Enterprise,它是一個安全的雲端原生軟體平台,可簡化開發和部署企業級應用程式,包括生成式人工智慧、語音人工智慧、電腦視覺等等。 ● Google Cloud率先提供NVIDIA L4 GPU — 今年稍早,Google Cloud隨著G2 虛擬機器的推出,成為首家提供NVIDIA L4 Tensor Core GPU的雲端服務供應商。當客戶從CPU切換至L4 GPU以處理人工智慧影片工作負載,可提升高達120倍的效能、效率提升99%。L4 GPU廣泛用於影像和文字的生成,以及虛擬桌面基礎架構( VDI )和人工智慧加速的音訊/影片轉碼。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
生成式AI新利器!華碩L40S伺服器重磅出擊
領先業界!華碩搭載最新NVIDIA L40S GPU的ESC8000和 ESC4000伺服器,即起開放下單,不僅大幅加快AI伺服器供應速度,亦提供絕佳性價比。為進行生成式AI轉型,企業往往需部署更大規模的計算資源,因此華碩提供了配備八個及四個L40S GPU的伺服器,增進訓練、微調和推論工作負載,並憑藉震撼性能構建AI模型;此外,華碩也是全球屈指可數的NVIDIA OVX伺服器系統廠商,自行研發的創新LLM技術,更是市場上少數真正的全方位生成式AI解決方案,經驗豐富可靠,將為用戶帶來最佳化的相關知識與能力;瞭解更多請參考:華碩L40S伺服器。 華碩內建Intel Xeon處理器的ESC8000-E11 / ESC4000-E11,以及採用AMD EPYC處理器的ESC8000A-E12 / ESC4000A-E12伺服器,至多可搭載八個NVIDIA L40S GPU,能輕鬆滿足當今企業的計算基礎設施,以及數據中心所需的極致性能、可擴展性與穩定耐用性。選擇L40S GPU伺服器,可快速部署硬體解決方案,以更安全、優化的方式增加運行工作負載;獨立的GPU和CPU氣流通道,還有在儲存、網路上的靈活模組設計,亦讓系統應用更多元彈性。 Ada Lovelace架構的NVIDIA L40S GPU,是數據中心中功能最強大的通用GPU,可為大型語言模型推論和訓練、圖形與影像處理帶來突破性的多工負載運算;同時,作為多模態生成式AI首選平台,L40S GPU將為下一代支持AI的音頻、語音、2D、視訊和3D應用程序提供完美動能,加上華碩獨家LLM技術,可從數據中學習、迭代生成精緻的3D模型、景觀和逼真紋理;設定參數後,設計師還能觀察AI提供的無數變化,節省寶貴時間、完善視覺藝術,或協助非專業工作者直覺操作3D元素,加速實現創意與想法。 ● Intel系列:ESC8000-E11、ESC4000-E11和ESC4000-E10 ● AMD系列:ESC8000A-E12、ESC8000A-E11、ESC4000A-E12和ESC4000A-E11 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
華碩5G+AIoT智慧製造新浪潮
台北國際自動化工業大展即日起於南港展覽館盛大登場,華碩智慧物聯網(ASUS IoT)今年以「5G + AIoT領航智慧製造」為題,展出兩大主軸—智慧工廠應用與AI系統解決方案,完整展品包括:AI示範工廠的中央監控管理平台2.0、SMD元件進料檢測、DIP製程智慧瑕疵檢測設備、5G AR眼鏡遠端協作、AISVision機器視覺瑕疵檢測、AISDetector訊號異常分析AI檢測、PHM轉動設備故障預測與健康管理平台,以及EHS智慧工業安全防護平台2.0等解決方案;現場亦首度揭示與台灣微軟、亞旭電腦共同打造的5G智慧製造尖端應用,盼藉由5G低延遲、高頻寬特性,加速實現從端到雲的自動化生產,提升效率和品質控管,啟動產業轉型。 華碩全球副總裁暨智慧物聯網事業群共同總經理張權德表示,「製造業發展三大趨勢是少量多樣的彈性生產線、設備聯網的數據化分析管理、注重環安衛與能源的永續生產力;華碩設計以5G為骨幹網路的智慧工廠,收集大數據,即時監控、量測,優化生產流程,真正落實提質、增效、降本、減存的目標,未來將持續攜手產業夥伴,推動智慧製造,促其升級轉型,接軌國際。」 其中,SMD元件進料檢測設備結合AI、字元辨識(AI OCR)與雷射量測,無需費力重新建置辨識模型,即可在生產最源頭的原料入廠階段協助品保單位把關,確認入庫元件與採購規格相符;AISVision機器視覺瑕疵檢測最新V1.5版,則導入升級AI演算法,能大幅優化模型訓練時間與精度,並相容NVIDIA®最新RTX顯示卡,為現有客戶提供豐富的二次開發函式庫;而EHS智慧工業安全防護平台2.0,可透過攝影機影像辨識提供安防單位24小時不間斷的電子圍籬、煙火偵測、危險物品 / 行為及人員穿戴安全防護等12項AI偵測,還能支援超過1,000台攝影機的大規模全球安防佈署,廠區管理更事半功倍。 本次台北國際自動化工業大展,華碩另同步於現場展出專為智慧工廠與Edge AI應用而生的最佳硬體選擇,像是首度在台亮相、支援高達200W TDP GPU的PE6000G邊緣運算電腦;歡迎有興趣的業者、廠商把握機會,一同前來參觀交流。 展覽時間:2022/8/23(三)~8/26(六) 09:30 - 17:00 (最後一日至16:00); 展覽地點:南港展覽館一館4樓L424 (台北市南港區經貿二路1號) →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
VMware 與 NVIDIA 為企業開啟生成式AI時代
VMware Inc.(NYSE: VMW)和NVIDIA(NASDAQ:NVDA)今天宣布擴大策略合作夥伴關係,讓在VMware 雲端基礎設施上運行的數十萬家企業為生成式AI 時代做好準備。 VMware Private AI Foundation with NVIDIA將使企業能夠自定義模型並運行生成式人工智慧應用程式,包括智慧聊天機器人、助理、搜尋和摘要生成等。該平台將是一個全面整合的解決方案,具備來自NVIDIA的生成式人工智慧軟體和加速運算,建立在VMware Cloud Foundation上,並針對人工智慧進行了最佳化。 VMware執行長Raghu Raghuram表示:「生成式人工智慧和多雲環境是完美的結合。客戶資料無處不在,存在於他們的資料中心、邊緣設備和雲端中。與NVIDIA合作,我們將使企業能夠放心地在其資料附近運行生成式人工智慧工作負載,同時解決企業對資料隱私、安全和可控性的擔憂。」 NVIDIA創辦人暨執行長黃仁勳表示:「世界各地的企業都在競相將生成式人工智慧與其業務整合。我們與VMware的擴大合作將為金融服務、醫療保健、製造等領域數十萬客戶,提供他們所需的全端軟體和運算,以使用透過自有資料構建的自定義應用程式來釋放生成式人工智慧的潛力。」 為了更快地獲得業務效益,企業正在尋求簡化生成式人工智慧應用的開發、測試和部署流程。麥肯錫估計,生成式人工智慧每年可能為全球經濟增加多達4.4兆美元的價值。(1) VMware Private AI Foundation with NVIDIA將使企業能夠利用這種能力,定制大型語言模型,為其內部使用生成更安全和私有的模型,向其使用者提供生成式人工智慧服務,並且更安全地大規模運行推論工作負載。 該平台預計將包括整合的人工智慧工具,使企業能夠以具成本效益的方式運行在其私有資料上訓練的經過驗證的模型。該平台將建立在VMware Cloud Foundation和NVIDIA AI Enterprise軟體之上,預期效益包括: ● 隱私 — 使客戶能夠在擁有資料的任何地方輕鬆運行人工智慧服務,並採用保護資料隱私和安全訪問的架構。 ● 選擇 — 企業將在建立和運行其模型的地點上有廣泛的選擇 — 從 NVIDIA NeMo™ 到 Llama 2 及更高版本 — 包括領先的 OEM 硬體配置,並在未來還可能涵蓋公有雲和服務供應商的方案。 ● 效能 — 正如最近產業基準測試所證明的,在某些使用案例中,在 NVIDIA 加速基礎設施上運行將提供等於甚至超過裸機的效能。 ● 資料中心規模 — 虛擬化環境中的GPU 擴展優化,可讓人工智慧工作負載在單一虛擬機器中擴充至16個vGPU/GPU,並跨越多個節點以加速生成式AI模型的微調與部署。 ● 降低成本 — 將最大程度地利用跨GPU、DPU和CPU的所有運算資源,降低整體成本,並建立一個可在團隊之間有效共享的資源池環境。 ● 加速儲存 — VMware vSAN Express儲存架構 (Express Storage Architecture,ESA) 將提供性能優化的NVMe儲存,並支援基於RDMA的GPUDirect®儲存,允許從儲存直接I/O傳輸到GPU,無需CPU參與。 ● 加速網路 — vSphere與NVIDIA NVSwitch™技術之間的深度整合將進一步實現多GPU模型的執行,而不會有GPU之間的瓶頸問題。 ● 快速部署和價值實現 — vSphere 深度學習VM映像檔和映像庫透過提供穩定的一站式解決方案(包括預安裝的框架和效能最佳化庫),支援快速原型製作功能。 該平台將提供NVIDIA AI Enterprise中包含的端到端雲原生框架NVIDIA NeMo,而NVIDIA AI Enterprise是NVIDIA 人工智慧平台的操作系統,它使企業能夠在幾乎任何地方構建、定制和部署生成式人工智慧模型。NeMo結合了定制框架、護欄工具包、資料內容篩選工具和預訓練模型,為企業提供了一種簡單、具成本效益且快速的方式來採用生成式人工智慧。 為了在生產中部署生成式人工智慧,NeMo 使用 TensorRT for Large Language Models(TRT-LLM),它可以加速和優化 NVIDIA GPU 上最新大型語言模型的推論性能。借助 NeMo,VMware Private AI Foundation with NVIDIA將使企業能夠將自己的資料導入其中,在 VMware 的混合雲基礎設施上構建和運行自定義生成式人工智慧模型。 在VMware Explore 2023 大會上,NVIDIA 和VMware 將重點介紹企業內的開發人員如何使用新的NVIDIA AI Workbench 來提取社群模型(例如Hugging Face 上提供的Llama 2)、遠端自訂它們以及在VMware 環境中部署生產級生成式人工智慧。 技術將得到戴爾科技集團、慧與科技公司和Lenovo將支援VMware Private AI Foundation with NVIDIA,它們將成為率先採用NVIDIA L40S GPU、NVIDIA BlueField®-3 DPU和NVIDIA ConnectX®-7 SmartNICs提供增強企業大型語言模型定制和推論工作負載的系統。 與 NVIDIA A100 Tensor Core GPU 相比,NVIDIA L40S GPU 的生成式人工智慧推理效能提高了 1.2 倍,訓練性能提高了 1.7 倍。 NVIDIA BlueField-3 DPU能夠加速、卸載和區隔虛擬化、網路、儲存、安全以及其他雲原生AI服務所帶來的大量運算負載,從而減輕GPU或CPU的負擔。 NVIDIA ConnectX-7 SmartNIC則為資料中心基礎設施提供智慧加速的網路功能,以提升世界上一些要求最嚴苛的 AI 工作負載。 VMware Private AI Foundation with NVIDIA是建立在雙方長達十年的合作夥伴關係之上。 他們的共同工程工作優化了 VMware 的雲端基礎設施,以運行 NVIDIA AI Enterprise,其性能可與裸機相媲美。共同客戶進一步受益於 VMware Cloud Foundation 提供的資源和基礎架構管理以及靈活性。 VMware 計劃於 2024 年初與 NVIDIA 一同發布 VMware Private AI Foundation with NVIDIA。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
人多力量大:NVIDIA 和生成式紅隊挑戰賽於DEF CON 安全會議派出數千人來審查 AI 安全
這週在拉斯維加斯,數千個駭客將會微調、扭轉和探索最新的生成式人工智慧平台,這是為了建立更值得信賴且具有包容性的人工智慧。NVIDIA正與駭客社群合作,建立測試下一代人工智慧的最佳實踐方法,包括對 NVIDIA NeMo 和 NeMo Guardrails 等領先業界的大型語言模型解決方案進行首次的測試。 由 AI Village、SeedAI和Humane Intelligence主持的生成式紅隊挑戰賽 (Generative Red Team Challenge) 將是 NVIDIA 領導者們在拉斯維加斯舉行的 Black Hat 和 DEF CON 安全會議上舉辦的一系列研討會、培訓課程和露面活動之一。 這項挑戰為駭客提供了許多可利用的漏洞,是實際檢驗新興人工智慧技術的首次機會。 SeedAI創辦人暨生成式紅隊挑戰賽主辦者Austin Carson說:「人工智慧使個人能夠創造和建構以前不可能實現的事物,但若沒有一個龐大且多元的社群來測試和評估這項技術,人工智慧將只是反映其創造者,而將大部分社會拋在身後。」 與駭客社群的合作,正值全球積極推動人工智慧安全且為新聞熱議話題之際。上個月,美國拜登-賀錦麗政府(Biden-Harris Administration)已成功取得發展尖端生成式模型的領先人工智慧公司的自願性承諾。 AI Village創辦人暨生成式紅隊挑戰賽的合辦者Sven Cattell表示:「AI Village聚集了關心人工智慧系統影響的社群,關注針對惡意使用和對社會造成的影響。在DEFCON 29上,我們與Rumman Chowdhury在Twitter時的團隊合作,舉辦了第一次演算法偏見賞金獵人活動,這是首次有一家公司允許公眾對其模型進行審查。」 本週的挑戰是人工智慧發展進程中關鍵的一步,這要歸功於秉持懷疑精神、獨立性和透明度的駭客群體在建立和實測新興安全標準方面所扮演的領導角色。 NVIDIA的技術對於人工智慧至關重要,而且NVIDIA在生成式人工智慧革命初期即已參與其中。在2016年,NVIDIA的創辦人暨執行長黃仁勳親自遞交第一台NVIDIA DGX AI超級電腦給OpenAI—該電腦是支持 ChatGPT 大型語言模型突破的引擎。 NVIDIA DGX系統最初被用作AI研究工具,現在正在世界各地企業中全天候運行,以精煉資料和處理AI。 管理顧問公司麥肯錫估計,生成式AI每年可以在全球63個使用情形中為全球經濟增加相當於2.6兆美元到4.4兆美元。這使得安全性和信任成為整個產業共同關注的問題。 正因此,NVIDIA員工參與了上週匯集安全專家的Black Hat會議以及本週的DEF CON聚會,與兩會的參加者進行交流。 在Black Hat會議上,NVIDIA舉辦了為期兩天的機器學習培訓課程,並就網絡規模訓練資料集中毒的風險進行簡介。同時,還贊助一場探討人工智慧對安全領域有潛在好處的座談會。 在DEF CON,NVIDIA贊助了一場關於侵入基板管理控制器風險的演講。這些專用的服務處理器監控電腦、網路伺服器或其他硬體裝置的物理狀態。 並透過AI Village快速檢測研討會(AI Village Prompt Detective)中的生成式紅隊挑戰賽 (Generative Red Team Challenge),數千名DEF CON參與者將能演示快速注入、嘗試引發不道德行為並測試其他技術以獲得不適當的回應。 Anthropic、Cohere、Google、Hugging Face、Meta、NVIDIA、OpenAI 和 Stability 構建的模型以及 Microsoft 的參與,將在 Scale AI 開發的評估平台上進行測試。 結果,所有人都變得更聰明。 AI Village 領導團隊成員亦是負責設計這些挑戰的非營利組織 Humane Intelligence 共同創辦人Rumman Chowdhury說:「我們促進思想和資訊交流,同時處理風險和機會。駭客社群接觸到不同的想法,社群合作夥伴獲得新的技能,為他們的未來打下基礎。」 NVIDIA於四月份以開源軟體的形式發布了NeMo Guardrails,這可以幫助開發人員引導生成式人工智慧應用程式創造令人印象深刻、保持在正軌上的文字回應,確保智慧的、大型語言模型驅動的應用程式是準確的、適當的、與主題相關且安全的。 為確保透明度並使這項技術能夠在各種環境中發揮作用,經過數年研究的NeMo Guardrails是開源的,而且大部分的NeMo對話式人工智慧框架已經以開源程式碼的形式在GitHub上提供,這為開發者社群在AI安全方面的巨大能量和開發工作做出了貢獻。 與DEF CON社群的互動進一步擴展了這一點,使NVIDIA能夠分享它在NeMo Guardrails方面所學到的知識,同時也從社群中學習。 這項活動的主辦單位包括SeedAI、Humane Intelligence和AI Village,他們將分析這些資料和發表他們的研究成果,包括過程和學習,以幫助其他組織進行類似的練習。 上週,主辦單位亦號召徵集研究提案,並在24 小時內就收到了數份來自領先研究人員的提案。 Chowdhury說:「由於這是首個大規模生成式人工智慧系統上的實時駭客事件,我們將一同學習。能夠複製這個練習,將AI測試交到數千人手中,這是其成功的關鍵。」 DEF CON 31於8月10日至13日在拉斯維加斯凱撒論壇舉行,生成式紅隊挑戰將於DEF CON 31中的AI Village進行。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
技嘉AI伺服器導入先進冷卻技術
高性能伺服器與工作站領導品牌技嘉科技,集團旗下子公司技鋼科技今天宣布推出新款AI伺服器 — G363-SR0與G593-SD2;支援第四代Intel® Xeon® 可擴充處理器與NVIDIA HGX™ H100的4-GPU和8-GPU。考量到最佳性能與散熱效率,G363-SR0能輕鬆排解多GPU運算下產生的高功耗熱能;G593-SD2 則為標準氣冷機種,兩款伺服器都展現了各自尺寸中最高的GPU算力。未來,我們亦將針對NVIDIA近期發表的 L40S 運算卡進行相容性測試,該GPU適用於多用途工作負載,例如3D繪圖、影像渲染、虛擬化工作站、影像串流加速,以及炙手可熱的人工智慧訓練等。同時亦積極進行以工作站工作負載導向設計的NVIDIA Ada Generation運算卡做相容性測試。 為了更高的效能,需要採用更創新的解決方案。G363採用直接液體冷卻(DLC)設計,藉由搭載在處理器與GPU上方的直接液體冷卻模組,能迅速將熱能從2個Intel Xeon處理器和4顆NVIDIA GPU模組中帶走。3U高度的G363-SR0提供了超乎理想的運算效能,伺服器共有8個2.5吋插槽,支援Gen5 NVMe/SATA/SAS藉以提供快速的IO傳輸。網路連接部分提供6個PCIe 5.0 low-profile擴充槽。系統供電則配備了2 + 1的冗餘電源配置,使用3000W的鈦金電源。 資料中心的電力消耗問題正逐步造成全球環境議題,為了減緩此困境,開發突破傳統氣冷技術中配置大量風扇與空間散熱的替代方案成為趨勢。直接液體冷卻技術是讓運轉中的CPU或GPU等零組件,透過導熱銅片(或稱「冷板」)將熱能傳導到冷卻液,冷卻液沿著封閉式的迴流管線帶出伺服器,通過冷卻液分配裝置將熱能排出資料中心。與傳統氣冷系統相比,DLC技術不僅能維持高效運算,不必額外增設冷卻基礎設施,還能節省更多的能源,從而降低總成本、營運費用並提高投資報酬率。 近期人工智慧訓練和密集運算工作負載需求不斷上升,技嘉G593系列以能處理頂尖的GPU加速運算,並可在5U機身中搭載8顆NVIDIA H100 SXM5 GPU的領先技術而聞名。G593整體結構被分為上下兩部分,上方1U 支援Intel Xeon雙處理器,技嘉以最高密度的配置,在下方4U空間放入相較業界減少1~3U空間的8顆NVIDIA H100 SXM5 GPU模組,集中散熱區域的溫控與耗電量,呈現最佳的散熱效益與低能耗。 技鋼的研發團隊擁有高度彈性與機動性,依據市場需求對產品做滾動式微調,G593-SD2便是在這個情況下誕生的!有別於 G593-SD0在機箱後方上排保留數個low-profile擴充槽的空間。在新的SD2機箱中以用於NVIDIA BlueField® DPUs的FHHL擴充槽取代。這個小小的改變讓G593-SD2能運用多個BlueField資料處理器來加速資料傳輸以及高效能與高效率的工作負載,並確保伺服器中至關重要的資訊安全議題。G593-SD0與G593-SD2皆可為生成式人工智慧或高效能運算應用帶來令人驚豔的超算力。 本週NVIDIA為其龐大的GPU產品線再增添了4款新的加速器生力軍,特別著重在運算與虛擬化領域,技鋼時時做好準備,持續不斷為新款加速器進行相容性認證,確保搭載於技嘉伺服器的效能表現,讓客戶得以快速部屬啟用。 基於NVIDIA Ada Lovelace架構的NVIDIA L40S GPU,號稱是資料中心前所未見最強大的通用GPU,可實現突破性的多工作負載效能,從生成式人工智慧和大型語言模型推論與訓練、3D繪圖、渲染和動態影像加速。 新公布工作站工作負載導向的NVIDIA RTX Ada Generation運算卡,針對不同專業領域的用戶,提供高效能、即時光線追蹤、人工智慧運算和先進的繪圖渲染。基於Ada架構的RTX 5000、RTX 4500和RTX 4000 GPU採用PCIe Gen4 x16規格,支援如NVIDIA® GPUDirect®和NVIDIA GPUDirect RDMA等技術,可加速影像運算,並實現系統間更快更高效的數據傳輸。 技嘉科技今日宣布了強大的GPU解決方案,接下來亦將有更多支援先進液冷技術的GPU模組伺服器。降低資料中心能源成本,環保與科技就在眼前。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
AI 浪潮襲來,資料治理成企業轉型關鍵!炬識科技宣布升級資料治理服務 攜手微軟、加速資料人才培育 全面推升企業數據價值
人工智慧(AI)帶動對資料應用的投資,更加速企業對資料治理的高度需求。亞洲全方位資料服務領導品牌炬識科技(Athemaster)今(9)日宣布全面升級資料治理相關產品線與服務,導入多項資料治理工具與產品,全面助攻企業打造以資料驅動的商業決策系統,加速轉型並接軌 AI 時代。 近期因 AI 應用浪潮崛起,企業如何在處理資料中導入 AI,或透過 AI 強化資料治理成為熱議話題。炬識科技觀察,許多企業資料團隊在產製資料及導入 AI 的過程中,即便認知到資料的重要性,但缺乏適合的方式管理及分工處理資料專案、無法清楚定義資料治理內容與治理策略,使資料品質成果低落,難以發揮AI的真正效能。 有鑑於此,炬識科技宣布全面升級其資料治理相關產品線與服務,將獨家於台灣代理包含 Ataccama One 在內的多項知名資料治理管理工具,搭配炬識科技的專業顧問團隊協作,能透過全面的資料治理策略規劃為企業建構出可執行的治理框架,提供精準的資料驅動決策系統。 炬識科技今日宣布全面升級資料治理相關產品線與服務,導入多項資料治理工具與產品,加速企業轉型並接軌 AI時代。 炬識科技執行長暨創辦人顏良修表示:「AI 高速發展之下,資料該如何運用及妥善管理已成為台灣公、私部門共同面對的艱鉅挑戰。我們期盼,除能透過全新升級導入的資料治理相關產品及顧問服務,協助客戶運用資料達到精準決策外,更能帶領企業建構完善的資料治理系統,讓各產業能以數據制定精準的策略佈局,達成 AI 轉型的最終目標。」 作為微軟金級夥伴的炬識科技,今日亦宣布未來將配合微軟 AI 戰略推動 Azure Data Platform、Azure Open AI 及 Copilot 生態圈的發展,期盼透過與微軟生態系統的攜手合作,協助企業加速企業內部 AI 應用、滿足多元資料的需求,將高品質資料成為推動 AI的基石。 炬識科技繼2022年推出「資料即產品顧問服務」後,至今已獲眾多台灣企業客戶採用,成功降低資料利用成本,增進資料驅動決策。目前炬識科技服務對象橫跨政府、金融、製造等對於資料處理有高度需求的產業,地端大數據平台建置服務市佔率已達 80%,對企業資料治理現況擁有深厚洞察。 炬識科技指出,面對資料治理龐大需求,資料人才的培育亦成為關鍵,即使資料及 AI 產業人才缺口已逐漸縮小,但供不應求的態勢並未改變;學校、企業內或產業培訓機構,對於資料專案與管理人才,如何將資料正確管理與運用多仍一知半解。對此,炬識科技亦將透過獨家的資料管理方法論,與多位資深技術專家組成專業顧問群,協助人才與企業提供專業的技術支援與顧問規劃,定義企業資料產品發展方法。期盼能為台灣公、私部門制定更完整的人才培育,促進整體AI生態圈的發展。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
NVIDIA 發布Omniverse的重大更新 支援生成式人工智慧與透過OpenUSD擴大生態系
NVIDIA 今日宣布推出 NVIDIA Omniverse™ 平台重大升級,為開發人員和工業領域的各大企業提供嶄新的基礎應用程式及服務,以利用 OpenUSD 框架和生成式人工智慧來最佳化及增強其 3D 流程。 Omniverse 是一個用於連接、描述和模擬各種基於 OpenUSD 的 3D 工具及應用程式的軟體平台,這次推出的更新項目加快了建立虛擬世界與工業數位化的先進工作流程。Cesium、Convai、Move AI、SideFX Houdini 及 Wonder Dynamics 現已透過 OpenUSD 連接到 Omniverse 平台。 這次發表的 Omniverse 平台更新項目中,主要亮點包括用於開發原生 OpenUSD 應用程式和擴充項目的引擎 Omniverse Kit,以及 NVIDIA Omniverse Audio2Face™ 基礎應用程式和空間運算功能。 NVIDIA Omniverse 與模擬技術部門副總裁 Rev Lebaredian 表示:「工業領域的各大企業正競相對其工作流程進行數位化,如此一來對支援OpenUSD的、連網的、互通的 3D 軟體生態系統出現更大的需求。最新的 Omniverse 更新項目讓開發人員可以透過 OpenUSD利用生成式人工智慧技術更大程度地發揮工具的能力,它使企業能夠建立更大、更複雜的世界級模擬,作為其工業應用項目的數位測試場域。」 Omniverse Kit 的更新內容有: • 全新模組化應用程式建立工具:全新推出的 Omniverse Kit Extension Registry 是用於存取、共享和管理 Omniverse 擴充項目的中央儲存庫,讓開發人員可以輕鬆開啟和關閉其應用程式中的功能,從而比以往更容易地使用 NVIDIA 所提供的500 多個核心 Omniverse 擴充項目,按照個別需求開發應用程式。 • 全新開發人員範本與資源:全新應用程式和體驗範本能讓開發人員使用最少的程式設計,就能輕鬆上手使用 OpenUSD 和 Omniverse。 • 提高效率和創造良好的使用者體驗:全新的渲染最佳化項目充分利用 NVIDIA RTX™ GPU 中的 NVIDIA Ada Lovelace 架構增強功能,DLSS 3 技術與 Omniverse RTX Renderer 完全整合,而新款人工智慧降噪器可以對大量工業場景實時 4K 路徑追蹤。 • 原生 RTX 驅動的空間整合:使用者可利用全新的延展實境(XR)開發工具,將空間運算選項內建至 Omniverse 的應用程式內,讓使用者能夠靈活選擇如何體驗 3D 項目和虛擬世界。 在 Omniverse 基礎應用程式中可以見到這些新的平台更新項目,而創作者、企業及開發人員可以複製、擴充或增強這些完全可客製化的參考應用程式。本次升級的應用程式有: • Omniverse USD Composer:讓 3D 使用者可組裝基於 OpenUSD 的大型場景。 • Omniverse Audio2Face:提供使用生成式人工智慧應用程式設計介面,從一個聲音檔案即可建立逼真的臉部動畫和手勢,到現在加入支援多種語言和新的女性基礎模型。 NVIDIA 還宣布為開發人員和企業推出多款框架、資源和服務,以加速推動業界採用通用場景描述( OpenUSD)。 此外,NVIDIA發表了新開發的Omniverse Cloud APIs,供開發者可以更即時地實施和部署 OpenUSD 工作流程和應用程式。例如,ChatUSD 是一個能協助開發者的大型語言模型,可以回答 USD 相關問題或生成 Python-USD 程式碼。 由 OpenUSD 支援的全新 Omniverse 連接項目現已開放使用,讓工業領域裡的各大企業有更多機會打破複雜生產管道中的數據孤島。 Adobe 與 NVIDIA 擴大雙方在 Adobe Substance 3D、生成式人工智慧及 OpenUSD 計畫方面的合作,宣布打算將 Adobe 的創意生成式人工智慧模型系列 Adobe Firefly,作為 Omniverse 平台中的 API提供給開發人員和創作者使用,以增強他們的設計流程。 Wonder Dynamics 現已透過 Wonder Studio AI 平台連接到 Omniverse,提供全新的 OpenUSD 匯出支援功能,而 Wonder Studio AI 平台可自動將電腦生成的角色製作成動畫、光線處理以及與真實場景合成。藝術家使用新的 OpenUSD 匯出支援功能,可以從單一支攝影機影片生成及匯出完整的 3D 場景。 Luma AI 的 USDZ 格式實景建模可以輕鬆匯入 Omniverse 平台。虛擬角色公司 Convai 和角色引擎公司 Inworld AI 的工具已與Omniverse連結。創作者使用像是 Convai 這類的人工智慧工具,能在數位孿生環境中添加可提供與環境和物體有關資訊的角色,成為導遊或虛擬機器人。Move AI 透過 Move One 應用程式,做到只用一具攝影機便能完成動作捕捉作業,而 Move One 應用程式可用於生成 3D 角色動畫,然後可以將其匯出到 OpenUSD,並且在 Omniverse 中使用。 Omniverse 使用者現在可以建立相容於其他基於 OpenUSD 的空間運算平台(例如ARKit及 RealityKit)的內容、體驗和應用程式。而新加入支援 Khronos Group 的 OpenXR 開放標準,將 Omniverse 的使用範圍擴大到 HTC VIVE、Magic Leap 及 Varjo 等頭戴式裝置製造商的多款產品上。 SideFX Houdini 的使用者現在還能直接將 Houdini 的數位資產載入 Omniverse 的檢視畫面,讓執行基於 Houdini 且與 Omniverse 相連的工作流程更加流暢。Cesium 所提供Omniverse 的擴充項目名為 Cesium for Omniverse,支援在虛擬環境中以串流方式傳輸大量地理空間資料集的開放標準 3D Tiles,包括 OpenUSD 支援的資料集。CGI.Backgrounds現在在USD Composer中提供多個超高清HDRi地圖。使用者現在可以在 Omniverse 平台上使用 Cadence DataCenter Design Software™,幫助使用者在其數位孿生的完整環境中查看計算流體動力學模擬內容。而使用者使用 Cadence 資料中心擴充項目,可以在實行前規畫、測試和驗證設計及操作注意事項。 Blackshark.AI 的世界數位孿生平台現已與 Omniverse 串連。 客戶使用 Omniverse 來執行從模擬機器人、訓練人工智慧模型及製作更精美動畫的各種工作。 波士頓動力人工智慧研究所(Boston Dynamics AI Institute)使用 Omniverse 來模擬機器人及其與環境的互動情況,以設計新型機器人和控制系統。汽車與自主系統工業化領域龍頭之一的大陸集團(Continental),將 Omniverse 用於旗下的行動機器人業務,大規模產生精準符合物理原理的合成資料,以訓練電腦視覺人工智慧模型與執行系統整合測試。 Volvo Cars 已將其數位孿生模型變成基於 OpenUSD 的內容,使用 Omniverse 建立身臨其境的視覺效果,幫助網購客戶做出決定。 品牌設計和體驗代理商 Marks Design 使用 Omniverse 和 OpenUSD來簡化協作並改進其動畫、可視化和渲染工作流程。 NVIDIA 攜手全球系統製造商,將針對 Omniverse 打造出最佳配置的RTX工作站產品給數百萬名設計師、建築師和工程師使用。新系統將搭載多達四個 NVIDIA RTX 6000 Ada 世代 GPU,搭配 NVIDIA Omniverse Enterprise 軟體,可加速推動建立 OpenUSD 世界、生成式人工智慧增強型協作設計和其他工業數位化應用項目。 Omniverse 使用者還可以利用新款功能強大的通用資料中心顯示卡 NVIDIA L40S GPU,可加速處理圖形密集型工作負載。 最新版Omniverse 已以beta版開放使用,並即將於Omniverse Enterprise提供。 歡迎了解更多關於NVIDIA Omniverse的資訊,並觀看由NVIDIA創辦人暨執行長黃仁勳於SIGGRAPH現場的主題演講。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
在企業中發揮生成式 AI 的價值
在幾個月之前,IT 行業發生了一件震驚全球的大事——ChatGPT 3.5 公測版正 式發佈。從那時起,我們對 AI(尤其是生成式 AI)的關注、創新和投資達到了 空前的熱度。對比前幾次對 AI 的炒作,這次的不同之處在於生成式 AI 能讓我們 以對話的方式與強大的 AI 工具進行交互,這種自然語言交互在與「類似人類的」 創造力相結合後,能夠生成包括文本、程式碼、視訊、音訊在內的全新內容。 如今的大型語言模型(LLM)讓英語、漢語等母語變成了真正的程式設計語言, 我們在這些模型中輸入的提示詞,基本上就是它們用來運算答案的程式碼,這是 有史以來我們距離實現程式設計真正普及化最近的一次。 這一切都在告訴人們,我們正處在一次千載難逢的革命浪潮中,這將為軟體發展、 客戶支援、銷售、市場等主要的業務部門帶來轉型機遇。新一輪 AI 創新浪潮的 加快將對整個全球經濟產生深遠影響。有了生成式 AI,我們可以透過解決不同 學習者的差異性來重塑教育 1、幫助醫生做出臨床診斷 2、協助客戶做出投資決 策 3 等等,這都還只是冰山一角,根據麥肯錫最近的一份報告顯示,生成式 AI 每 年可為全球創造高達 7.9 萬億美元的經濟價值 4。 與以往此類大規模創新突破的早期階段一樣,我們在更加廣泛地採用 AI 方面, 遇到了一些重大的障礙,而且若要在企業中充分發揮生成式 AI 的價值和潛力, 我們必須共同解決三大核心挑戰。 訓練和管理當今的生成式 AI 模型既複雜又昂貴,需要耗費大量專用算力和高速 網路以及無數記憶體。目前,AI 模型的效能與運算基礎設施的實際比例為 1:1, 在這種情況下既無法擴展,也不可持續。風險投資機構 Andreessen Horowitz 最近將訓練 ChatGPT 這樣的模型描述為「人類迄今為止運算密集度最高的任務 之一」5。目前,單次訓練的價格從 50 萬美元到 460 萬美元不等 6,而且隨著模 型的更新,訓練將成為一項持續性的花費。 看到這些令人瞠目結舌的費用,許多人便得出結論:全球將只會有極少數像 ChatGPT 這樣的「超大型 LLM」。但其實還有另一條出路,未來一般企業都將 能以可承受的價格構建並運行自己的定制化 AI 模型,這條路的關鍵在於靈活性 和選擇性,儘管大多數資訊長都計畫使用超大型 LLM 來處理各種案例,但他們 也想要構建大量較小的 AI 模型,以便針對特定任務進行優化。這些模型通常基 於開源軟體。事實上,目前開源 AI 模型的創新數量之大令人吃驚。可以預見的 是,許多企業將把這些開放模型作為許多案例的首選,而不再依賴目前佔據主導 地位的大型專有 LLM。 這些開放的專用模型將充分利用企業獨有的知識財產——領域專用資料。我們 可以在專門的基礎設施上經濟且高效地運行這些較小的 AI 系統,包括更加便宜 的 GPU(圖形處理單元)以及經過改良的低成本 CPU,提供 AI 工作負載所需要 的性能和輸送量。透過降低成本以及構建兼具靈活性和選擇性的解決方案,我們 可以開闢一條對於主流企業來說更加可及的 AI 創新路徑。 如今,AI 模型的構建、微調和運行都需要高度專業化的人才,而且這些人才供不 應求。執行長和資訊長幾乎都會把它列為首要難題之一。他們敏銳地意識到 AI 開源軟體領域發展迅速,並希望在最新的創新成果出現時,能夠快速、輕鬆地遷 移過去,而不會被鎖定在任何一個平台或廠商上。如果只有很小一部分專業技術 人員懂得當今 AI 模型背後的「奧秘」,那麼就很難實現這種適應性。 為了填補這一技能缺口,我們需要從根本上簡化構建和訓練 AI 模型的流程與工 具。這便是參考架構的「用武之地」,大部分由於內部人員缺乏相關專業知識而 無法從頭開始構建 AI 解決方案的企業機構可透過它獲得藍圖和可行的途徑。 最後或許也是最重要的一點是,我們需要將風險變成信用。當前的 AI 模型會帶 來隱私問題、法律和監管問題、智慧財產權洩露等巨大的風險。這些風險有可能 損害公司聲譽、傷害客戶和員工並對收入產生負面影響。在員工不小心將敏感的 內部資料洩露到 ChatGPT 等工具上後,許多企業都制定了限制員工使用生成式 生「幻覺」,創造出無意義、無關和/或不準確的新內容。 因此我們行業需要制定一套強有力的道德準則來保障並加強公平性、隱私性、責 任追究、他人的智慧財產權以及訓練資料的透明度。一個龐大且不斷擴張的組織 生態正在努力解決 AI 可解釋性 7、資料完整性 8 和資料隱私 9 等核心問題。這個 開源社群正作為這場運動的中心進行創新,努力幫助企業以安全可控的方式訓練 和部署 AI 模型。 正如行動應用革命在過去 15 年中改變了商業以及我們與技術的關係,新一輪 AI 應用浪潮將大幅提升工作者的生產力並加快全球經濟發展。我們正處於新一輪超 級創新週期的初期。我們共同面臨的挑戰是如何讓這項強大的新技術變得更加經 濟、可實現和可信。 世界各地 AI 決策者普遍認為我們需要實現戰略上的平衡:在存在未知因素的情 況下,我們必須謹慎行事,尤其是在保密、隱私和專有資訊濫用方面。與此同時, 我們還必須讓企業能夠快速接受新的 AI 模型,這樣他們才能以負責和道德的方 式參與到下一輪創新浪潮中。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
最多人點閱
- 「Intel Core Ultra 200S」CPU強勢來襲,史上最強「Intel第15代 研發代號 Arrow Lake」桌上型電腦處理器「台積電 TSMC 神隊友代工」LGA1851腳位「Core Ultra 5 245K/KF、Core Ultra 7 265K/KF、Core Ultra 9 285K處理器 與 Z890主機板」聯袂登場!
- AMD Ryzen 7 8700G實測開箱,Radeon 780M Graphics內顯與Ryzen AI火力加持「次世代1080p 遊戲 處理器」強勢來襲!
- Supermicro SUPERO X13SWA-TF實測開箱,史上最強「8+3+1+1共13相供電」Intel W790「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」 HEDT高階桌機工作站主機板!
- GIGABYTE Server MW83-RP0實測開箱,史上最強「8+3+1+1共13相供電」實戰Intel Xeon w9-3495x為終極效能而生「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」HEDT工作站主機板!
- Intel Xeon W-2400與W-3400處理器完全解密!研發代號Sapphire Rapids-WS與W790晶片組主機板 HEDT高階桌機工作站 LGA4677腳位 強大運算核心 正式登場,史上最強大24核心48執行緒Xeon w7-2495X 56核心112執行緒Xeon w9-3495X強勢來襲!
- AMD Ryzen Threadripper 7000 & Threadripper 7000 PRO處理器完全解密!史上最強HEDT TRX50高階桌機、Workstation WRX90工作站平台 提供最高64核心128執行緒7980X 96核心192執行緒7995WX 具備DDR5 R-DIMM、PCIe 5.0 x16與PCIe Gen 5 SSD超強戰鬥力!
- ASUS Pro WS W790-ACE實測開箱,史上最強「12+1+1共14相供電」Intel Xeon w9-3495X處理器最佳拍檔「AI加速 三組PCIe 5.0 x16雙插槽顯示卡擴充」HEDT工作站主機板!
- Intel Xeon w9-3495X實測開箱,史上最強56核心112執行緒 採用LGA4677腳位 對應W790主機板 次世代 HEDT高階桌機 工作站 處理器重裝上陣!
- 微星MPG B650 EDGE WIFI實測開箱,AMD B650玩家級主機板優質精品 feat. AMD Ryzen 5 8600G/ 7 8700G
- ASUS Pro WS WRX90E-SAGE SE實測開箱,史上最強「32+3+3+3共41相供電」AMD Ryzen Threadripper PRO 7995WX「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」為終極運算效能而生HEDT高階桌機工作站主機板!
- 威剛 ADATA DDR5-4800 256GB R-DIMM 套裝(32GB x8)實測開箱,Intel W790伺服器級工作站主機板「八記憶體通道」PC DIY火力全開評測!
- AMD Ryzen Threadripper 7980X實測開箱,史上最強64核心128執行緒 採用sTR5腳位 對應TRX50、WRX90主機板 次世代 HEDT高階桌機處理器強勢登場!