PCDIY!業界新聞

威聯通科技推出 Mustang 系列運算加速卡,搭載 Intel VPU / FPGA 視覺加速解決方案,助力 AI 深度學習推論

(本資訊由廠商提供,不代表PCDIY!立場) 2019-05-01 15:01:47
運算、網通及儲存解決方案的領導廠商威聯通科技 (QNAP Systems, Inc.) 針對 AI 深度學習推論推出兩款運算加速卡,包含: Mustang-V100 VPU 加速卡及 Mustang-F100 FPGA 加速卡。使用者於 Intel 伺服器/PC 或 QNAP NAS 的 PCIe 擴充槽安裝加速卡,可提升電腦視覺和 AI 應用深度學習推論的運算能力,在工業自動化、醫療診斷、智慧零售和影像監控等領域皆可發揮應用潛能。

威聯通產品經理林禮涵表示:「運算速度是提高 AI 人工智慧應用效率的關鍵。QNAP Mustang-V100 與 Mustang-F100 加速卡專為 OpenVINO 架構設計,並搭配 Intel 硬體優化方案,以及 QNAP 特別開發的 OpenVINO™ Workflow Consolidation Tool 應用程式,協助用戶縮短時間達成複雜 AI 運算與深度學習推論的目標需求。」

Mustang-V100 與 Mustang-F100 加速卡,讓使用者以經濟、效率的方式為 Intel 伺服器/PC 或 QNAP NAS 提供即時 AI 推論效能加速方案,並可搭配 OpenVINO 工具套件,優化處理影像分類及電腦視覺的推論工作負載。OpenVINO 為 Intel 深度學習開發工具包,提供模型優化器和推論引擎,可將預先訓練的深度學習模型 (如 Caffe、TensorFlow) 轉換成 IR 檔案格式,廣泛支援 Intel 平台裝置 (包含 CPU、GPU、FPGA 及 VPU 等硬體加速晶片) 來執行推論,可協助縮短開發時間,同時簡化深度學習推論和電腦視覺解決方案的部署流程。

QNAP 的創新之路不斷推動著 QNAP NAS 展現更多元、更廣泛的用途,其大儲存空間兼具 PCIe 彈性擴充的特性,在 AI 應用上亦能發揮相當優勢。QNAP 所推出的 OpenVINO Workflow Consolidation Tool (簡稱 OWCT) 採用了 技術;藉由安裝 OWTC,搭載 Intel 處理器的 QNAP NAS 即成為理想的推論伺服器,協助企業組織快速發展自己的推論系統。AI 開發者可將訓練好的模型部署於一台 QNAP NAS 上進行推論,並安裝 Mustang-V100 或 Mustang-F100 加速卡讓推論效能更上一層。

特定 QNAP NAS 安裝 QTS 4.4.0 作業系統最新版本即可支援 Mustang-V100 及 Mustang-F100 加速卡。關於特定 QNAP NAS 型號,請參閱 QNAP 網站。OWCT 應用程式請至 QTS App Center 下載安裝。
發表您的看法

請勿張貼任何涉及冒名、人身攻擊、情緒謾罵、或內容涉及非法的言論。

請勿張貼任何帶有商業或宣傳、廣告用途的垃圾內容及連結。

請勿侵犯個人隱私權,將他人資料公開張貼在留言版內。

請勿重複留言(包括跨版重複留言)或發表與各文章主題無關的文章。

請勿張貼涉及未經證實或明顯傷害個人名譽或企業形象聲譽的文章。

您在留言版發表的內容需自負言論之法律責任,所有言論不代表PCDIY!雜誌立場,違反上述規定之留言,PCDIY!雜誌有權逕行刪除您的留言。

最近新增