產地類別 | 國產 | 應用領域 | 生物產業,電子,交通,制藥,汽車 |
---|
NVIDIA英偉達H100、H800與H200人工智能服務器為各類數據中心提供出色的性能、可擴展性和安全性,加速計算的數量級飛躍。
通過 NVIDIA H100 Tensor Core GPU,在每個工作負載中實現出色性能、可擴展性和安全性。使用 NVIDIA® NVLink® Switch 系統,可連接多達 256 個 H100 來加速百億億級 (Exascale) 工作負載,另外可通過專用的 Transformer 引擎來處理萬億參數語言模型。與上一代產品相比,H100 的綜合技術創新可以將大型語言模型的速度提高 30 倍,從而提供的對話式 AI。
準備好迎接企業 AI 了嗎?
企業采用 AI 現已成為主流,企業組織需要端到端的 AI 就緒型基礎架構,加快自身邁向新時代的步伐。
適用于主流服務器的 H100 隨附五年期 NVIDIA AI Enterprise 軟件套件訂閱(包括企業支持),能夠以強大的性能簡化 AI 的采用。這可確保組織能夠訪問構建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 機器人、推薦引擎和視覺 AI 等。
NVIDIA英偉達H100、H800與H200人工智能服務器GPU算力租賃配置參數:
項目 | 標準配置 |
框架 | 8U 機架式服務器 |
處理器 | 2 顆至強 Platinum 8468 48 核/3.8GHz 主頻/105MB 緩存 |
內存 | DDR5 4800MHz ECC 內存容量 1TB |
GPU | NVIDIA HGX H100、H800或H200 GPU 模組 |
系統硬盤 | M.2 NVMe PCIe 接口 2TB SSD |
數據硬盤 | 2*10TB 企業級 SATA 硬盤 RAID 10 陣列配置 |
InfiniBand 網絡 | 200G/雙端口/QSFP56 |
Ethernet 網卡 | OCP 網卡/雙電口/10G |
PICE 插槽 | 9 個 PCIe 5.0 擴展插槽 |
電源 | 6*3000W,2*2700W,AC220 輸入 |
風扇 | 10 個 54V 風扇組 |
操作系統 | Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise Server/CentOS/Ubuntu/Vmware EXSi |
工作溫度 | +5°~+35° |
其他接口 | 機箱后部:1 個 RJ45 管理接口,2 個 USB 3.0,1 個 VGA 機箱前部:2 個 USB 3.0,1 個 VGA |
整機凈重 | 120KG(以實際配置為準) |
安全地加速從企業級到百億億次級規模的工作負載
實時深度學習推理
超大模型的 AI 推理性能提升高達 30 倍
HPC 應用的性能提升高達 7 倍
百億億次級高性能計算
加速數據分析
為企業提高資源利用率
內置機密計算
為大規模 AI 和高性能計算提供出色的性能