NVIDIA英伟达H800人工智能服务器为各类数据中心提供出色的性能、可扩展性和安全性。
加速计算的数量级飞跃
通过 NVIDIA英伟达H800人工智能服务器 GPU,在每个工作负载中实现出色性能、可扩展性和安全性。使用NVIDIA® NVLink® Switch 系统,可连接多达 256 个 H800 来加速百亿亿级(Exascale) 工作负载,可通过专用的 Transformer 引擎来处理万亿参数语言模型。与上一代产品相比,H800的综合技术创新可以将大型语言模型的速度提高 30 倍,从而提供业界lingxian的对话式 AI。
准备好迎接企业 AI 了吗?
企业采用 AI 现已成为主流,企业组织需要端到端的 AI 就绪型基础架构,加快自身迈向新时代的步伐。
适用于主流服务器的 H800 随附五年期 NVIDIA AI Enterprise软件套件订阅(包括企业支持),能够以强大的性能简化 AI 的采用。这可确保组织能够访问构建 H800 加速的 AI 工作流所需的 AI框架和工具,例如 AI 聊天机器人、推荐引擎和视觉 AI 等。
NVIDIA英伟达H800人工智能服务器GPU算力租赁配置:
项目 | 标准配置 |
框架 | 8U机架式服务器 |
处理器 | 2颗第4代/第5代至强系列Zui高 64 核/3.9GHz/320MB缓存 |
内存 | Zui大容量 4TB |
GPU | NVIDIA HGX H800 GPU模组 |
系统硬盘 | M.2 NVMe PCIe接口 2TB SSD |
数据硬盘 | 2*10TB 企业级 SATA 硬盘 RAID 10 阵列配置 |
InfiniBand 网络 | ConnectX-7 400Gb/s |
Ethernet 网卡 | OCP网卡/双电口/10G |
PICE 插槽 | 9 个 PCIe 5.0 扩展插槽 |
电源 | 6*3000W,2*2700W,AC220 输入 |
风扇 | 10 个 54V 风扇模组 |
操作系统 | Windows Server/RedHat Enterprise Linux/SUSE LinuxEnterprise Server/CentOS/Ubuntu/Vmware EXSi |
工作温度 | +5°~+35° |
其他接口 | 机箱后部:1个 RJ45 管理接口,2 个 USB 3.0,1 个 VGA 机箱前部:2 个 USB 3.0,1 个 VGA |
整机净重 | 120KG(以实际配置为准) |
安全地加速从企业级到百亿亿次级规模的工作负载
实时深度学习推理
超大模型的 AI 推理性能提升高达 30 倍
HPC 应用的性能提升高达 7 倍
百亿亿次级高性能计算
加速数据分析
为企业提高资源利用率
内置机密计算
为大规模 AI 和高性能计算提供出色的性能