由于H200服务器的配置会根据厂商和型号有所不同,以下提供的是一些常见的配置范围和选项,详情咨询客服
| 配置 | 1卡配置 适合个人开发和小型项目 |
2卡配置 适合企业级AI训练 |
4卡配置 适合大规模AI训练 |
整机8卡 适合超级计算中心 |
|---|---|---|---|---|
| GPU配置 | ||||
| GPU型号 | 1* NVIDIA H200 | 2* NVIDIA H200 | 4* NVIDIA H200 | 8* NVIDIA H200 |
| CUDA核心 | 16,896 | 33,792 | 67,584 | 135,168 |
| 显存 | 141GB*1 HBM3e | 141GB*2 HBM3e | 141GB*4 HBM3e | 141GB*8 HBM3e |
| AI算力 | 2,200 TFLOPS | 4,400 TFLOPS | 8,800 TFLOPS | 17,600 TFLOPS |
| 基础配置 | ||||
| CPU | 16核 vCPU | 32核 vCPU | 64核 vCPU | Intel(R) Xeon(R) Platinum 8468 CPU @ 2.10GHz *2(96核) |
| 内存 | 128GB DDR5 | 256GB DDR5 | 512GB DDR5 | 1TB DDR5 |
| 硬盘 | 系统盘 50G SSD | 系统盘 50G SSD | 系统盘 50G SSD | 系统盘 480G SSD |
| 网络配置 | ||||
| 带宽 | 1000Mbps | 10Gbps | 40Gbps | 100Gbps |
| 流量 | 不限流量 | 不限流量 | 不限流量 | 不限流量 |
|
* 规格如有变动,以实际交付为准
|
||||
基于Hopper架构,为超大规模模型训练和高性能计算提供极致算力支持
采用NVIDIA Hopper架构,AI训练性能较H100进一步提升,支持更大规模模型训练
支持FP8、FP16、BFLOAT16等多种精度,AI算力高达2,200 TFLOPS,训练效率极致提升
专为Transformer模型优化,大语言模型训练速度大幅提升,显存利用率达到极致
141GB HBM3e显存,4.8TB/s带宽,超大显存容量支持超大规模模型训练
H200租赁服务广泛应用于超大规模模型训练、深度学习、高性能计算、科学计算等领域,为万亿参数级AI应用提供极致算力支持
支持万亿参数级超大规模模型训练,141GB超大显存,Transformer引擎极致加速
支持科学模拟、数据分析、复杂建模等计算密集型任务,加速科研创新突破
支持图像、文本、音频、视频等多模态数据联合训练,加速生成式AI应用开发
支持超大规模生成式AI模型推理,低延迟高吞吐,满足企业级AI应用需求
支持基因组学、蛋白质折叠、药物发现等生命科学研究,加速生物医学创新突破
支持工业仿真、城市规划、自动驾驶等数字孪生应用,加速数字化创新
专业团队为您解答GPU租赁相关问题
0592-5580190
工作日 9:00-18:007x24小时在线
即时响应您的问题sales@zoneidc.com
24小时内回复厦门市软件园三期金砖未来创新园B09栋305室
欢迎到访洽谈