由于A100服务器的配置会根据厂商和型号有所不同,以下提供的是一些常见的配置范围和选项,详情咨询客服
| 配置 | 1卡配置 适合个人开发和小型项目 |
2卡配置 适合企业级AI训练 |
4卡配置 适合大规模AI训练 |
整机8卡 适合超级计算中心 |
|---|---|---|---|---|
| GPU配置 | ||||
| GPU型号 | 1* NVIDIA A100 | 2* NVIDIA A100 | 4* NVIDIA A100 | 8* NVIDIA A100 |
| CUDA核心 | 6,912 | 13,824 | 27,648 | 55,296 |
| 显存 | 40GB*1 HBM2e | 40GB*2 HBM2e | 40GB*4 HBM2e | 40GB*8 HBM2e |
| AI算力 | 312 TFLOPS | 624 TFLOPS | 1,248 TFLOPS | 2,496 TFLOPS |
| 基础配置 | ||||
| CPU | 12核 vCPU | 24核 vCPU | 48核 vCPU | Intel(R) Xeon(R) Gold 6248R CPU @ 3.00GHz *2(96核) |
| 内存 | 96GB DDR4 | 192GB DDR4 | 384GB DDR4 | 768GB DDR4 |
| 硬盘 | 系统盘 50G SSD | 系统盘 50G SSD | 系统盘 50G SSD | 系统盘 480G SSD |
| 网络配置 | ||||
| 带宽 | / | / | / | 独享50M |
| 流量 | 不限流量 | 不限流量 | 不限流量 | 不限流量 |
|
* 规格如有变动,以实际交付为准
|
||||
于Ampere架构,为AI训练和高性能计算提供前所未有的算力支持
采用NVIDIA Ampere架构,AI训练性能提升数倍,能效比大幅优化
支持TF32、FP16、BFLOAT16、INT8等多种精度,AI算力高达312 TFLOPS
支持将单个A100分割为最多7个独立GPU实例,提升资源利用率
40GB/80GB HBM2e显存,1.6TB/s带宽,支持超大规模模型训练
A100租赁服务广泛应用于企业级AI训练、深度学习、高性能计算、科学计算等领域,为大规模AI应用提供强大算力支持
支持大型语言模型、计算机视觉、多模态AI等深度学习模型训练,训练效率提升数倍
支持科学模拟、数据分析、复杂建模等计算密集型任务,加速科研创新
高效处理海量数据,加速特征工程、模型训练和结果分析,支持实时数据处理
通过MIG技术高效部署多个推理服务,支持低延迟高吞吐的AI应用
支持医学影像分析、疾病诊断、药物研发,加速医疗AI应用落地
支持风险建模、量化交易、欺诈检测等金融计算,提升金融科技应用效率
专业团队为您解答GPU租赁相关问题
0592-5580190
工作日 9:00-18:007x24小时在线
即时响应您的问题sales@zoneidc.com
24小时内回复厦门市软件园三期金砖未来创新园B09栋305室
欢迎到访洽谈