GPU云服务器租用价格全对比(2026年5月实测)
2026-05-03 · AI云服务实战笔记
大模型API价格横评 →
去年开始接AI项目,陆陆续续租了不少GPU实例。从最初看到价格就头大,到现在能闭眼算出不同场景该租什么——中间踩了挺多坑。这篇整理一下三家主流云厂商的GPU实例价格和选型思路。
主流GPU实例价格速查
以下价格基于2026年5月初实际查询,单位为人民币。按量计费价格会因区域和促销活动浮动。
| GPU型号 | 显存 | 腾讯云 | 阿里云 | 华为云 | 适用场景 |
|---|---|---|---|---|---|
| NVIDIA A100 | 80GB | ¥32/h | ¥38/h | ¥35/h | 大模型训练、70B+推理 |
| NVIDIA H20 | 96GB | ¥28/h | ¥30/h | — | 70B模型推理、微调 |
| NVIDIA L40S | 48GB | ¥18/h | ¥22/h | ¥20/h | 13B模型推理、SD绘图 |
| NVIDIA T4 | 16GB | ¥8/h | ¥10/h | ¥9/h | 7B小模型、轻量推理 |
不同场景的推荐配置
场景一:跑LLaMA/Qwen 70B推理
70B参数模型FP16推理需要约140GB显存,一张H20(96GB)不够但可以用int4量化压到35GB+。实际方案:
- 单卡H20 + AWQ量化:显存占用约38GB,推理速度15-20 tok/s,成本¥28/h
- 双卡L40S:显存总计96GB但跨卡效率低,不推荐
- 单卡A100:80GB显存够用,贵30%但速度快
我目前用的是腾讯云H20 + AWQ量化方案,推理速度够用,成本最低。
场景二:跑Stable Diffusion绘图
SDXL模型显存需求约12-16GB,L40S(48GB)完全够用甚至浪费。实际体验:
- L40S一张:生成1024×1024图约3-4秒
- T4一张:同样的图约8-10秒,显存紧张
如果只是偶尔玩玩,T4按量足够了。如果做AI绘图产品,L40S性价比最高。
场景三:小团队微调7B/13B模型
LoRA微调7B模型显存需求约20-24GB(含batch数据):
- L40S单卡:完全够用,¥18/h
- T4单卡:7B可以但batch size要调小,13B不行
一个小团队如果是做模型微调为主,租一台L40S包月大概¥5,000-7,000/月,比买一台A100显卡(¥8-10万)划算很多。
包月和按量的选择策略
我的经验法则是:
- 前两周用按量:先确认配置够用、模型能跑通、团队上手没问题
- 换算盈亏平衡点:按时价 × 包月折扣率 = 每天用超过X小时就转包月
- 注意闲置成本:包月即使不用也在扣费,按量不用就不花钱
以L40S为例:按时¥18/h,包月约¥5,000/月。折算下来每天用约9.3小时是平衡点。如果你每天用超过10小时,果断包月;如果一周只用两三天,按量更省。
隐藏费用清单
租GPU不只是GPU的钱,这些也要算进去:
- 系统盘:一般送40-50GB,够装系统和基础库。但模型文件动辄几十GB,需要额外数据盘
- 数据盘:高性能云盘约¥0.35/GB/月,存一个70B模型(140GB)月费约¥49
- 公网流量:上行免费(中国区),下行按量计费,¥0.8/GB。如果频繁下载模型权重文件,要算这个
- 镜像费用:有些带预装CUDA的镜像免费,有些商业镜像会额外收费
加上这些,一台H20实际月费可能比GPU裸价多出¥200-500。
三家云厂商选哪家?
纯主观感受:
- 腾讯云:GPU价格最低,H20性价比突出,适合预算敏感的个人和小团队
- 阿里云:生态最完善,文档最好,但价格贵10-15%
- 华为云:昇腾生态有独家优势但不能跑CUDA,NVIDIA实例价格居中
如果你用的是PyTorch/TensorFlow等主流框架,三家都可以。如果你已经绑定了阿里云的RDS、OSS等产品,迁移成本可能比GPU节省的钱还多,就不建议专门为GPU价格搬家了。
FAQ
Q: 新手租GPU需要会Linux吗?
需要基本操作:ssh连接、文件传输、包管理。不过现在很多云厂商提供HAI(高性能应用服务),一键部署SD、Llama等模型,连CUDA都不用装。
Q: 国内能租到H100吗?
不能。由于出口管制,国内云厂商主力是A100/H20/A800/L40S。H20是目前能租到的性价比最高的GPU。
Q: 关机不收费是真的吗?
大部分云厂商的按量计费GPU实例关机后只收取系统盘和数据盘费用(不收了GPU和CPU的费用)。但包月实例关机仍然收费。所以如果GPU只是偶尔用,按量+用完关机是最省的方案。