关键词:GPU价格性能、FLOPS/美元、摩尔定律、黄氏定律、AI训练算力、FP16、ML GPU、翻番周期
摘要
通过对2006—2021年间上市的470款GPU的全面数据梳理,我们发现:
每美元所购的32位浮点算力(FLOPS/$)约每2.46年翻倍。
- 用于机器学习场景的26款GPU,价格性能改善更快,仅2.07年即翻倍;
- 各时期绝对旗舰的57款GPU,则慢至2.95年才翻倍;
- FP16与FP32的增速差异不显著。
这一速率介于摩尔定律的“2年翻番”与先前研究的3–4年之间,并显著慢于黄氏定律鼓吹的“1.08年翻倍”。
GPU为何是AI进步的晴雨表?
今天数十亿、上百亿参数的Transformer、Diffusion模型,其训练量已膨胀到GPT-1时代的万倍级别。摩尔定律时代晶体管密度提升逐渐见顶,真正支撑这波算力暴涨的,正是GPU在价格性能上的持续跃进——更便宜的卡带来更多算力,反过来又降低了实验门槛。
数据构建:470款芯片如何筛选而来?
数据整合
- 合并 Median Group 与 Sun et al. datasets,去重后约470条。
年限选取
- 仅保留2006年之后的数据。2006以前CUDA尚未落地,缺乏通用可编程GPU的理论算力标准。
剔除异常
- 16款16位性能反而比32位低60倍的记录被舍弃。
- 同一型号但规格不同的细分版本保留。
核心趋势:不同群体呈现三种翻番节奏
1. 全局:470款全部型号
- 32位FLOPS/$ 翻番:2.46年(95%置信区间 2.24–2.72年)
- 10倍增长:约8.2年
2. 机器学习常用GPU
Meta、Google、OpenAI等机构最常采购的26款GPU(V100、A100、3090、H100等):
- 翻番:2.07年
- 提示:部分加速来自实验室主动买更高端型号,而非硬件本身的密度跃迁。
3. 发售当月性能冠军
- 翻番:2.95年
- 旗舰卡溢价拉高售价,价格性能反而跑得最慢。
历史对比:究竟谁在夸大GPU增速?
| 预测/定律 | 折算翻番周期 | 备注 |
|---|---|---|
| 摩尔定律 | 2年 | 晶体管密度 |
| 黄氏定律 | 1.08年 | “5年25倍”,但现实数据集支撑力不足 |
| CPU史研究 | 2.32年 | 仅FLOPS/$ |
| Bergal 2019 GPU | 4.4年 | 样本量小,仅FP32 |
结论:过去15年GPU实际价格性能翻倍约2.5年,介于“摩尔”与“黄氏”之间。
16位与32位:精度影响几何?
拥有FP16与FP32双指标的91款GPU交叉验证:
- FP16价格性能翻番2.30年,FP32为2.46年
- 差距无统计显著性,证实半精度红利已基本被定价进市场。
FAQ:读者最关心的六个疑问
Q1:为何总说“算力翻倍”,而不是“晶体管翻倍”?
A:AI研究者直接关心采购预算与训练吞吐。晶体管 → FLOPS → 价格性能的转化受架构、制程、内存、散热多重影响,用“每美元算力”能更直观反映真实投入产出。
Q2:FP16不更快吗?
A:FP16峰值高,但早期驱动/框架支持不完善,价格优势随生态成熟被抹平,如今差异不再显著。
Q3:为什么黄氏定律会被高估?
A:黄氏定律选取的是理论峰值性能,而市场售价中还包含软件栈、显存、工艺良率、供需溢价等因素。
Q4:机器学习用的GPU真的越来越贵吗?
A:单卡绝对价格的确上涨,但同量级预算能买到的算力却持续增长。研究者用高端卡是主动性价比优化,而非被市场绑架。
Q5:2.5年翻番是否会持续?
A:工艺逼近极限,3D封装、Chiplet、光学互联是潜在加速器,保守估计2027年前仍可维持2.5年门槛,之后需看技术突破。
Q6:个人开发者如何踩准节奏?
A:关注两年前旗舰(如3080级)的二级市场价,它们通常在官方新卡发售后6–9个月跌至新旗舰性能/价格的甜点区。
结语:给算力经济学的极简模型
将GPU价格性能稳定在“2.5年翻倍”这一变量嵌入AI训练预算估算,即可获得一条接近真实的长期算力供给曲线。无论你是企业采购、政策制定者还是独立研究者,这条曲线都是在“跑得快”与“省得多”之间寻找平衡的关键锚点。