十五年GPU价格性能演进:每美元算力翻倍只需2.5年吗?

·

关键词:GPU价格性能、FLOPS/美元、摩尔定律、黄氏定律、AI训练算力、FP16、ML GPU、翻番周期

摘要

通过对2006—2021年间上市的470款GPU的全面数据梳理,我们发现:
每美元所购的32位浮点算力(FLOPS/$)约每2.46年翻倍

这一速率介于摩尔定律的“2年翻番”与先前研究的3–4年之间,并显著慢于黄氏定律鼓吹的“1.08年翻倍”。


GPU为何是AI进步的晴雨表?

今天数十亿、上百亿参数的Transformer、Diffusion模型,其训练量已膨胀到GPT-1时代的万倍级别。摩尔定律时代晶体管密度提升逐渐见顶,真正支撑这波算力暴涨的,正是GPU在价格性能上的持续跃进——更便宜的卡带来更多算力,反过来又降低了实验门槛。


数据构建:470款芯片如何筛选而来?

  1. 数据整合

    • 合并 Median Group 与 Sun et al. datasets,去重后约470条。
  2. 年限选取

    • 仅保留2006年之后的数据。2006以前CUDA尚未落地,缺乏通用可编程GPU的理论算力标准。
  3. 剔除异常

    • 16款16位性能反而比32位低60倍的记录被舍弃。
    • 同一型号但规格不同的细分版本保留。

👉 想看完整芯片清单与原始数据集?点此直达参考库。


核心趋势:不同群体呈现三种翻番节奏

1. 全局:470款全部型号

2. 机器学习常用GPU

Meta、Google、OpenAI等机构最常采购的26款GPU(V100、A100、3090、H100等):

3. 发售当月性能冠军


历史对比:究竟谁在夸大GPU增速?

预测/定律折算翻番周期备注
摩尔定律2年晶体管密度
黄氏定律1.08年“5年25倍”,但现实数据集支撑力不足
CPU史研究2.32年仅FLOPS/$
Bergal 2019 GPU4.4年样本量小,仅FP32

结论:过去15年GPU实际价格性能翻倍约2.5年,介于“摩尔”与“黄氏”之间。

👉 用实时数据自行验证GPU性能曲线


16位与32位:精度影响几何?


FAQ:读者最关心的六个疑问

Q1:为何总说“算力翻倍”,而不是“晶体管翻倍”?
A:AI研究者直接关心采购预算与训练吞吐。晶体管 → FLOPS → 价格性能的转化受架构、制程、内存、散热多重影响,用“每美元算力”能更直观反映真实投入产出。

Q2:FP16不更快吗?
A:FP16峰值高,但早期驱动/框架支持不完善,价格优势随生态成熟被抹平,如今差异不再显著。

Q3:为什么黄氏定律会被高估?
A:黄氏定律选取的是理论峰值性能,而市场售价中还包含软件栈、显存、工艺良率、供需溢价等因素。

Q4:机器学习用的GPU真的越来越贵吗?
A:单卡绝对价格的确上涨,但同量级预算能买到的算力却持续增长。研究者用高端卡是主动性价比优化,而非被市场绑架。

Q5:2.5年翻番是否会持续?
A:工艺逼近极限,3D封装、Chiplet、光学互联是潜在加速器,保守估计2027年前仍可维持2.5年门槛,之后需看技术突破。

Q6:个人开发者如何踩准节奏?
A:关注两年前旗舰(如3080级)的二级市场价,它们通常在官方新卡发售后6–9个月跌至新旗舰性能/价格的甜点区。


结语:给算力经济学的极简模型

将GPU价格性能稳定在“2.5年翻倍”这一变量嵌入AI训练预算估算,即可获得一条接近真实的长期算力供给曲线。无论你是企业采购、政策制定者还是独立研究者,这条曲线都是在“跑得快”与“省得多”之间寻找平衡的关键锚点。