NVIDIA找到新摇钱树:加速卡靠ChatGPT轻松稳赚50亿

2023年03月02日 20:24 次阅读 稿源:快科技 条评论

ChatGPT最近火得一塌糊涂,也将AI人工智能推向了新的高潮,而生成式AI需要海量的数据进行推理训练,高算力的GPU加速卡自然成了抢手货。比如ChatGPT背后的GPT模型,其训练参数在2018年约为1.2亿个,到了2020年就猛增到近1800亿个,如今恐怕至少在万亿级别。

集邦咨询估计,生成式AI对于GPU计算卡的需求量在2万块左右,未来将达到3万块。

这其中受益最多的,自然是NVIDIA,其旗舰级计算卡A100已经在为ChatGPT默默服务,有估算需要3万块才能满足ChatGPT当前的访问量。

A100计算卡单块售价8-9万元左右,3万块就是大约25个亿。

但它往往不是单卖的,而是以DGX A100服务器整套方案的方式销售,每套八块计算卡,算力高达5PFlops(每秒5千万亿次浮点计算),相当于前几年的一套大型超级计算机,是大规模数据分析、AI加速计算的几乎不二之选。

DGX A100服务器单套售价约20万美元,3万块卡下来就是大约7.5亿美元,相当于人民币超过50亿元。

当然,AMD也有MI100、MI200系列加速卡,今年还会推出CPU+GPU融合的全新MI300,算力也很强,但市场份额远不如NVIDIA。

另外,有数据显示,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。


DGX A100服务器

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。

对文章打分

NVIDIA找到新摇钱树:加速卡靠ChatGPT轻松稳赚50亿

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      招聘

      created by ceallan