哈喽兄弟们,英伟达最新的通用GPU H100,售价已经到了4万美元一块,也就是说一颗芯片就要卖27万人民币。上一代的旗舰款GPUA100,目前的价格也是在1万美元,差不多就是7万块钱人民币。
我们之前都讲过H100芯片,在大型语言模型的推理速度方面,要比A100快30倍,这个已经是2022年的事了。

现在爆火的XIGBT,本质上来讲,它就是一个大型语言模型。Opna需要用3万颗A100的GPU,来为柴GPT提供足够的算例。
一龙mask,最近也是购买了1万个GPU。用干Twitter的数据中心建设,还计划在成立一家新的AI公司,来与opponi进行竞争。GPU芯片持有量超过1万枚的企业,一共不超过5家。那拥有1万颗英伟达A100GPU的企业,目前来说只有一家。

所以兄弟们无论是哪种AI模型,它的先决条件,一定是要先拥有大量的GPU计算卡,所以希望我们自己的AI产业也能越来越好。
评论留言