首页 / 行业
2022年Q4季度全球独显GPU报告 Intel正式杀入显卡市场
2023-03-20 14:52:00
在游戏显卡市场上,长期以来都是AMD及NVIDIA两家的二人转,2022年Intel正式杀入了显卡市场,虽然只上市了A380、A750、A770等几款显卡,然而这就让显卡市场换天了,抢占了AMD的第二。
根据JPR公布的2022年Q4季度全球独显GPU报告,GPU独显出货量只有1300万块,同比减少50%,销售额下滑了24%(这里可以看出显卡涨价了),其中的原因不难理解,21年底还有矿卡大热,2022年底矿卡早就崩了。
更有意思的是显卡份额变化,NVIDIA变得更强了,市场份额从之前的78%增长到了82%,AMD则从之前的18%下滑到了9%,Intel从0%直接涨到了9%的份额。
虽然AMD及Intel两家的份额都是9%,但具体出货量还是有些差别的,有些外媒报道中称AMD的出货量实际上已经略低于Intel,正式从显卡市场老二变成了老三。
这个只是Q4季度的情况,Intel大涨有很大一个原因是去年底A750/A770显卡降价,而AMD去年底只有RX 7900 XT/XTX等高端显卡上市,销量显然不能比。
更主要的是市场空间相比上一年直接缩水一半,只有1300万块的销量,Intel随便努力一下就有不错的效果。
无论如何,AMD的显卡是要加把劲了。
至于N卡,在游戏市场上没有对手,自己也有了更高的追求。
ChatGPT最近火得一塌糊涂,也将AI人工智能推向了新的高潮,而生成式AI需要海量的数据进行推理训练,高算力的GPU加速卡自然成了抢手货。
比如ChatGPT背后的GPT模型,其训练参数在2018年约为1.2亿个,到了2020年就猛增到近1800亿个,如今恐怕至少在万亿级别。
集邦咨询估计,生成式AI对于GPU计算卡的需求量在2万块左右,未来将达到3万块。
这其中受益最多的,自然是NVIDIA,其旗舰级计算卡A100已经在为ChatGPT默默服务,有估算需要3万块才能满足ChatGPT当前的访问量。
A100计算卡单块售价8-9万元左右,3万块就是大约25个亿。
但它往往不是单卖的,而是以DGX A100服务器整套方案的方式销售,每套八块计算卡,算力高达5PFlops(每秒5千万亿次浮点计算),相当于前几年的一套大型超级计算机,是大规模数据分析、AI加速计算的几乎不二之选。
DGX A100服务器单套售价约20万美元,3万块卡下来就是大约7.5亿美元,相当于人民币超过50亿元。
当然,AMD也有MI100、MI200系列加速卡,今年还会推出CPU+GPU融合的全新MI300,算力也很强,但市场份额远不如NVIDIA。
另外,有数据显示,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。
最新内容
手机 |
相关内容
苹果即将推出Mac系列新品,或搭载3nm
苹果即将推出Mac系列新品,或搭载3nm M3芯片,芯片,搭载,推出,全新,市场,研发,近日,有关苹果即将推出新一代Mac系列产品的消息引起了广英特尔不应该担心英伟达Arm架构的P
英特尔不应该担心英伟达Arm架构的PC芯片?恰恰相反,芯片,英伟达,英特尔,调整,研发,推出,英特尔目前是全球最大的半导体公司之一,主要以群芯微车规级认证的光电耦合器备受
群芯微车规级认证的光电耦合器备受电池BMS和电驱电控市场青睐,电驱,市场,耦合器,微车,认证,测量,随着电动汽车市场的迅速发展,电池管探秘英伟达显卡的制造之路 | 英伟
探秘英伟达显卡的制造之路 | 英伟达断供GPU,中国大模型何去何从?,英伟达,模型,中国大,显卡,方案,能力,英伟达(NVIDIA)是全球领先的图形ACCEL光电芯片,性能超GPU千倍,新一代
ACCEL光电芯片,性能超GPU千倍,新一代计算架构将更早来临,性能,新一代,计算,芯片,超过,处理速度,ACCEL光电芯片是一种新型的IRFB3207PB先在汽车市场爆发,UWB雷达进一步商
先在汽车市场爆发,UWB雷达进一步商业化,汽车市场,汽车安全,市场,汽车行业,高精度,性能,随着技术的不断进步,汽车市场不断爆发,而UWB雷什么是电磁打点计时器,电磁打点计时
什么是电磁打点计时器,电磁打点计时器的基本结构、工作原理、调节固定、应用、频率检查、如何安装及市场发展前景,计时器,频率,结构芯朋微:服务器配套系列芯片已通过客
芯朋微:服务器配套系列芯片已通过客户验证 可应用于AI服务器,服务器,客户,芯片,验证,人工智能,公司,芯朋微是一家专注于人工智能芯片