·聚焦:人工智能、芯片等行业
云厂商作为ai算力需求的主要承载方,一场由gpu主导的变革正在悄然兴起,这场变革的突出表现在云厂商纷纷下场造芯,结合gpu的短缺、高昂成本、应对云服务更加智能化、自主化、灵活化和可扩展化的需求和广阔前景。
微软、meta、google、亚马逊、特斯拉以及国内的阿里、百度、腾讯等都在投入更多资源研发ai芯片,甚至openai都开始筹备芯片项目。
从时间节点来看,谷歌tpu v5e于2023年8月发布,成为人工智能硬件领域的强大力量,专为大型语言模型和生成式人工智能量身定制。
11月初,微软也采取了类似的思路,首款人工智能芯片maia 100问世。随后亚马逊宣布推出最新的trainium2,其性能是其前一代的四倍,能源效率是其两倍。
国内华为、阿里、百度等云巨头在自研ai芯片方面也在倾力押注,逐级迭代。
据verified market research数据统计,2027年全球gpu市场规模有望达到1853.1亿美元,年平均增速高达32.82%,千亿级赛道风口已至。
据行业曝料,2023年第四季度,nvidia gpu供应量在全球范围内都被严格限制,导致全球市场都出现了明显的供不应求。
在这种情况下,无论是欧美还是中国,厂商和销售渠道都在拼命抢货。
对于中国市场来说,情况更加不乐观,尤其是1月份属于季度末期,2月份又有春节假期。
因此,预计近期nvidia gpu和显卡的供应量都会非常有限,不排除部分产品价格上涨。
至于nvidia为何会控制供应量,确切原因不得而知,猜测很大可能是优先将产能供给加速计算卡所用的高性能gpu。
毕竟,计算gpu的利润要比游戏gpu丰厚得多,尤其是眼下ai需求一浪高过一浪,而计算gpu规模庞大、技术复杂,对于产能的要求也更高。
在aigc浪潮爆发下,英伟达可以说是2023年半导体市场最大赢家,该公司营收也跃居全球最大半导体公司。
据媒体猜测,gpt-4至少需要8192张h100芯片,以每小时2美元的价格,在约55天内可以完成预训练,成本约为1.5亿元人民币。
而且 ,chatgpt所需要的ai芯片并不是固定的,而是逐次递增。chatgpt越聪明,背后的代价是所需算力越来越多。
据摩根士丹利预测,到了gpt-5大概需要使用2.5万个gpu,约是gpt-4的三倍之多。
英伟达正在经历一场比“挖矿时代”更疯狂的市场浪潮,一方面英伟达产能受限于台积电、hbm、cowos封装等产能,h100的“严重缺货问题”至少会持续到2024年底。
另一方面,巨大缺口也导致英伟达h100暴涨,有报道称,英伟达的h100 ai加速卡的物料成本约为3000美元,而在年中售价已经达到了3.5万美元左右,甚至在ebay上卖出了超过4w美元的价格。
研究机构omdia披露,英伟达在2023年第二季度的h100出货量为900吨。按照单片h100gpu的重量约为3千克,那么英伟达在二季度售出了约30万片h100。
到了三季度,英伟达大约卖出了50万台h100和a100 gpu。每家能够分到的gpu数量有限,meta和微软各自采购了15万个h100gpu,谷歌、亚马逊、甲骨文和腾讯则各采购了5万片。
如此庞大的gpu需求量,导致基于h100的服务器需要36~52周的时间才能交付。按照英伟达官方的说法,2024年一季度之前的gpu芯片早已全部售罄。业内预估,明年英伟达的出货量将达到150万-200万颗。
国产gpu正迅速走过进入“从可用到好用”的迭代阶段。华为海思、燧原科技、壁仞、天数智芯、沐曦、珠海芯动力、摩尔线程、海光等厂商在gpu产品、集群、生态和应用层面全面发力,表现可圈可点。
深存科技创始人&ceo袁静丰总结,2023年国产gpu厂商面对国内市场,在更加务实地在做产品、建生态、推应用,在这些层面各家都有一定的优势,而准确定位是关键。
去年9月28日,燧原科技宣布完成d轮融资,总额为20 亿元,超过15家机构参与,成为ai芯片领域最大规模的融资事件之一。
摩尔线程首个全国产千卡千亿模型训练平台——摩尔线程kuae智算中心揭幕仪式举办,宣告国内首个以国产全功能gpu为底座的大规模算力集群正式落地。
展望2024年,无论是禁运以及供应缺口等问题,国产gpu的机遇依旧“在线”。
总而言之,2024年的gpu还充满变数。
从市场的角度看,无论是当下多先进的技术,到最后终将会越来越普世,就看在2024年如何进攻战场了。