查看原文
其他

大公司|英伟达股价两天涨出一个茅台,它财报里到底说了些什么?

陆彦君、王杰夫 新皮层NewNewThing 2024-03-08

撰文:陆彦君、王杰夫

编辑:王杰夫

Key Points


英伟达全年营收创下历史新高达到609亿美元,年度净利润为298亿美元。股价两天大涨2733亿美元,大约是一个茅台。


英伟达数据中心业务占总收入比重从9年前的7%上升到如今的近85%。


过去一年英伟达数据中心大约40%的收入来自AI推理,未来来自AI推理的收入会越来越多。


科技巨头们都在寻找替代方案,自研AI推理芯片成为主流。


英伟达也向下游布局云计算和企业服务业务,以防止被其他科技公司替代。

英伟达再次交出了创纪录的财务业绩。

当地时间2月21日,英伟达发布2024财年第四季度(截至2024年1月28日)和全年财报。第四季度营收创纪录地达到221亿美元,同比增长265%;第四季度净利润为123亿美元,同比增长769%,两项数字均远超分析师的预期。英伟达全年营收也创下历史新高,达到609亿美元,同比增长126%;年度净利润为298亿美元,同比暴增581%。

其他技术公司在几周前已公布业绩,资本市场的目光因而都聚焦到了英伟达身上。摩根士丹利认为,英伟达财报可能会成为左右美股走势的波动性事件。在财报发布前一个交易日,由于市场信心不足,英伟达的股价盘中一度跌超6%。不过财报发布后,英伟达的股价暴涨16.4%,截至当地时间2月22日收盘,英伟达市值逼近2万亿美元,为微软、苹果之后第三高。

数据中心占英伟达总收入的近85%

  • 数据中心已经成为英伟达最赚钱的部门,本季度收入达到184亿美元,环比增长27%,同比猛增409%;

  • 游戏这个英伟达曾经最重要的业务季度收入29亿美元,环比持平,同比增长56%;

  • 专业可视化季度收入4.63亿美元,环比增长11%,同比增长105%;

  • 汽车业务季度收入2.81亿美元,环比增长8%,同比下降4%。

回看过去9年,英伟达的收入构成已经完成了翻天覆地的变化。2016年时,游戏业务为英伟达贡献了约60%的收入,而数据中心业务仅占不到10%,但得益于上一代AI在智能推荐、图像识别等领域的广泛应用,英伟达数据中心业务在收入占比中一直稳步增长。

而2022年ChatGPT的成功,有效验证了大量数据+大量算力就可以训练出效果更好的大模型这一路径后,算力军火商英伟达成为最大受益者。数据中心业务也迅速反超游戏,如今已经占到整体收入近85%。

训练只是开端,未来增长在推理

过去一年多,以GPT为首的主流生成式AI模型都依赖英伟达的图形处理器(GPU)训练,以致于GPU几乎成了AI芯片的代名词。《金融时报》早前报道称,OpenAI训练GPT-4使用了约2.5万枚A100 GPU,训练GPT-5还需要高达5万枚H100 GPU。投资银行Raymond James称,英伟达的H100芯片成本为3320美元,而官方售价在2.5万至3万美元,毛利高达650%至800%。

不过,「训练」只是英伟达的开胃菜,那么后续的「推理」才是未来让英伟达吃到饱的正餐。在AI领域,训练指的是一个初始神经网络通过不断优化自身参数来让自己变得准确,而推理指的是利用成熟的神经网络基于给定的数据去预测结果。简单来说,训练只是开发模型,推理则是让模型动起来为用户提供服务。

在财报电话会议上,英伟达CFO Colette Kress称,「我们估计,过去一年数据中心大约40%的收入来自AI推理」。CEO黄仁勋紧接着表示,由于在线推荐系统也使用了深度学习和生成式AI接口,40%这一数字还「可能被低估了」。

随着越来越多的生成式AI被投入到生产环节中,AI推理带来的算力需求只会越来越大。而最近OpenAI推出的Sora视频模型更是让潜在的需求上了一个台阶,解析和生成图片对于算力的需要明显要比文本高一个量级。有分析称,Sora生成一段60秒视频的成本介于十几至数十美元之间。而这些需求最终都会转换成对于英伟达GPU的需求。

摆脱英伟达

购买AI芯片已经成为各大技术公司资本支出中最昂贵的一项,而且这项支出还在不断扩大。

微软在最新的财报电话会议上预计,由于加大了对云服务和AI基础设施的投资,下一季度的资本支出将环比上升。今年1月,Meta CEO马克·扎克伯格表示,到2024年年底,Meta的计算基础设施将包括35万枚H100芯片,这表明Meta将为此花费近百亿美元。Google更是在今年启动了新一轮裁员,原因是公司2024年将对重大优先事项投资,裁员是为了给这种投资创造能力,CEO桑达尔·皮查伊在一份员工备忘录中表示。

赚钱不易,巨头们意识到了英伟达的垄断性地位带来的威胁。因此过去一年,技术公司在竞争大模型的能力的主线任务之外,还有一项重要的副线任务——降低算力成本。

其中一个方法就是开发算力利用效率更高的模型,例如微软在去年相继推出了小模型Phi-2、Orca 2,它们的参数规模都在100亿以内,微软希望借此与大模型形成互补,理想状态自然是复杂问题由大模型处理,简单问题则交给更节约的小模型。

另一个更常见的方法就是自研推理芯片。既然未来算力的需求主要是在推理上,而推理相比于训练的复杂度更低,所以定制一种专门用于推理的芯片是个可行的方案。为此微软、Google、亚马逊、Meta都走在这条路上,例如微软的Athena和Cascade芯片预计于2024年发布;Google的Maple和Cypress芯片预计将在2025年发布;Meta也预计会在2025年发布MTIA芯片。

此外也有创业公司想要分一杯羹,本周AI芯片初创公司Groq开放了自研的语言处理器(LPU),凭借比GPU更快的推理速度迅速吸引了大量关注。

而作为生成式AI的领头羊,OpenAI更是将想象力延伸至AI产业链的上游,CEO Sam Altman计划募资7万亿美元,重构芯片产业——这家公司不仅想挖金矿,还要自己造铲子。

英伟达的应对

首先就是不断推出性能更好的AI芯片。去年11月英伟达发布了GPU H100的升级版本H200,内存提升至141G,并行计算的速度更快,执行推理和生成问题答案的性能提升了40%至90%。并且有消息称,下一代GPU B100也已经在路上,将会于2024年年底或2025年年初上市。

其次,英伟达还被传出正建立新的业务部门,打算为云计算公司设计定制芯片。2月上旬,据消息人士透露,英伟达已经接触了亚马逊、Meta、微软、Google和OpenAI,共同探讨定制芯片事宜。

最后,掌握着算力主动权的英伟达也在不断向下游布局。它一方面扶持云计算服务商CoreWeaveLambda,为其提供H100 GPU,以应对微软、Google等云服务商未来的垄断。另一方面,它还推出了基于GPU的软件服务平台NVIDIA AI Enterprise,帮助企业构建AI生态系统。截至目前,英伟达在这方面的年度营收达到了10亿美元,黄仁勋表示,随着时间推移,「这可能会成为一项非常重要的业务」,英伟达的软件业务才「刚刚起步」。

3月18日至21日,英伟达将在美国圣何塞会议中心举行年度AI大会GTC 2024,预计将有超过1000家企业、30万人亲临现场或在线参会,OpenAI、微软、Meta、Google DeepMind等技术巨头都会派代表参加,鸿海、广达等英伟达产业链公司也将出席。

-END-

智能晚报|OpenAI携Sora入驻TikTok;Groq芯片推理速度是英伟达10倍,英伟达股价跌超6%…
为什么说Sora冲击的不只是抖音,还有一帮机器人公司?

AI独角兽|⑦Runway:把视频生成出来

继续滑动看下一个

大公司|英伟达股价两天涨出一个茅台,它财报里到底说了些什么?

陆彦君、王杰夫 新皮层NewNewThing
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存