摩根士丹利最新发布的重磅陈述,初次经过精细的财政模型,给全球AI算力比赛的报答率算清了经济账。定论是:一座规范的“AI推理工厂”,不管选用哪家巨子的芯片,其均匀利润率遍及超越50%。

  其间,英伟达GB200以近78%的利润率一点点没有悬念地封王,而谷歌和华为的芯片也“稳赚不赔”。但是,被商场寄予厚望的AMD,其AI渠道在推理场景下却录得严峻亏本。

  大摩的模型测算成果,折射出AI硬件巨子们在实在商业场景下的盈余才能分解,谱写出一首明晰的“冰与火之歌”。

  陈述显现,选用英伟达旗舰产品GB200 NVL72的“AI工厂”,盈余才能达到了恐惧的77.6%,一骑绝尘。这不只源于其无与伦比的核算、内存和网络功用,还得益于其在FP4精度等范畴的继续创新和CUDA软件生态的深沉壁垒,展示了肯定的商场统治力。

  谷歌自研的TPU v6e pod则以74.9%的利润率紧随其后,证明了尖端云厂商经过软硬件协同优化,彻底有才能构建起极具经济效益的AI基础设施。

  陈述最具颠覆性的定论,莫过于AMD在推理场景下的财政体现。大摩测算多个方面数据显现,选用其MI300X和MI355X渠道的“AI工厂”,利润率分别为-28.2%和-64.0%。

  亏本的中心原因首要在于昂扬本钱与产出功率的严峻失衡。陈述多个方面数据显现,一个MI300X渠道的年度总具有本钱(TCO)高达7.74亿美元,与英伟达GB200渠道的8.06亿美元处于同一水平线。

  这意味着,运营AMD计划的前期投入和继续开支是尖端的,但在模型所模仿的、占未来AI商场85%比例的推理使命中,其token产出功率所能发明的收入,远不足以掩盖其昂扬的本钱。

  支撑上述定论的,是摩根士丹利创始的一套规范化剖析结构——“100MW AI工厂模型”。它将不同技能途径的AI解决计划,置于同一商业维度下进行量化评价,其中心在于三大支柱:

  1. 规范化的“算力单元”:模型以100兆瓦(MW)的电力耗费作为“AI工厂”的基准单位。这是一个中等规划数据中心的典型功耗,足以驱动约750个高密度AI服务器机架。

  2. 精细化的“本钱账本”:模型全面核算了总具有本钱(TCO),首要包含:

  基建本钱:每100MW约6.6亿美元的本钱开支,用于建造数据中心及配套电力设施,按10年折旧。

  硬件本钱:总额可高达3.67亿至22.73亿美元的服务器体系(含AI芯片),按4年折旧。

  运营本钱:根据不同冷却计划计划的电源运用功率(PUE)和全球均匀电价核算得出的继续电费。

  归纳预算,一座100MW“AI工厂”的年均TCO在3.3亿至8.07亿美元之间。

  3. 商场化的“收入公式”:收入与token产出直接挂钩。模型根据各硬件的揭露功用数据核算TPS(每秒处理token数),并参阅OpenAI、Gemini等干流API定价,设定了每百万token 0.2美元的公允价格。一起,考虑到实际中70%的设备利用率,使得收入猜测更靠近商业实际。

  盈余才能的背面,是更深层次的战略博弈。陈述提醒,未来的AI战场,焦点将会集在技能生态的构建和下一代产品的布局上。

  在非英伟达阵营,一场关于“衔接规范”的战役现已打响。以AMD为首的厂商力推UALink,着重其对低推迟的严厉规则对AI功用至关重要;而以博通为代表的力气则建议选用更敞开、灵敏的以太网计划。这场争辩的输赢,将决议谁能建立起一个可与英伟达NVLink抗衡的敞开生态。

  与此一起,英伟达正以明晰的路线图稳固其领头羊。陈述说到,其下一代渠道“Rubin”正按计划推动,估计2026年第二季度进入大规划量产,同年第三季度相关服务器就将开端放量。这无疑给一切竞争者设定了一个不断移动的、更高的追逐方针。

  总而言之,摩根士丹利的这份陈述,为疯狂的AI商场注入了一剂“商业理性”。它雄辩地证明,AI推理不只是一场技能革命,更是一门能够被准确核算且报答丰盛的生意。

  关于全球的决策者和出资者而言,前文两张盈余图表,将对AI年代算力出资供给相当大的参阅价值。

  特别声明:以上内容(如有图片或视频亦包含在内)为自媒体渠道“网易号”用户上传并发布,本渠道仅供给信息存储服务。

  日本妹子16岁生娃,连生6个儿子被夸全员明星脸,但一个月光吃饭就要花24万…

  博士结业于福建农林大学,石河子大学农学院教授以通讯作者身份在世界威望期刊(IF=12.4)上宣布研讨论文

  王晶谈刘德华长红数十年诀窍,泄漏其一家三口茹素:吃饭都是吃一大把维他命,自律到难以想象,苦行僧日子

  《编码物候》展览开幕 北京年代美术馆以科学艺术解读数字与生物交错的世界节律

  《鸣潮》2.6 版别8月28日上线:新增英伟达 DLSS 4 多帧生成功用

  大眼橙 C3 系列投影 8 月 28 日发布,TCL 华星独供 LCD 屏