Back to Feed
总结
报道称,英伟达在国内仅备货约50万颗H200,但截至1月4日头部互联网、IDC及政府客户意向订单已达75万台八卡服务器,折合约600万颗芯片,供需超额约1:10,分卡难度大。H200目前被指无法在数据中心部署,仅向无国资/政府属性的尾部客户供货,若无法落地CSP或不会实际下单。字节跳动预计2026年投入1500亿元采购AI服务器,并推进外购与自研两条路线:外购框架协议下单约为40%,自研一代6nm侧重推理,二代4nm对标H100并规划百万颗产能。
正文
英伟达国内H200备货50万颗,但1月4日前头部互联网、IDC、政府客户意向订单达75万台八卡服务器(约600万颗芯片),订单超额比例约1:10,分卡存在困难;H200目前不能部署在数据中心,仅可向无国资/政府属性、未接到通知的尾部客户供应。若无法国内部署,CSP大概率不会实际下单。 字节2026年1500亿元用于采购AI服务器,tokens三倍增长,因用卡需求已全面加单并有望持续上修。2026年国内AI服务器CAPEX:已确定为1500亿元,用于采购AI服务器(不含CPU及土地等其他CAPEX)。 外购卡框架协议:寒武纪270亿、海光130亿、昇腾100亿、昆仑5w颗、沐曦5w颗。实际下单量为框架协议的40%。 自研卡具体情况: 一代自研卡采用三星6纳米制程,定位为内部AI应用推理专用,不对外销售。计划1月完成版图加密,2月下旬回样片,5月进入量产,5月至12月陆续交片。良率爬坡,5-8月良率约为50%。定价为2500美元/颗,其硬件成本内部预估为500美元/颗(芯原利润空间)。付款方式为交片测试通过后结算,实行按月交付按月付款。 第二代自研卡于1月4日至5日启动前端设计,目前功能定义阶段已完成。采用三星4纳米制程,芯片尺寸为1200平方毫米,双Die合封,包含两个560平方毫米的计算Die和一个80平方毫米的I/O Die;功耗范围为800至1000瓦;显存采用三星HBM3,容量为144GB;SerDes IP采用Alphawave 112G,其授权已续期3年。在对标方面,除SerDes通讯互联性能稍弱外,其显存容量、带宽、制程和算力均可与H100对标,推理性能无问题,训练性能则稍逊。 采购与成本上,规划产量为5万片晶圆,每片晶圆可切割出20颗芯片,总计100万颗;目前已支付5000片晶圆的定金(比例为50%),款项通过芯原支付。价格谈判方面,芯原报价为5000美元/颗,目标是将价格降至4500美元/颗;其硬件成本约为3500美元/颗,利润空间为1000美元/颗。 寒武纪合作优先级:若寒武纪无产能问题,将成为外部AI芯片采购第一位;其芯片从GPGPU转向ASIC,算子加速模块适配字节豆包模型需求,且字节投入大量适配资源。 芯原合作价值:核心优势为三星产能获取能力(国内80%三星流片公司通过芯原)及后端工艺包熟悉度(6纳米、4纳米、8纳米模拟工艺),后续自研卡设计大概率继续合作。
发布时间: