大家好,我是老V。一个非常不专业的AI不极客。
今天早上看着Grok给我推送的最新AI的新闻,有一条引起了我的兴趣。
Key Point: Nvidia develops new Blackwell chip variant for China market.
Summary: Nvidia is set to release an enhanced Blackwell AI chip tailored for China, potentially outperforming existing models and navigating U.S. export restrictions in the region.
哟,这是H20卖不出去,也就不管库存了,要新起一炉灶,继续做生意?
于是我让Grok再帮我挖深一点,这个新的Blackwell特供版是怎么一回事。
先来个对比。这个传言中的Blackwell特供版到底有多强。
| 维度 | B30A(中国版,Blackwell 降规) | 完整 B200(Blackwell 旗舰) | H200(Hopper) | H20(中国特供 Hopper) | H100(前代 Hopper) |
|---|---|---|---|---|---|
| 架构 | Blackwell Ultra(单芯,削减版) | Blackwell(双芯) | Hopper | Hopper(降规) | Hopper |
| 显存 | 144 GB HBM3E | 192 GB HBM3E | 141 GB HBM3E | 96 GB HBM3 | 80 GB HBM3 |
| 显存带宽 | 4 TB/s | 8 TB/s | 4.8 TB/s | 4 TB/s | 3.35 TB/s |
| AI 算力 (FP8/INT8 PFLOPS) | ~5 PFLOPS (FP8/INT6), ~2.5 PFLOPS (BF16) | ~4.5–10 PFLOPS (FP8), ~2.25 PFLOPS (BF16) | ~4 PFLOPS(整体 AI) | ~0.3 PFLOPS (INT8), ~0.15 PFLOPS (BF16) | ~2 PFLOPS (INT8), ~1 PFLOPS (BF16) |
| 功耗 (TDP) | ~700 W(传闻) | 1200 W | 700 W | 400 W | 700 W |
| 特性 | 支持 NVLink 多卡互联、高带宽显存;算力约为 B300 一半 | 第二代 Transformer 引擎,生成式 AI 效率更高;整体性能较 H200 提升 2–2.5 倍 | 相比 H100 显存升级,训练/推理均衡 | 基础 NVLink,合规但性能受限 | Hopper 基准,生态成熟 |
| 相对 H200 性能 | 不适用(降规,但多指标优于 H20/H100) | AI 训练/推理提升约 2–2.5 倍;显存 +40%,带宽 +70% | 基准 | 显著更慢(部分 AI 任务仅 0.3 倍) | 约为 H200 的 0.8 倍 |
好吧,简单来说,这个特供版(后面用B30A代替)性比与H200比,不知道该怎么比。但是跟满血B200来比,性能一半,能耗超过一半,只是不知道价格是不是也是一半。如果对比B200的提升,那B30A最起码应该与H200相当啊
但现在英伟达遇到的问题根本不是给中国市场带来一个新产品能解决的。在美国议员担心即便降规芯片亦会助涨中国 AI;而中国安全审查(如“后门”疑虑)又带来阻力的大前提下,你如何说服你的客户这是一个可持续提供的产品。
而在B200已经上市的前提下,英伟达据说计划最早 2025 年 9 月向部分中国客户交付首批工程样品供测试。若测试顺利且美国监管放行,并且中国的安全审查不阻碍的情况下,量产与全面上市最早 2025 年第四季度或 2026 年初。
而且据Grok提供的信息,B200 2025 年全年预计出货约 520 万颗,未来 12 个月的产能已被预订一空。如果这是真的,B30A的产能又从何而来?
上一财年中国的营收约占英伟达总营收的 13%,结合前一段新闻,特朗普要从营收中强取15%来计算,会不会越卖越亏?
我是老V,一个非常不专业的AI领域创作者。想了解更多AI科技动态?欢迎关注我的博客 “AI布知道”,获取最新AI资讯与浅薄解析! 博客链接:https://blog.vftl.top 或 https://blog.vftl.site