英伟达 AI 芯片 H200 开始供货,性能相比 H100 提升 60%-90%
2024 年 3 月 29 日
英伟达发布了一款名为 H200 的尖端图像处理半导体(GPU),面向 AI 领域,性能超过当前主打的 H100。以 Meta 公司旗下大语言模型 Llama 2 处理速度为例,H200 相比于 H100,生成式 AI 导出答案的处理速度最高提高了 45%。英伟达在 AI 半导体市场约占 8 成分额,竞争对手 AMD 等也在开发对抗产品。英伟达还宣布,将在年内推出新一代 AI 半导体「B200」,新产品将用于最新的 LLM 上。GB200 是「最强 AI 加速卡」,包含了两个 B200 Blackwell GPU 和一个基于 Arm 的 Grace CPU,推理大语言模型性能比 H100 提升 30 倍,成本和能耗降至 25 分之一。H200 是英伟达第一款使用 HBM3e 内存的芯片,性能直接提升了 60% 到 90%。
2026-03-18
黄仁勋:英伟达已收到来自中国订单正重启 H200 芯片生产2026-03-05
英伟达已将 H200 芯片产能重新分配,转向 Vera Rubin 硬件2026-01-29
外媒称中国已批准进口首批英伟达 H200 芯片,外交部回应2026-01-14
美国放宽对英伟达 H200 芯片出口中国的管制2026-01-08
英伟达要求中国客户订购 H200 芯片付全款2026-01-06
英伟达:中国市场对 H200 芯片需求强劲,已提交出口许可证申请2026-01-06
黄仁勋:英伟达新款 Rubin 芯片进展顺利,助力加速 AI 进程2025-12-24
英伟达计划明年 2 月重新向中国出货 H200 但尚未获许可2025-12-09
英伟达获准对华出售 H200 芯片 需向美政府缴纳 25% 分成查看更多
体验专业版特色功能,拓展更丰富、更全面的相关内容。