|
作为英伟达专为 AI 推理打造的旗舰芯片,GB300 实现了性能维度的全面突破。单芯片集成 2080 亿晶体管,配备 288GB HBM3e 显存,带宽达 8TB/s,可轻松容纳 3000 亿参数级大模型。其 FP4 精度推理算力最高达 1.1 ExaFLOPS,较前代 GB200 提升 50%,更是 HGX H100 的 70 倍。搭配 PCIe Gen6 与 ConnectX-8 800G SuperNIC,单 GPU 数据吞吐量达 800Gb/s,网络带宽较 H100 提升 20 倍。 架构创新:协同与扩展的底层支撑 GB300 采用双光罩设计,通过 NV-HBI 技术以 10TB/s 带宽整合两颗芯片,并与 36 颗 Grace CPU 组成 NVL72 机架系统,形成 130TB/s NVLink 全域互联的 “超级 GPU”。液冷散热方案与台积电 4NP 工艺的结合,在支撑 1.4kW 功耗的同时,保障高密度计算稳定性。开源框架 Dynamo 可动态分配算力,分离 LLM 推理的上下文与生成阶段,进一步优化多节点扩展效率。 应用价值:AI 工厂的效率革命 这款芯片重新定义了 AI 推理效率:在 DeepSeek-R1 等模型测试中,每秒令牌处理量达 1000 个,较 Hopper 架构提升 10 倍。其推动的 AI 工厂输出较前代提升 50 倍,每兆瓦吞吐量提升 5 倍,大幅降低 TCO。从实时多智能体交互到长上下文推理,GB300 已获大量订单,将于 2025 年下半年量产,成为云数据中心与科研机构的核心算力支柱。 |