NVIDIA H100 Tensor Core GPU 提供前所未有的性能、可扩展性、以及每个工作负载的安全性。借助 NVIDIA® NVLink® 交换机系统,最多 256 个可以连接 H100 GPU 以加速百万兆次级工作负载,同时专用Transformer Engine 支持万亿参数语言模型。H100 用途NVIDIA Hopper™ 架构的突破性创新,可实现行业领先的对话式 AI,将大型语言模型的速度提高了 30 倍。
NVIDIA H100 GPU 采用第四代 Tensor Core 和 Transformer具有 FP8 精度的引擎,进一步扩大了 NVIDIA 在市场领先的 AI 领导地位训练速度提高 4 倍,推理速度提高 30 倍。对于高性能计算 (HPC) 应用,H100将 FP64 的每秒浮点运算数 (FLOPS) 增加三倍,并增加动态编程 (DPX) 指令可提供高达 7 倍的性能提升。采用第二代多实例 GPU (MIG),内置 NVIDIA 机密计算和 NVIDIA NVLink 交换机系统,H100 安全地加速了所有适用于从企业到百亿次级的每个数据中心的工作负载。数据表加速每个工作负载,NVIDIA H100 是不可或缺的NVIDIA数据中心的一部分平台。专为 AI、HPC 和数据而构建分析,平台加速超过 3,000 个应用程序,并且是从数据中无处不在从中心到边缘,两者兼而有之显著的性能提升和节省成本的机会。
