导读 Supermicro 宣布推出新的服务器产品,其中包含 NVIDIA 最新的 HGX H200 GPU(带有 H200 Tensor Core GPU),这些产品将为生成式
Supermicro 宣布推出新的服务器产品,其中包含 NVIDIA 最新的 HGX H200 GPU(带有 H200 Tensor Core GPU),这些产品将为生成式 AI 和 LLM 培训领域带来重大进步。
该公司正准备发布包括 8U 和 4U 通用 GPU 系统的 AI 平台,完全支持具有 8-GPU 和 4-GPU 配置的 HGX H200。这些系统通过引入 HBM3e 技术而拥有增强的内存带宽,与前几代产品相比,其容量几乎增加了一倍,带宽提高了 1.4 倍。硬件能力的飞跃预计将满足人工智能研究和开发中对更复杂计算任务日益增长的需求。
此外,美超微还宣布推出一款采用液冷4U系统、配备NVIDIA HGX H100 8-GPU系统的高密度服务器,该服务器采用了该公司最新的冷却技术。Supermicro 声称其是业界最紧凑的高性能 GPU 服务器,表示该系统可在单个机架单元中实现迄今为止最高密度的 AI 训练容量,并将有助于确保成本和能源效率。
与 NVIDIA 的合作使 Supermicro 能够处于 AI 系统设计的前沿,为 AI 训练和 HPC 工作负载提供优化的解决方案。该公司对快速创新的承诺在其系统架构中显而易见,该系统架构允许快速将技术进步应用于市场。全新 AI 系统采用 NVLink 和 NVSwitch 等 NVIDIA 互连技术,支持 900GB/s 的超高速数据传输,并为每个节点提供高达 1.1TB 的 HBM3e 内存,优化了 AI 算法并行处理的性能。
Supermicro 提供多种人工智能服务器,包括广泛使用的 8U 和 4U 通用 GPU 系统。这些配备四路和八路 NVIDIA HGX H100 GPU 的系统现在可以直接用于新的 H200 GPU(具有 41GB 内存,带宽为 4.8TB/s),从而可以更快地训练更大的语言楷模。
Supermicro 将在即将举行的 SC23 上展示 4U 通用 GPU 系统。