发布日期:2024-11-23 08:54 点击次数:103
起原:芯智讯
11月19日音书,东谈主工智能(AI)芯片大厂英伟达(NVIDIA)隆重推出了两个全新的AI管制有商量硬件平台,一个是Blackwell GB200 NVL4,一个是Hopper H200 NVL。
据先容,英伟达GB200 NVL4是一个全新的模块,是基于原有的GB200 Grace Blackwell Superchip AI管制有商量的更大延长。GB200 NVL4模块是在更大的主板上设立两个Blackwell GB200 GPU,即领有两个Grace CPU和4个Blackwell B200 GPU。该模块被设想为具有4-GPU NVLINK域和1.3T商量内存的单做事器管制有商量。在性能方面,该模块将使模拟性能提升2.2倍,教练和推感性能提升1.8倍。英伟达的衔尾伙伴将在往时几个月内提供NVL4管制有商量。
此外,基于 PCIe 的Hopper H200 NVL已全面上市,这些卡不错通过 NVLINK 域蚁合多达 4 个 GPU,可提供比法式 PCIe 管制有商量快7倍的带宽。英伟达默示,H200 NVL 管制有商量不错允洽任何数据中心,并提供一系列针对搀杂 HPC 和 AI 责任负载优化的生动做事器设立。
在规格方面,Hopper H200 NVL管制有商量提供了1.5倍的HBM内存、1.7倍的LLM推感性能和1.3倍的HPC性能。您将赢得114个SM,所有14592个CUDA内核、456个张量内核和最多3个FP8 TFLOP(FP16蓄积)性能。GPU具有跨5120位接口设立的80 Gb HBM2e内存,TDP为350瓦。
至于 TDP,由于 Superchip 模块的功率约为 2700W,瞻望更大的 GB200 NVL4 管制有商量的功耗接近 6000W 的功率。东谈主们不错很容易地看到英伟达 为加快 AI 设想限制所作念的起劲。
英伟达最近在MLPerf v4.1中发布了教练和推理方面的天下记载,不仅最新的Blackwell平台令东谈主咋舌,而况上一代的Hopper通过握续优化也变得越来越好。该公司还将其东谈主工智能门路图加快到一年的节律,并规划在往时几年推出几个新的基础措施,如Blackwell Ultra和Rubin。
裁剪:芯智讯-浪客剑