cha

英伟达推出ChatGPT专用GPU,处理速度提升十倍

  鞭牛士 3月22日消息,生成式AI的爆火使得成立近30年的英伟达再次迎来高光时刻。

  针对算力需求巨大的ChatGPT,英伟达发布了NVIDIA H100 NVL,这是一种具有94GB内存和加速Transformer引擎的大语言模型(LLM)专用解决方案,配备了双GPU NVLINK的PCIE H100 GPU。

  黄仁勋表示,当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100(OpenAI便是使用A100 GPU训练和运行ChatGPT),而H100 GPU的处理速度比A100 GPU快十倍,可以将大语言模型的处理成本降低一个数量级。

  此外,为了加速生成式AI开发及部署,英伟达宣布推出四款全新推理GPU——L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片(见下图),分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速、推荐系统和大型语言模型的AI数据库。


您可能还会对下面的文章感兴趣:

登录 注册 退出