英伟达宣布推出用于人工智能超级计算的A100 80GB GPU

英伟达今天发布了NVIDIA A100 80gb gpu——支持英伟达HGX人工智能超级计算平台的最新创新——内存是其前辈的两倍,为研究人员和工程师提供了前所未有的速度和性能,以解锁下一波人工智能和科学突破。采用HBM2E技术的新A100将A100的40gb GPU的高带宽内存提高了一倍,达到80gb,提供每秒超过2tb的内存带宽。这使得数据可以快速传输到A100(世界上最快的数据中心GPU),使研究人员能够更快地加速他们的应用程序,并承担更大的模型和数据集。

NVIDIA应用深度学习研究副总裁Bryan Catanzaro表示:“要在高性能计算和人工智能研究领域取得最先进的成果,需要构建最大的模型,但这需要比以往更多的内存容量和带宽。”“A100 80gb的GPU提供了6个月前推出的上一代GPU的两倍内存,并打破了每秒2tb的障碍,使研究人员能够应对世界上最重要的科学和大数据挑战。”

NVIDIA A100 80gb GPU支持NVIDIA DGX A100和NVIDIA DGX Station A100系统,也在今天宣布,预计将在本季度发货。

领先的系统供应商Atos、戴尔技术、富士通、GIGABYTE、惠普企业、浪潮、联想、广达和超微预计将在2021年上半年开始提供使用HGX A100集成底板构建的系统,采用4或8个gpu配置,配置为A100 80gb。

增加大量数据的工作负载
基于A100 40gb的多种功能,80gb版本非常适合具有巨大数据内存需求的广泛应用程序。

对于人工智能训练,像DLRM这样的推荐系统模型有大量的表,代表数十亿用户和数十亿产品。a10080gb可提供3倍的加速,因此企业可以快速重新训练这些模型,以提供高度准确的建议。

A100 80gb还支持在单个hgx支持的服务器(如GPT-2)中进行更多参数拟合的最大模型训练,GPT-2是一种具有超人生成文本能力的自然语言处理模型。这消除了对数据或模型并行体系结构的需求,这些体系结构的实现可能耗时,并且在多个节点上运行速度较慢。

通过多实例GPU (MIG)技术,A100最多可以被划分为7个GPU实例,每个实例都有10gb的内存。这提供了安全的硬件隔离,并为各种较小的工作负载最大化了GPU利用率。对于RNN-T等自动语音识别模型的AI推理,单个A100 80 GB MIG实例可以服务更大的批处理规模,在生产中提供1.25倍的推理吞吐量。

作为零售大数据分析基准,A100 80gb将性能提升至2倍,使其成为对最大数据集进行快速分析的理想平台。随着数据的动态更新,企业可以实时做出关键决策。

对于科学应用,如天气预报和量子化学,A100 80gb可以提供巨大的加速度。Quantum Espresso是一种材料模拟,在A100 80 GB的单个节点上实现了近两倍的吞吐量增益。

日本理化研究所计算科学中心主任Satoshi Matsuoka说:“快速和充足的内存带宽和容量对于在超级计算应用中实现高性能至关重要。”“配备80gb HBM2E GPU内存的NVIDIA A100,提供世界上最快的每秒2tb带宽,将有助于大幅提升应用程序性能。”

A100 80gb的主要特性
A100 80gb包括许多突破性的NVIDIA安培架构的功能:

  • 第三代张量核:提供高达20倍的前Volta一代的新格式TF32 AI吞吐量,以及2.5倍的FP64用于HPC, 20倍的INT8用于AI推理,并支持BF16数据格式。
  • 更大,更快的HBM2E GPU内存:内存容量翻倍,是业界第一个提供超过2tb / s内存带宽的。
  • MIG技术:每个隔离实例的内存翻倍,最多提供7个10gb的MIG。
  • 结构稀疏:提供高达2倍的加速推理稀疏模型。
  • 第三代NVLink和NVSwitch:提供上一代互连技术两倍的GPU到GPU带宽,在数据密集型工作中,数据传输到GPU的速度可达到每秒600g。

英伟达HGX AI超级计算平台
A100 80gb GPU是英伟达HGX AI超级计算平台的关键元素,它集合了英伟达GPU、英伟达NVLink、英伟达InfiniBand网络的全部功能,以及完全优化的英伟达AI和HPC软件堆栈,以提供最高的应用性能。它使研究人员和科学家能够结合高性能计算、数据分析和深度学习计算方法来推进科学进步。

最新头条

温斯顿在it行业有超过20年的经验。他推出Funky Kitnba季后赛欧宝直播的目的是在全球范围内吸引更多的用户。他在PC硬件方面的知识非常出色,不仅发表了令人愉快的评论,还写了很棒的文章。乌克兰捷克预测