产品动态 | 汇聚联AI云:A100新资源即将上线,敬请期待
发布时间:2022-04-22 13:48 作者:
汇聚联科技一直致力于为用户提供良好的超算使用体验。为此,我们将不定期为用户提供产品/资源优化和更新动态,帮助您更了解我们的产品,科研工作更得心应手。在即将全新上线的N32-E分区中,主打资源为基于 NVIDIA Tesla 系列的A100 GPU卡(40GB显存)。该资源已面向用户发放免费测试账号。NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和 HPC 应用场景,在不同规模下实现出色的加速,有效助力全球高性能弹性数据中心。NVIDIA A100 由 NVIDIA Ampere 架构提供支持。作为 NVIDIA 数据中心平台的引擎,NVIDIA A100 Tensor Core GPU 可针对 AI、数据分析和 HPC 应用场景,在不同规模下实现出色的加速,有效助力全球高性能弹性数据中心。NVIDIA A100 由 NVIDIA Ampere 架构提供支持。作为 NVIDIA 数据中心平台的引擎,A100 的性能比上一代产品提升高达 20 倍,可加速处理超大模型和海量数据集。针对与日俱增的AI模型复杂度、其对大规模的计算能力和可扩展性需求,NVIDIA A100 的Tensor Core 借助 Tensor 浮点运算(TF32) 精度,可提供比上一代 NVIDIA Volta 高 20 倍之多的性能,并且无需更改代码;若使用自动混合精度和 FP16,性能可进一步提升 2 倍。A100能在从FP32 到 INT4 的整个精度范围内进行加速。多实例GPU (MIG) 技术允许多个网络同时基于单个 A100 运行,从而优化计算资源的利用率。A100中的Tensor Core可令稀疏模型的性能获得高达两倍的提升。稀疏功能不仅更容易使AI推理受益,同时还能提升模型的训练性能。
A100的HPC
凭借80GB的高带宽显存(HBM2e),A100成为世界首款将显存带宽提升至超过2TB/s的GPU,并将动态随机存取存储器(DRAM)的利用效率提高至95%。A100提供的显存带宽是上一代产品的1.7倍。基于A100,可将原本要花费10小时的双精度模拟过程缩短到4小时之内。HPC应用程序还可以利用TF32将单精度、密集矩阵乘法运算的吞吐量提高高达10倍。采用物理服务器集群搭建;单台服务器可以提供8块 NVIDIA Tesla A100 (40GB)GPU卡;单卡计算能力:
- TF32 Tensor Core :156 TFLOPS
- FP16 Tensor Core:312 TFLOPS
- INT8 Tensor Core:624 TOPS
单台服务器可以提供48CPU物理核心,主频高达3.0Ghz;服务器之间提供100Gbps 高速网络互连,支持RDMA协议;提供免费300GB的共享存储空间(可以按需扩容)。N32-E分区新资源采用 “集群”形态,资源本身可为 2000 余款应用和各大深度学习框架提供加速,集群预置TensorFlow和PyTorch等框架,满足人工智能场景和高性能计算场景中对灵活性和规模化等多样化需求。
深度神经网络、特征抽取、图像分类、目标检测、语义分割、表示学习、生成对抗网络、语义网络、协同过滤和机器翻译等研究成为近年热点,相关技术已应用于计算机视觉、自然语言处理、语音处理及推荐系统等领域。汇聚联AI云主机可灵活地满足相关人工智能技术研究在训练和推理阶段对GPU算力复杂多样需求。在大规模多核高性能计算场景中,GPU可大幅加速计算效率,使科研具有高出数量级的投入产出比,高性能程序GPU化趋势明显,GPU已广泛应用于生命科学、化学、材料、工业制造仿真设计、金融、气象海洋、油气能源等众多高性能计算领域。汇聚联AI云GPU集群资源专为高性能计算场景而锻造。
汇聚联AI云面向高校、科研院所、企事业单位在人工智能和高性能计算等方向的GPU算力需求,提供专业的GPU算力云。AI云通过云主机和集群两大形态供给资源,满足人工智能场景和高性能计算场景中对灵活性和规模化等多样化需求;包括A100-80\A100-40\3090\V100-32\V100-16\A10\T4\国产DCU等多种主流型号的海量资源;预置TensorFlow和PyTorch等框架,开箱即用;更有专家团队7×24小时在线的贴心服务,使科研工作者不为GPU算力分心,省心、高效,专注科研。