关于汇聚联
汇聚联智算云

面向高校、科研院所、企事业单位在人工智能和高性能计算等方向的GPU算力需求,提供专业的GPU算力云。

产品优势 应用场景 赋能客户 产品规格
产品优势

汇聚联智算云通过云主机和集群两大形态供给资源,满足人工智能场景和高性能计算场景中对灵活性和规模化等多样化需求;包括A100-80\A100-40\3090\V100-32\V100-16\A30\A10\T4\国产DCU等多种主流型号的海量资源;预置TensorFlow和PyTorch等框架,开箱即用;更有专家团队7×24小时在线的贴心服务,使科研工作者不为GPU算力分心,省心、高效专注科研。

        应用场景
            人工智能                高性能计算

深度神经网络、特征抽取、图像分类、目标检测、语义分割、表示学习、生成对抗网络、语义网络、协同过滤和机器翻译等研究成为近年热点,相关技术已应用于计算机视觉、自然语言处理、语音处理及推荐系统等领域。汇聚联智算云主机可灵活地满足相关人工智能技术研究,在训练和推理阶段对GPU算力复杂多样需求。

强劲算力

单机提供NVIDIA Tesla最新架构8卡GPU,显卡直通,性能强劲,支持多机对卡汇聚联提升算力。GPU卡型号丰富,满足训练和推理等多种场景需求。

灵活配置

自主选择GPU卡数、CPU核数、存储容量、网络带宽及操作系统类型等,可根据业务需求灵活构建。

开箱即用

预置TensorFlow、PyTorch、PyCharm、TensorBoard等框架环境,分钟级获得实例环境,即开即用。

灵活购买

支持按量付费、包月包年等灵活的购买方式,起步“0”门槛。

常用环境

TensorFlow、PyTorch、Caffe、MXNet、Keras、Anaconda、PyCharm、Jupyter、OpenCV、TensorBoard、Python、CUDA、TensorRT、NCCL等。

在大规模多核高性能计算场景中,GPU可大幅加速计算效率,使科研具有高出数量级的投入产出比,高性能程序GPU化趋势明显,GPU已广泛应用于生命科学、化学、材料、工业制造仿真设计、金融、气象海洋、油气能源等众多高性能计算领域。汇聚联智算云GPU集群资源专为高性能计算场景而锻造。

强劲算力

提供NVIDIATesla最新架构GPU卡,以裸金属形态输出,消除虚拟化性能损耗,输出极致的性能。

高速互连

100Gb/s高速互连,高性能汇聚联存储,支持大规模汇聚联。

弹性规模

大规模集群架构及GPU队列资源池,可根据计算需求便捷获取数以百卡计算资源。

常用环境

化学领域:AMBER、GROMACS、LAMMPS、NAMD等;

有限元分析:ABAQUS、Ansys、OpenFOAM、nanoFluidX等;

天气/环境建模:WRF、E3SM-EAM、COSMO等;

生命科学:Blast、AlphaFold2等。

赋能客户

某985高校人工智能学院

合作背景
在课题组新生入组时,需要按人数采购GPU服务器支撑实验,采购硬件及硬件存放、管理耗费大量精力;因课题周期等原因,出现短期GPU算力高峰时,无足够资源可用。
合作收益
汇聚联AI云与学院进行联合深度合作,通过云端资源和云账号,灵活满足课题组员流动产生的账号增减、权限分配、因课题周期产生的短时、大量算力等多样化GPU算力需求,灵活按需使用,让科研人员不因算力和平台使用分心,专注科研,提升效率。

某人工智能初创企业

合作背景
该企业的基于客流统计分析的商业智能系统具有以下特点;
•处理万路视频    •推理算力弹性需求度高
•传输带宽高    •成本控制严苛    •数量存储量大
合作收益
通过汇聚联智算云赋能,高效满足业务需求,屏蔽底层IT繁杂的技术细节,获取多方收益;
•基于云化基础设施,快速灵活构建与扩展业务系统    

•研发级业务移植服务支持    •IT维护方面无需分心

•起步投入门槛低,规避风险

某新药研发企业

合作背景
某新药研发企业,由于业务增长迅速,需要利用人工智能前沿算法,结合计算化学和药物化学的经验,对数十亿分子的进行快速筛选,具有研发周期短、计算量大、高通量、存储量大等特性。由于本地GPU资源不足,计算资源扩容速度难以匹配项目增长需求。
合作收益
客户在汇聚联AI云上构建药物研发平台,不仅能够支持多团队、多任务汇聚联的模型训练,同时可以汇聚联调度上百块Nvidia V100 GPU资源,用于Pytorch、TensorFlow大规模分布式训练以及Gromacs、Lammps等分子动力学模拟,将项目时间缩短50%以上,大幅降低研发成本。

中科院某研究所

合作背景
某语义分割相关基金项目周期紧,课题科研人员需在短时间内调用数+张NvidiaV100GPU资源进行项目验证,面对此难题,无论是采购周期亦或是基金支持能力,依靠自采服务器方式显然行不通。
合作收益
基于汇聚联AI云丰富的资源池,科研人员在瞬间获得规模化的GPU云算力,为课题提供算力保障。此外,汇聚联AI云的专家团队基于大量的调优经验,在程序运行效率方面进一步赋能课题科研人员,加速科研产出,保障课题及时顺利完成。
产品规格
  • Tesla A100 PCle高性能异构环境,适用超大规模AI训练和HPC计算
    Nvidia Tesla A100-40G * 8GPU类型
    48核CPU
    384GB内存
    100G Roce高性能计算网络
    40G * 8显存
    支持按卡和节点调度按卡时和节点包月
  • RTX 3090高性能异构环境,适用小规模AI训练和HPC计算
    Nvidia RTX 3090-24G * 8GPU类型
    128核CPU
    512GB内存
    2 * 50G Roce高性能计算网络
    24G * 8显存
    支持按卡和节点调度按卡时和节点包月
  • Tesla V100 SXM2高性能异构环境,适用大规模AI训练和HPC计算
    Nvidia Tesla V100-32G * 8GPU类型
    88核vCPU
    350GB内存
    100G Roce高性能计算网络
    32G * 8显存
    支持按卡和节点调度按卡时和节点包月
  • Tesla A100 SXM4适用1~8块AI训练和HPC计算
    Nvidia Tesla A100-40G * 8GPU类型
    164核vCPU
    948GB内存
    支持1、2、4、8卡包月
    CentOS/Ubuntn/WindowsOS
  • RTX 3090适用小规模AI训练和HPC计算
    Nvidia RTX 3090-24G * 8GPU类型
    240核vCPU
    480GB内存
    支持1、2、4、8卡按时长和包月
    CentOS/UbuntnOS
  • Tesla V100 SXM2适用1~8块AI训练和HPC计算
    Nvidia Tesla V100-32G * 8GPU类型
    88核vCPU
    352GB内存
    支持1、4、8卡按时长和包月
    CentOS/Ubuntn/WindowsOS
  • Tesla A10适用AI推理、渲染和3D可视化
    Nvidia Tesla A10-24G * 1GPU类型
    12核vCPU
    44GB内存
    支持1卡按时长和包月
    CentOS/Ubuntn/WindowsOS
  • Tesla T4适用AI推理、渲染
    Nvidia Tesla T4-16G * 8GPU类型
    88核vCPU
    352GB内存
    支持1/4、1/2、1、2、4、8卡按时长和包月
    CentOS/Ubuntn/WindowsOS
  • 国产加速器DCU高性能异构环境,适用超大规模AI训练
    国产DCU * 4GPU类型
    32核国产X86 CPU
    128GB内存
    200G IB高性能计算网络
    32G * 4显存
    支持按卡和节点调度按卡时和节点包月