NVIDIA 携手微软,推出满足 AI 云端运算需求的GPU加速器

分享到:
126
下一篇 >
显示芯片生产厂辉达商 (NVIDIA) 在 9 日宣布,将携手软件大厂微软 (Microsoft),发展全新专为驱动人工智能 (AI) 云端运算的超大规模 (hyperscale) GPU 加速器蓝图「HGX-1 」。 全新 HGX-1 架构的设计是为满足 AI 云端运算的需求需求而来。 其范围包含自动驾驶、个人医疗照护、超越人类的语音识别、数据与影像分析以及分子仿真等应用。

辉达表示,全新 HGX-1 是一款结合微软 Project Olympus 开源设计的超大规模 GPU 加速器,提供超大规模数据中心于人工智能快速且具弹性的途径。 而且,HGX-1 适用于建构在云端运算上的人工智能作业,如同二十多年前为 PC 主板所推出 ATX (Advanced Technology eXtended) 时的角色一般,HGX-1 建立了一项业界标准,能快速且有效的被采用以协助达到急速增长的市场需求。

辉达共同创办人暨执行长黄仁勋表示,AI 为全新的运算模型,因此需要全新的架构支持。 HGX-1 超大规模 GPU 加速器在 AI 云端运算所扮演的角色,如同过去 ATX 标准使现在 PC 能够普及一样。 HGX-1 将使云端服务供货商能更轻易的透过 NVIDIA GPU 满足激增的 AI 运算需求。

微软公司总经理,暨 Azure 硬件基础架构部门工程师 Kushagra Vaid 也指出,HGX-1 AI 加速器将提供极至的效能扩充,以达成快速成长的机器学习作业负载需求,同时,其特殊的设计使现今全球各地的数据中心皆能轻易采用。 对于全球数千家已投资 AI 与采纳基于 AI 作业方法的企业与新创公司而言,HGX-1 的架构在云端上展现了****的配置管理与效能。

根据规划,未来 HGX-1 在每部主机皆配置 8 颗 NVIDIA Tesla P100 显示适配器。 其特色在于使用以 NVIDIA NVLink 互联技术与 PCle 标准为基础的**转换设计,使 CPU 能够任意与多颗 GPU 进行连接。 这让在 HGX-1 基础架构标准化的云端服务业者,能提供客户各种 CPU 与 GPU 的机器配置。

由于,云端作业较以往更加的多样化且复杂。 因此,在 HGX-1 架构下,包括 AI 训练、推论和高效能运算 (HPC) 作业都可以透过 CPU 链接至不同数量的 GPU,以*佳的方式运行于不同的系统配置中。 而不论作业负载量多大,HGX-1 的高度模块化设计,都能使其能以*佳的效能运行。 同时,HGX-1 提供较传统基于 CPU 的服务器快达 100 倍的深度学习效能,却仅有五分之一的执行 AI 训练成本与十分之一的 AI 推论成本。 未来,HGX-1 透过与全球各地数据中心合作的高度弹性,提供目前超大规模数据中心用于 AI 领域快速且简单的途径。

你可能感兴趣: 市场行情 图片 NVIDIA 加速器 GPU 微软 AI
无觅相关文章插件,快速提升流量