NVIDIA执行长黄仁勋谈深度学习全新运算模型

分享到:
224
下一篇 >
NVIDIA执行长黄仁勋于GPU科技大会(GTC)发表主题演讲时表示,将来若回顾深度学习发展史,2015年堪称深度学习*重要的一年。而2016年将是人工智能、运算科学、电脑产业,甚至是整个人类决定性的一年。

根据The Next Platform报导,黄仁勋在GTC发表以“新运算模型”(A New Computing Model)为主题的演讲时表示,过去5年深度学习领域已获50亿美元投资,催生出1,000多家专注于人工智能和深度学习的新创公司,而深度学习在未来10年将创造逾5,000亿美元的商机。

黄仁勋表示,过去一年深度学习领域出现不少攻占各大科学媒体版面的重大成就,包括ImageNet图像识别大赛、围棋人工智能AlphaGo及发展出可学习执行任务的智能机器和机器人。但真正的好戏还在后头,采用专业加速硬体和先进演算法的全新应用,将使深度学习出现新的使用案例和市场。

简言之,在系统方面,NVIDIA已将这些转变导入Pascal架构GPU和以深度学习为重点的P100芯片及Jetson TX1嵌入式超级电脑。深度学习将不再限制于特定领域,不再仅是应用程式,也不再仅是演算法。

这也是NVIDIA全力投入深度学习的原因,而且每年都计划投入更多资源。NVIDIA认为,深度学习将完全改变运算,是全新的运算模式。

NVIDIA已在2015年发布用来训练深度神经网路的M40、M4两款芯片,为加强这两款芯片被用于深度学习推理端的吸引力,该公司还推出称为GPU推理引擎(GIE)的全新函式库,作用等用于以GPU训练神经网路时的cuDNN函式。

M40、M4两款芯片若搭配该公司低功耗的Jetson TX1嵌入式超级电脑使用,影片辨识的推理运算,效能能从每秒每瓦4张图像提升至每秒每瓦24张图像。

但将GPU用于深度学习的推理运算,虽能大幅提升运算效能,却有一些公司抱怨将GPU用于深度学习的推理部分会太耗电,仅适合训练时使用。

你可能感兴趣: 业界新闻 NVIDIA GPU 嵌入式 芯片
无觅相关文章插件,快速提升流量