英特尔AI四大策略彻底解析

分享到:
266
下一篇 >
许多人都看好人工智能(AI)的未来发展,处理器大厂英特尔也积极应战,他们宣布将扩展多款服务器运算技术、强化软件程序码效能,以及并购新创公司,而在11月的Intel AI Day的活动上,他们正式提出了完整的AI发展蓝图和架构,并预告接下来的处理器平台将更**支援AI。

建立AI人才培育管道

基于英特尔既有的***专区网站,他们成立了Nervana AI学院的网页,并且统合在英特尔新设的AI专属网页上,这里针对***/资料科学家、学生,提供了多种学习的资源,像是线上课程、文件,以及与机器学习、深度学习有关的介绍。

除了强化自身的硬体运算平台效能、提供软体应用开发环境的支援,以及拉拢合作夥伴,英特尔在AI的策略布局上,也强调会协助培养相关人才。

为了要推动即将崛起的AI应用、使其变得更为普及,英特尔**副总裁暨软体与服务事业群总经理Doug Fisher提出呼吁,各界对于AI技术的根源,应该要更重视。

身微处理器厂商,Doug Fisher说,他们必须设法发挥英特尔运算架构的所有价值,使其能够彻底支援新的应用;同时,要确保AI技术能够持续不断地发展,因为,软体与人才的支援,也都是AI应用成长动力的根源,为此他们会准备基本的教育训练、开发工具等学习资源,提供给开发人员、资料科学家、学生,而当这些人员手上有了足够的工具和知识、实务经验之后,日后将这些就有机会分享到社群上,进而加速相关技术的采用与**,实现AI应用的普及。

设立Nervana AI学院,整合AI相关学习资源

基于多年来经营的***计画,英特尔宣布成立Nervana AI Academy,专职负责,希望藉此协助科学家、学生、开发人员,建立他们想要达成的AI解决方案,加速AI运算时代的来临。

此外,英特尔也在***专区的AI专属网页,提供网站入口(software.intel.com/ai),有志发展深度学习与人工智慧应用的人,从这里可以看到各种入门与进阶的学习资源,像是Nervana AI Academy,以及所有与AI有关的软体与技术情报,例如,针对英特尔运算架构*佳化的深度学习框架、进行深度学习处理流程所需的训练与部署工具,以及教育训练、线上课程等。

Nervana AI Academy主要诉求的对象,是软体***与或资料科学家,而对于未来有可能成为这些人才的在校学生,英特尔在***专区的AI专属网页里面,也特别设立了专区。

同时,英特尔也宣布成立AI的学生驻校代表计画Student Ambassador,鼓励他们投入这个领域,并且与全球各地的大学合作,希望能找出有兴趣的学生,以及具有机器学习、AI研究能力的学者,并且提供赞助。

将提供开放式的线上学习课程,并鼓励参与竞赛,强化实战经验

秉持回归技术源头的精神,对于未来可能成为软体***与资料科学家的人员,例如目前在校就读的学生,英特尔也希望透过一些方式,及早拉拢这群潜在用户,使他们更愿意用IA运算架构来建置AI应用。

首先,是教育的提供。英特尔宣布与知名的线上教育机构Coursera合作,预计在2017年开始推出AI线上课程。

而在英特尔与Coursera的开放式课程计画当中,将会由英特尔与业界的专家,以及AI领域的意见**,来担纲课程的主讲。透过这样的教学形式,英特尔期望能够培养出更多受过训练的AI传讲者,以便将相关的知识推展出去。

对于AI技术能力的培养,除了提供学习知识的管道,具备足够的实战经验也是必须的,英特尔也鼓励有志学习AI的人,能够发挥所学,解决现实世界的问题,而基于人才培养的策略,他们宣布与新创公司Mobile ODT合作,在资料科学竞赛平台Kaggle.com上举办AI竞赛,这项活动将在2017年2月展开。

在这场活动当中,英特尔希望吸引资料科学家与软体开发社群的注意,投入更多的专业技术与支援能力,例如,能善用AI的图片辨识机制,分析人体软组织的医疗影像,确认患者是否具有**颈癌早期阶段的征兆,并且能够更快、更精准地判断与分类。

拉拢云端服务业者,建立策略合作

在Intel AI Day的活动上,Google企业**副总裁Diane Greene特别出席参加,她与英特尔执行副总裁暨资料中心事业群总经理Diane Bryant同台,宣布双方在AI应用上的策略联盟。

在有意发展AI的企业当中,云端服务商需比一般公司更早布局,因此他们现在就必须关注伺服器平台的支援,以便能基于效能*佳化平台,支撑相关工作负载,而在英特尔11月宣布与Google结盟的消息当中,双方策略合作的项目,也涵盖到机器学习。

机器学习:改良TensorFlow在英特尔运算架构的执行效能

首先,针对Google发展的AI程式库TensorFlow,若执行在基于英特尔运算架构(Intel Architecture)的系统时,英特尔承诺,将协助这样的软硬体搭配,可以获得*佳的效能,并且预计在2017年**季发表合作的初步成果。

Google Cloud全球技术夥伴关系部门的主管Nan Boden表示,对于TensorFlow在英特尔处理器平台的执行效能,他们希望能提升。例如,允许TensorFlow运用所有的处理器核心与向量通道,进而改善平行处理;TensorFlow整合英特尔提供的高效能程式库,像是数学核心程式库(MKL);以及横跨多个部署架构时,能够针对记忆体配置与资料层的作业,提供*佳化。

Kubernetes:支援多种云环境,强化虚拟网路效能与QoS

双方另一个部分的关系进展,则是针对Kubernetes。对于这套由Google发展出来的应用程式container管理平台,英特尔将协助改善它在多云环境下运作的功能,以及相关的程式码*佳化。

一般而言,Kubernetes能为容器化的应用程式环境,提供自动化部署、扩展与维运,而这部份涵盖到新兴AI应用系统的范围,因此,英特尔也将这部分的支援,视为该公司AI整体策略的发展的一环。而在先前,两家公司曾讨论到共同推动Kubernetes整合到OpenStack的计画,现在,双方的合作关系将更为扩大,希望在Intel Architecture下,一起设法提升Kubernetes的执行效能、改善IT基础架构的管理方式,并且提升对于企业工作负载的进阶**保护。

对此,英特尔资料中心事业群副总裁暨云端服务供应商业务总经理Raejeanne Skillern表示,在未来半年内,这些程式码*佳化工作的成果,也将提供给社群审查,同时,英特尔和Google的工程团队,会把当中预计改善的*佳化程式码,提供给云端服务业者。

事实上,英特尔本身也Kubernetes生态体系发展的主要贡献者之一,他们想协助企业将OpenStack云端环境的执行,转为可控管的Kubernetes工作负载的形式。而先前他们与Google工程团队,已经合作开发出*佳化程式码,以便在英特尔运算架构执行Kubernetes时,能够提高功能的透明度。

接下来,双方会希望改善工作负载的功能,例如虚拟网路的效能,以及对于共用资源的存取优先顺序保障。

物联网:建立平台,使IoT装置能够**连接云端服务

在这项策略合作下,英特尔的物联网装置与Google Cloud Platform(GCP)云端服务之间,也将予以整合,希望能够建立**平台来连接彼此,以便将收集到的资料进行后续分析,进而辅助后续的决策制定。而能否提供横跨终端装置到云服务的**解决方案,对于特定类型的产业应用而言,如零售业与制造业,至关重要。

承诺AI应用效能*佳化,扩大支援AI软体开发环境

英特尔对于AI应用的支援,首先是处理器内建低阶软体原始指令,例如MKL-DNN;针对深度学习软体框架,提供*佳化程式码;对于大数据分析应用平台,投入Hadoop、Spark的版本提供或贡献程式码;而在整合式软体开发工具,他们也推出Deep Learning SDK。

看好人工智慧带来的运算处理需求与未来的蓬勃发展,英特尔不只是推出多种伺服器端处理器来因应,在2016年11月举行的Intel AI Day活动期间,他们宣布将更积极发展深度学习应用的运算与沟通处理的程式库,并以基本指令(primitives)的形式整合到处理器硬体上。而在AI应用软体开发的支援上,他们陆续开始提供的部分,包含:程式库、程式语言的支援、平台、软体开发套件、程式开发框架。

无独有偶,IBM与Nvidia也在11月宣布,双方将联手开发新的深度学习专用软体开发套件PowerAI,可搭配IBM 专为AI应用所特别设计的伺服器——OpenPOWER LC(采用Power运算架构与Nvidia NVLink互连技术),藉此提供企业级的深度学习解决方案。

英特尔在Intel AI Day提出人工智慧的策略,正巧IBM与Nvidia也在之前宣布了PowerAI,在那一周期间,同时,又适逢全球高效能运算界关注的SuperComputer 2016大会举行。显然两大阵营争相较劲的意味相当浓厚,而且他们*终竞逐的目标,其实都是下一波企业应用。

英特尔AI解决方案总览

在AI应用的布局上,英特尔不只是单纯提供处理器平台,软体的支援更是重点——他们发展多种程式库、软体开发平台,积极支援多种深度学习应用框架,同时也会推出整合式的解决方案。

积极支援多种深度学习框架,陆续提供IA架构效能*佳化的程式码

以发展AI应用系统所采用的各种程式开发框架为例,英特尔承诺,将针对在Intel Architecture运算架构(IA)的系统环境,提供经过*佳化的程式码,以提升执行效能。

例如,在深度学习技术的应用领域当中,较为风行的几种开放原始码软体框架(Deep Learning Framework),像是Caffe、Theano、Torch、MXNet、Neon,英特尔已经提供Intel Architecture*佳化程式码。��于TensorFlow的部分,英特尔与Google Cloud Platform在11月的Intel AI Day活动上,正式宣布策略合作后,*快于2017年初,才会释出相关的程式码。

Caffe

这是由美国柏克莱视觉与学习中心(BLVC)所开发的框架,英特尔提供了特制版本Intel Optimized Caffe,可适用于Xeon与Xeon Phi处理器平台,当中整合了英特尔发展的数学核心程式库MKL(Math Kernel Library),并且已针对AVX2和AVX-512指令集,进行软体效能*佳化的工程。

而Caffe经过改良的成效如何?英特尔提出的实例,是影音服务业者乐视云(LeTV Cloud)的非法影片侦测应用。他们是在Xeon E5-2680 v3伺服器平台上,搭配Intel Optimized Caffe来进行影片分类的训练,结果得到了30倍的效能提升(相较于他们先前使用的BLVC Caffe,搭配OpenBlas程式库作为卷积式类神经网路)。

Theano

它是由加拿大蒙特娄大学LISA实验室发展的深度学习框架,英特尔也提供了改良的程式库,是针对多核心运算环境予以*佳化而成的版本,而在京都大学大学院医学研究科的应用案例当中,当他们以此进行新药探索模拟运算的测试上,精准度*高可达到98.1%,而另一个深度学习网路(Deep Belief Networks,DBN)的测试当中,也获得8倍的效能增长。

Torch

Torch也是许多人很关注的深度学习框架之一,目前主要维护的成员,是来自Facebook、*******、Google DeepMind公司的研究科学家和软体工程师。英特尔对这套框架提供*佳化支援之余,同时整合了MKL程式库,进而针对伺服器硬体端执行的深度神经网路指令集,提升效率。

而在这样的环境搭配下,英特尔举出的例子是他们与Pikazo软体公司合作,针对他们开发的图像风格转换App,协助后端处理效能强化——若以App刚推出的效能作为基准,现在Pizako App在图形上色(render)的速度,可提升到28倍,而能够处理的图档尺寸也扩充到15倍之大。

Neon

Neon是英特尔并购的Nervana Systems公司所发展出来的程式库,强调易用与高效能,在其现有的技术架构当中,可区分为深度学习功能(演算法)、资料模型、解决方案等三层。

在这次的Intel AI Day大会上,英特尔也预告将推出Intel Nervana Graph Compiler,作为AI应用软体层的共通基础,以此对于深度学习应用的架构型态,提供更进阶的描绘方式,以及调校作法。

针对类神经网路,提供高阶的图**算编译器

深度学习框架Neon对于硬体资源的存取,会透过不同平台的转换API来介接,因此上层应用无须考虑硬体差异,接下来,英特尔会在Neon原本的架构与硬体转换层之间,新增一层Nervana Graph Compiler,主要是为了针对类神经网路应用,提供高阶的处理,以便同时横跨多台硬体设备执行。

Intel Deep Learning SDK

除了支援不同***所偏好的深度学习框架之外,英特尔本身也会推出Intel Deep Learning SDK。

藉由当中提供的简易使用介面,资料科学家与软体开发人员可发展各种深度学习的应用方案。

例如,透过SDK里面的训练工具,我们能够进行深度学习模型的设定、准备、设计;若要将已经训练好深度学习的模型,自动进行*佳化与部署的程序,也可以运用SDK包含的部署工具来帮忙。

英特尔处理器内建新的原始指令,强化深度学习效能

针对各种深度学习框架提供*佳化之余,英特尔在旗下的处理器产品当中,也内建了多种程式库来提升AI应用系统的效能。

Math Kernel Library(MKL)

MKL是英特尔发展了22年的程式库,里面集合了许多原始的数**算指令,可加速在工程、财务、科学等领域的模拟与分析处理,2016年之后,由于增加了MKL-DNN的程式库,因此也能提升机器学习与深度学习的效能。目前内建MKL的处理器,包含个人电脑用途的Core,以及伺服器等级的Xeon、Xeon Phi。

这套程式库提供了低阶的C与Fortran程式语言介面,能执行多种通用运算,例如,矩阵的乘法、分解、快速傅立叶转换、乱数产生、向量函数等,能支援多种作业系统平台的应用程式开发,例如,Windows(微软Visual Studio),以及Linux与OS X(Eclipse)。

Math Kernel Library for Deep Neural Networks(MKL-DNN)

透过深度学习框架开发的应用程式,若要执行在Intel Architecture的处理器环境,英特尔提供了一套开放原始码的效能强化程式库,称为Math Kernel Library for Deep Neural Networks(MKL-DNN)。

它与英特尔的MKL程式库之间,有很大渊源。

因为,MKL-DNN是2017版MKL所延伸出来的产物,当中包含了高度向量化与穿插式的建构模块,而且是透过C与C++程式语言的介面,实作出卷积类神经网路(Convolutional Neural Networks,CNN)的架构,并且不只能在C和C++这两种开发环境运用,也可用于Python和Java等高阶程式语言。

针对深度学习应用系统当中所进行的运算密集式工作, MKL-DNN也能对相关的框架提供加速处理,英特尔特别强调可支援上述提及的Caffe、Theano、Torch、Tensorflow等深度学习专用的程式库。

从伺服器到个人电脑的处理器,都内建新程式库,强化AI效能

除了提供*佳化程式码,英特尔在处理器平台上,也内建了原始指令:**深度神经网路使用的数学核心程式库MKL-DNN,以及用于深度学习讯息传递应用的机器学习规模扩展程式库MLSL。

Machine Learning Scaling Library(MLSL)

在Intel AI Day活动当中,英特尔也预告将推出一套新的程式库,称为Machine Learning Scaling Library(MLSL),可在深度学习系统的多节点互连架构下,进行规模扩展的应用,可支援32个节点以上所组成的深度学习系统。有了MLSL之后,深度学习系统可针对不同节点之间的讯息传递作业,进行抽象化的处理。

MLSL是架构在现有平行运算系统所惯用的MPI(Message Passing Interface)之上,可运用其他用于讯息沟通的程式库,而在讯息沟通的模式上,用户若要扩展到更大的系统使用规模,MLSL也将对此提供*佳化。MLSL本身也提供通用的API介面,可支援上述的各种深度学习软体框架。

此外,由于MLSL与深度学习系统的多台节点扩展应用有关,因此能否适用不同的网路互连方式,也很重要。MLSL目前可支援的连线规格,有标准的乙太网路、InfiniBand,以及英特尔发展的次世代互连网路架构Omni-Path Architecture(OPA)。

Data Analytics Acceleration Library(DAAL)

目前英特尔针对AI应用所持续发展的程式库,除了上述的MKL,还有Data Analytics Acceleration Library(DAAL),这套在2015年推出的程式库,可针对基于Intel Architecture处理器平台的个人电脑、伺服器,提升大数据分析作业的执行效能。

这套程式库包含多种经过*佳化的演算法建构模块,能够支援资料分析过程中的每个阶段,像是前置处理、转换、分析、建模、验证、抉择,并且在离线、线上串流与分散式等不同的资料分析环境里面执行。

DAAL的发展上,也考量到常见的大数据平台应用需求,目前已可强化Hadoop、Spark、R、Matlab系统的资料存取效率。同时,DAAL也内建资料管理机制,协助应用系统得以从多种来源存取到资料,例如档案、记忆体内的缓冲区、SQL资料库、HDFS档案系统。

DAAL与MKL同样皆可针对大数据的处理,不过,若遇到资料量大到记忆体无法全部载入的情况,DAAL本身能运用特制的演算法来因应——将资料切割为块状,而不是全部放进记忆体。

在程式语言的部分,DAAL提供高阶的C++、Java与Python介面,可用来处理多种资料分析需求,像是主成分分析、回归、分类、群集与购物篮分析。透过这个程式库,你可以利用指定的演算法来训练出模型,然后评定资料集在这模型中的分数。

延伸四大产品线,提供AI通用与高效能运算架构

若要在资料中心环境当中建构AI系统,英特尔预计将提供4种运算平台:Xeon、Xeon Phi、Xeon搭配FPGA(Arria 10)、Xeon搭配Nervana(Lake Crest),分别主打基本用途、高效能、低延迟与可程式化、类神经网路加速等不同需求。

这一年来,除了云端服务、大数据、行动应用持续走红以外,人工智慧(AI)无疑是下一个即将起飞的热门IT技术,许多人已经开始积极投入机器学习、深度学习的开发与应用,绘图处理器大厂Nvidia今年的营收、获利、股价持续上涨,也与此有关,而同样是处理器大厂的英特尔,现在也对AI的发展寄予厚望,并正式宣布调整以AI为重的策略,全力发展软硬体技术,以支援相关的发展。

在11月18日举行的“Intel AI Day”活动当中,英特尔执行长Brian Krzanich提出了他们的愿景,并期盼能推动AI普及,将AI变得更平民化,进而**AI运算时代的来临,使英特尔能够成为加速AI发展的催化剂。

而就更实际的产品而言,英特尔在伺服器端处理器平台上,也针对AI有所布局。在2017年,现有的Xeon E5、Xeon Phi处理器平台都将推出新一代产品,同时,除了以Xeon搭配FPGA(Field Programmable Gate Array)晶片Altera Arria 10之外,英特尔也将以Xeon搭配新开发的“Lake Crest”晶片,专攻类神经网路的加速应用。

值得注意的是,Lake Crest的形式是一张基于矽晶片的独立加速卡,技术源自于英特尔今年8月并购的新创公司Nervana Systems,该产品将于2017年**季问世。之后,英特尔还将推出Xeon结合这种新型态加速AI处理机制的晶片,研发代号称为“Knights Crest”,届时,采用这颗晶片的伺服器直接具有系统开机的能力,无需搭配Xeon处理器。

英特尔AI伺服器平台的发布时程

在2016这一年,英特尔已经推出了FPGA的系统单晶片解决方案Arria 10,以及Xeon Phi x200系列(Knights Landing)。2017年他们将发表新的Xeon Phi(Knights Mill),以及深度学习专用的运算晶片Lake Crest,而在通用伺服器级处理器Xeon系列,基于Skylake微架构的产品也将问世。

强化平行处理与向量处理性能,Xeon与Xeon Phi支援新指令集

英特尔在2017年即将推出的伺服器产品,还包括采用Skylake微架构的新一代Xeon处理器,以及Xeon Phi(代号为Knights Mill)。

以现行的Xeon E5-2600 v4系列处理器而言,根据英特尔提供的效能测试数据,若执行大数据与AI领域经常会运用的Apache Spark软体环境,效能提升的幅度,可望达到18倍之高(以今年推出的Xeon E5-2699 v4搭配MKL 2017 Update 1程式库,对上Xeon E5-2697 v2搭配F2jBLAS程式库)。

英特尔表示,在初期出货给特定云端服务业者的“Skylake”Xeon处理器版本(preliminary version)当中,将会加入更多整合式加速运算的进阶特色。例如,新的进阶向量延伸指令集AVX-512,可针对机器学习类型工作负载的执行,提升相关的推理论断能力。至于Xeon新平台其他增益的功能与组态支援,预计将会在2017年中正式发布时,才会揭露。

若单看AVX-512这套指令集,目前只有今年6月推出的Xeon Phi x200系列处理器(Knights Landing)支援,接下来,英特尔的主力通用伺服器平台Xeon处理器,会在下一代采用Skylake微架构的产品当中支援。

因此,就目前而言,英特尔现有处理器所支援的AVX指令集,总共可分为三代:Sandy Bridge和Ivy Bridge微架构处理器,内建的是**代AVX,Haswell和Broadwell微架构处理器改为AVX2,而Skylake微架构和Knights Landing是采用AVX512。基本上,前两代的AVX指令集,都是基于128位元SIMD暂存器,可延伸到256位元。

至于Xeon Phi的下一代产品 “Knights Mill”,英特尔表示,会把深度学习的应用效能,提升到现有Xeon Phi处理器(7290)的4倍,并同样具备直接记忆体存取(Direct Memory Access)的能力——*高可存取到400GB(Knights Landing是以384GB的DDR4记忆体,搭配16GB的MCDRAM)。

同时,在横向扩展到32节点的系统环境当中,目前的Xeon Phi也已经能大幅缩短机器学习的训练时间,成效差距可达到31倍之大。

基于FPGA可程式化硬体运算技术,推出深度学习加速卡DLIA

FPGA则是另一个英特尔近年来极力发展的重点,他们在2015年并购了专攻FPGA技术的Altera公司,并以此成立新的业务单位──可程式化解决方案事业群(Programmable Solutions Group)。

针对高效能运算(HPC)领域当中也相当热门的AI应用,英特尔在今年11月稍早举行的Supercomputing 2016大会期间,也宣布将于2017年初推出基于FPGA的AI加速解决方案,名为Deep Learning Inference Accelerator(DLIA),可用于影像辨识应用,并且具备大量的资料吞吐能力与高度的能源效益。

DLIA的硬体是英特尔FPGA 系列产品当中的Arria 10的介面卡,晶片之间传输率,*高可达到25.78 Gbps,*大浮点运算效能为1,500 GFLOPS,可因应卷积神经网路(CNN)的部署架构,提供*佳化效能。而且,Arria 10本身所采用的处理器,是20奈米制程的ARM系统单晶片(SoC)Cortex-A9 MPCore,比起前一代FPGA与SoC晶片,号称能节省4成的电力。

同时,由于DLIA是基于FPGA技术而成,所以秉持了可程式化的特性,用户能从远端对DLIA进行韧体更新,以便随时因应AI技术的改变,而且也能直接运用深度学习的软体开��框架,例如英特尔自己维护、发行的Caffe,以及MKL-DNN(Math Kernel Library for Deep Neural Networks)等程式库。

专为深度学习应用所设计的Crest系列晶片,预计将在2017年问世

英特尔2016年并购Nervana公司后,预计在2017年推出运算晶片Nervana Engine。

这颗代号为Lake Crest的处理器,是专为深度学习的工作负载所设计的,将提供极高的运算密度,大幅超越现行GPU的运算能力。

在资料存取的方式上,Lake Crest本身也配置了新一代的高速频宽记忆体技术HBM2,搭配的总容量为32GB,存取速度高达8Tb/s。而晶片之间进行互相沟通时,Lake Crest提供12个双向的连结通道,有助于在彼此互连的架构下,进行高速资料传输。

英特尔强调,Lake Crest能支援真正的资料模型平行处理作业,因为在这样的运算架构当中,每一个运算节点,都会配置专用的记忆体介面,如此一来,系统能够存取的资料模型大小较不受限,同时也可以藉此增进记忆体I/O效率。

而在Lake Crest之后,英特尔打算师法Xeon Phi x200系列处理器的作法,推出更进一步整合Xeon与Nervana加速技术的晶片,研发代号为Knights Crest。展望AI运算平台的未来目标,他们希望将现行AI应用耗费在深度学习训练的时间,尽可能地缩短,在2020年能做到即时训练,达到节省幅度100倍的目标。

Lake Crest的深度学习处理架构

Lake Crest是基于多维度资料阵列(tensor-based)的处理架构,而且,提供Flexpoint的作法,所能支援的平行处理层级是现行技术的10倍。这颗晶片内建的记忆体也很特别,是HBM(High Bandwidth Memory)的**代技术,记忆体频宽是目前DDR4的12倍。

你可能感兴趣: 业界新闻 图片 英特尔 AI OpenStack
无觅相关文章插件,快速提升流量