长江存储暂时不涉足DRAM;蒋尚义转投中芯张忠谋苦劝难挽回

分享到:
197
下一篇 >
1.英特尔AI四大策略彻底解析;2.蒋尚义转投中芯关键72小时:张忠谋苦劝难挽回;3.程天纵:凯明败局背后的通讯产业话语权争夺战;4.紫光布局/Flash军备竞赛再起 产能埋隐忧;5.紫光盖全球*大3DNAND厂,暂时不涉足DRAM;6.湖南省电子信息制造业“十三五”规划出炉

集微网推出集成电路微信公共号:“天天IC”,重大新闻即时发布,天天IC、天天集微网,积微成著!长按 laoyaoic 复制微信公共号搜索添加关注。

1.英特尔AI四大策略彻底解析;

许多人都看好人工智能(AI)的未来发展,处理器大厂英特尔也积极应战,他们宣布将扩展多款服务器运算技术、强化软件程序码效能,以及并购新创公司,而在11月的Intel AI Day的活动上,他们正式提出了完整的AI发展蓝图和架构,并预告接下来的处理器平台将更**支援AI。

建立AI人才培育管道

基于英特尔既有的***专区网站,他们成立了Nervana AI学院的网页,并且统合在英特尔新设的AI专属网页上,这里针对***/资料科学家、学生,提供了多种学习的资源,像是线上课程、文件,以及与机器学习、深度学习有关的介绍。

除了强化自身的硬体运算平台效能、提供软体应用开发环境的支援,以及拉拢合作夥伴,英特尔在AI的策略布局上,也强调会协助培养相关人才。

为了要推动即将崛起的AI应用、使其变得更为普及,英特尔**副总裁暨软体与服务事业群总经理Doug Fisher提出呼吁,各界对于AI技术的根源,应该要更重视。

身微处理器厂商,Doug Fisher说,他们必须设法发挥英特尔运算架构的所有价值,使其能够彻底支援新的应用;同时,要确保AI技术能够持续不断地发展,因为,软体与人才的支援,也都是AI应用成长动力的根源,为此他们会准备基本的教育训练、开发工具等学习资源,提供给开发人员、资料科学家、学生,而当这些人员手上有了足够的工具和知识、实务经验之后,日后将这些就有机会分享到社群上,进而加速相关技术的采用与**,实现AI应用的普及。

设立Nervana AI学院,整合AI相关学习资源

基于多年来经营的***计画,英特尔宣布成立Nervana AI Academy,专职负责,希望藉此协助科学家、学生、开发人员,建立他们想要达成的AI解决方案,加速AI运算时代的来临。

此外,英特尔也在***专区的AI专属网页,提供网站入口(software.intel.com/ai),有志发展深度学习与人工智慧应用的人,从这里可以看到各种入门与进阶的学习资源,像是Nervana AI Academy,以及所有与AI有关的软体与技术情报,例如,针对英特尔运算架构*佳化的深度学习框架、进行深度学习处理流程所需的训练与部署工具,以及教育训练、线上课程等。

Nervana AI Academy主要诉求的对象,是软体***与或资料科学家,而对于未来有可能成为这些人才的在校学生,英特尔在***专区的AI专属网页里面,也特别设立了专区。

同时,英特尔也宣布成立AI的学生驻校代表计画Student Ambassador,鼓励他们投入这个领域,并且与全球各地的大学合作,希望能找出有兴趣的学生,以及具有机器学习、AI研究能力的学者,并且提供赞助。

将提供开放式的线上学习课程,并鼓励参与竞赛,强化实战经验

秉持回归技术源头的精神,对于未来可能成为软体***与资料科学家的人员,例如目前在校就读的学生,英特尔也希望透过一些方式,及早拉拢这群潜在用户,使他们更愿意用IA运算架构来建置AI应用。

首先,是教育的提供。英特尔宣布与知名的线上教育机构Coursera合作,预计在2017年开始推出AI线上课程。

而在英特尔与Coursera的开放式课程计画当中,将会由英特尔与业界的专家,以及AI领域的意见**,来担纲课程的主讲。透过这样的教学形式,英特尔期望能够培养出更多受过训练的AI传讲者,以便将相关的知识推展出去。

对于AI技术能力的培养,除了提供学习知识的管道,具备足够的实战经验也是必须的,英特尔也鼓励有志学习AI的人,能够发挥所学,解决现实世界的问题,而基于人才培养的策略,他们宣布与新创公司Mobile ODT合作,在资料科学竞赛平台Kaggle.com上举办AI竞赛,这项活动将在2017年2月展开。

在这场活动当中,英特尔希望吸引资料科学家与软体开发社群的注意,投入更多的专业技术与支援能力,例如,能善用AI的图片辨识机制,分析人体软组织的医疗影像,确认患者是否具有**颈癌早期阶段的征兆,并且能够更快、更精准地判断与分类。

拉拢云端服务业者,建立策略合作

在Intel AI Day的活动上,Google企业**副总裁Diane Greene特别出席参加,她与英特尔执行副总裁暨资料中心事业群总经理Diane Bryant同台,宣布双方在AI应用上的策略联盟。

在有意发展AI的企业当中,云端服务商需比一般公司更早布局,因此他们现在就必须关注伺服器平台的支援,以便能基于效能*佳化平台,支撑相关工作负载,而在英特尔11月宣布与Google结盟的消息当中,双方策略合作的项目,也涵盖到机器学习。

机器学习:改良TensorFlow在英特尔运算架构的执行效能

首先,针对Google发展的AI程式库TensorFlow,若执行在基于英特尔运算架构(Intel Architecture)的系统时,英特尔承诺,将协助这样的软硬体搭配,可以获得*佳的效能,并且预计在2017年**季发表合作的初步成果。

Google Cloud全球技术夥伴关系部门的主管Nan Boden表示,对于TensorFlow在英特尔处理器平台的执行效能,他们希望能提升。例如,允许TensorFlow运用所有的处理器核心与向量通道,进而改善平行处理;TensorFlow整合英特尔提供的高效能程式库,像是数学核心程式库(MKL);以及横跨多个部署架构时,能够针对记忆体配置与资料层的作业,提供*佳化。

Kubernetes:支援多种云环境,强化虚拟网路效能与QoS

双方另一个部分的关系进展,则是针对Kubernetes。对于这套由Google发展出来的应用程式container管理平台,英特尔将协助改善它在多云环境下运作的功能,以及相关的程式码*佳化。

一般而言,Kubernetes能为容器化的应用程式环境,提供自动化部署、扩展与维运,而这部份涵盖到新兴AI应用系统的范围,因此,英特尔也将这部分的支援,视为该公司AI整体策略的发展的一环。而在先前,两家公司曾讨论到共同推动Kubernetes整合到OpenStack的计画,现在,双方的合作关系将更为扩大,希望在Intel Architecture下,一起设法提升Kubernetes的执行效能、改善IT基础架构的管理方式,并且提升对于企业工作负载的进阶**保护。

对此,英特尔资料中心事业群副总裁暨云端服务供应商业务总经理Raejeanne Skillern表示,在未来半年内,这些程式码*佳化工作的成果,也将提供给社群审查,同时,英特尔和Google的工程团队,会把当中预计改善的*佳化程式码,提供给云端服务业者。

事实上,英特尔本身也Kubernetes生态体系发展的主要贡献者之一,他们想协助企业将OpenStack云端环境的执行,转为可控管的Kubernetes工作负载的形式。而先前他们与Google工程团队,已经合作开发出*佳化程式码,以便在英特尔运算架构执行Kubernetes时,能够提高功能的透明度。

接下来,双方会希望改善工作负载的功能,例如虚拟网路的效能,以及对于共用资源的存取优先顺序保障。

物联网:建立平台,使IoT装置能够**连接云端服务

在这项策略合作下,英特尔的物联网装置与Google Cloud Platform(GCP)云端服务之间,也将予以整合,希望能够建立**平台来连接彼此,以便将收集到的资料进行后续分析,进而辅助后续的决策制定。而能否提供横跨终端装置到云服务的**解决方案,对于特定类型的产业应用而言,如零售业与制造业,至关重要。

承诺AI应用效能*佳化,扩大支援AI软体开发环境

英特尔对于AI应用的支援,首先是处理器内建低阶软体原始指令,例如MKL-DNN;针对深度学习软体框架,提供*佳化程式码;对于大数据分析应用平台,投入Hadoop、Spark的版本提供或贡献程式码;而在整合式软体开发工具,他们也推出Deep Learning SDK。

看好人工智慧带来的运算处理需求与未来的蓬勃发展,英特尔不只是推出多种伺服器端处理器来因应,在2016年11月举行的Intel AI Day活动期间,他们宣布将更积极发展深度学习应用的运算与沟通处理的程式库,并以基本指令(primitives)的形式整合到处理器硬体上。而在AI应用软体开发的支援上,他们陆续开始提供的部分,包含:程式库、程式语言的支援、平台、软体开发套件、程式开发框架。

无独有偶,IBM与Nvidia也在11月宣布,双方将联手开发新的深度学习专用软体开发套件PowerAI,可搭配IBM 专为AI应用所特别设计的伺服器——OpenPOWER LC(采用Power运算架构与Nvidia NVLink互连技术),藉此提供企业级的深度学习解决方案。

英特尔在Intel AI Day提出人工智慧的策略,正巧IBM与Nvidia也在之前宣布了PowerAI,在那一周期间,同时,又适逢全球高效能运算界关注的SuperComputer 2016大会举行。显然两大阵营争相较劲的意味相当浓厚,而且他们*终竞逐的目标,其实都是下一波企业应用。

英特尔AI解决方案总览

在AI应用的布局上,英特尔不只是单纯提供处理器平台,软体的支援更是重点——他们发展多种程式库、软体开发平台,积极支援多种深度学习应用框架,同时也会推出整合式的解决方案。

积极支援多种深度学习框架,陆续提供IA架构效能*佳化的程式码

以发展AI应用系统所采用的各种程式开发框架为例,英特尔承诺,将针对在Intel Architecture运算架构(IA)的系统环境,提供经过*佳化的程式码,以提升执行效能。

例如,在深度学习技术的应用领域当中,较为风行的几种开放原始码软体框架(Deep Learning Framework),像是Caffe、Theano、Torch、MXNet、Neon,英特尔已经提供Intel Architecture*佳化程式码。至于TensorFlow的部分,英特尔与Google Cloud Platform在11月的Intel AI Day活动上,正式宣布策略合作后,*快于2017年初,才会释出相关的程式码。

Caffe

这是由美国柏克莱视觉与学习中心(BLVC)所开发的框架,英特尔提供了特制版本Intel Optimized Caffe,可适用于Xeon与Xeon Phi处理器平台,当中整合了英特尔发展的数学核心程式库MKL(Math Kernel Library),并且已针对AVX2和AVX-512指令集,进行软体效能*佳化的工程。

而Caffe经过改良的成效如何?英特尔提出的实例,是影音服务业者乐视云(LeTV Cloud)的非法影片侦测应用。他们是在Xeon E5-2680 v3伺服器平台上,搭配Intel Optimized Caffe来进行影片分类的训练,结果得到了30倍的效能提升(相较于他们先前使用的BLVC Caffe,搭配OpenBlas程式库作为卷积式类神经网路)。

Theano

它是由加拿大蒙特娄大学LISA实验室发展的深度学习框架,英特尔也提供了改良的程式库,是针对多核心运算环境予以*佳化而成的版本,而在京都大学大学院医学研究科的应用案例当中,当他们以此进行新药探索模拟运算的测试上,精准度*高可达到98.1%,而另一个深度学习网路(Deep Belief Networks,DBN)的测试当中,也获得8倍的效能增长。

Torch

Torch也是许多人很关注的深度学习框架之一,目前主要维护的成员,是来自Facebook、*******、Google DeepMind公司的研究科学家和软体工程师。英特尔对这套框架提供*佳化支援之余,同时整合了MKL程式库,进而针对伺服器硬体端执行的深度神经网路指令集,提升效率。

而在这样的环境搭配下,英特尔举出的例子是他们与Pikazo软体公司合作,针对他们开发的图像风格转换App,协助后端处理效能强化——若以App刚推出的效能作为基准,现在Pizako App在图形上色(render)的速度,可提升到28倍,而能够处理的图档尺寸也扩充到15倍之大。

Neon

Neon是英特尔并购的Nervana Systems公司所发展出来的程式库,强调易用与高效能,在其现有的技术架构当中,可区分为深度学习功能(演算法)、资料模型、解决方案等三层。

在这次的Intel AI Day大会上,英特尔也预告将推出Intel Nervana Graph Compiler,作为AI应用软体层的共通基础,以此对于深度学习应用的架构型态,提供更进阶的描绘方式,以及调校作法。

针对类神经网路,提供高阶的图**算编译器

深度学习框架Neon对于硬体资源的存取,会透过不同平台的转换API来介接,因此上层应用无须考虑硬体差异,接下来,英特尔会在Neon原本的架构与硬体转换层之间,新增一层Nervana Graph Compiler,主要是为了针对类神经网路应用,提供高阶的处理,以便同时横跨多台硬体设备执行。

Intel Deep Learning SDK

除了支援不同***所偏好的深度学习框架之外,英特尔本身也会推出Intel Deep Learning SDK。

藉由当中提供的简易使用介面,资料科学家与软体开发人员可发展各种深度学习的应用方案。

例如,透过SDK里面的训练工具,我们能够进行深度学习模型的设定、准备、设计;若要将已经训练好深度学习的模型,自动进行*佳化与部署的程序,也可以运用SDK包含的部署工具来帮忙。

英特尔处理器内建新的原始指令,强化深度学习效能

针对各种深度学习框架提供*佳化之余,英特尔在旗下的处理器产品当中,也内建了多种程式库来提升AI应用系统的效能。

Math Kernel Library(MKL)

MKL是英特尔发展了22年的程式库,里面集合了许多原始的数**算指令,可加速在工程、财务、科学等领域的模拟与分析处理,2016年之后,由于增加了MKL-DNN的程式库,因此也能提升机器学习与深度学习的效能。目前内建MKL的处理器,包含个人电脑用途的Core,以及伺服器等级的Xeon、Xeon Phi。

这套程式库提供了低阶的C与Fortran程式语言介面,能执行多种通用运算,例如,矩阵的乘法、分解、快速傅立叶转换、乱数产生、向量函数等,能支援多种作业系统平台的应用程式开发,例如,Windows(微软Visual Studio),以及Linux与OS X(Eclipse)。

Math Kernel Library for Deep Neural Networks(MKL-DNN)

透过深度学习框架开发的应用程式,若要执行在Intel Architecture的处理器环境,英特尔提供了一套开放原始码的效能强化程式库,称为Math Kernel Library for Deep Neural Networks(MKL-DNN)。

它与英特尔的MKL程式库之间,有很大渊源。

因为,MKL-DNN是2017版MKL所延伸出来的产物,当中包含了高度向量化与穿插式的建构模块,而且是透过C与C++程式语言的介面,实作出卷积类神经网路(Convolutional Neural Networks,CNN)的架构,并且不只能在C和C++这两种开发环境运用,也可用于Python和Java等高阶程式语言。

针对深度学习应用系统当中所进行的运算密集式工作, MKL-DNN也能对相关的框架提供加速处理,英特尔特别强调可支援上述提及的Caffe、Theano、Torch、Tensorflow等深度学习专用的程式库。

从伺服器到个人电脑的处理器,都内建新程式库,强化AI效能

除了提供*佳化程式码,英特尔在处理器平台上,也内建了原始指令:**深度神经网路使用的数学核心程式库MKL-DNN,以及用于深度学习讯息传递应用的机器学习规模扩展程式库MLSL。

Machine Learning Scaling Library(MLSL)

在Intel AI Day活动当中,英特尔也预告将推出一套新的程式库,称为Machine Learning Scaling Library(MLSL),可在深度学习系统的多节点互连架构下,进行规模扩展的应用,可支援32个节点以上所组成的深度学习系统。有了MLSL之后,深度学习系统可针对不同节点之间的讯息传递作业,进行抽象化的处理。

MLSL是架构在现有平行运算系统所惯用的MPI(Message Passing Interface)之上,可运用其他用于讯息沟通的程式库,而在讯息沟通的模式上,用户若要扩展到更大的系统使用规模,MLSL也将对此提供*佳化。MLSL本身也提供通用的API介面,可支援上述的各种深度学习软体框架。

此外,由于MLSL与深度学习系统的多台节点扩展应用有关,因此能否适用不同的网路互连方式,也很重要。MLSL目前可支援的连线规格,有标准的乙太网路、InfiniBand,以及英特尔发展的次世代互连网路架构Omni-Path Architecture(OPA)。

Data Analytics Acceleration Library(DAAL)

目前英特尔针对AI应用所持续发展的程式库,除了上述的MKL,还有Data Analytics Acceleration Library(DAAL),这套在2015年推出的程式库,可针对基于Intel Architecture处理器平台的个人电脑、伺服器,提升大数据分析作业的执行效能。

这套程式库包含多种经过*佳化的演算法建构模块,能够支援资料分析过程中的每个阶段,像是前置处理、转换、分析、建模、验证、抉择,并且在离线、线上串流与分散式等不同的资料分析环境里面执行。

DAAL的发展上,也考量到常见的大数据平台应用需求,目前已可强化Hadoop、Spark、R、Matlab系统的资料存取效率。同时,DAAL也内建资料管理机制,协助应用系统得以从多种来源存取到资料,例如档案、记忆体内的缓冲区、SQL资料库、HDFS档案系统。

DAAL与MKL同样皆可针对大数据的处理,不过,若遇到资料量大到记忆体无法全部载入的情况,DAAL本身能运用特制的演算法来因应——将资料切割为块状,而不是全部放进记忆体。

在程式语言的部分,DAAL提供高阶的C++、Java与Python介面,可用来处理多种资料分析需求,像是主成分分析、回归、分类、群集与购物篮分析。透过这个程式库,你可以利用指定的演算法来训练出模型,然后评定资料集在这模型中的分数。

延伸四大产品线,提供AI通用与高效能运算架构

若要在资料中心环境当中建构AI系统,英特尔预计将提供4种运算平台:Xeon、Xeon Phi、Xeon搭配FPGA(Arria 10)、Xeon搭配Nervana(Lake Crest),分别主打基本用途、高效能、低延迟与可程式化、类神经网路加速等不同需求。

这一年来,除了云端服务、大数据、行动应用持续走红以外,人工智慧(AI)无疑是下一个即将起飞的热门IT技术,许多人已经开始积极投入机器学习、深度学习的开发与应用,绘图处理器大厂Nvidia今年的营收、获利、股价持续上涨,也与此有关,而同样是处理器大厂的英特尔,现在也对AI的发展寄予厚望,并正式宣布调整以AI为重的策略,全力发展软硬体技术,以支援相关的发展。

在11月18日举行的“Intel AI Day”活动当中,英特尔执行长Brian Krzanich提出了他们的愿景,并期盼能推动AI普及,将AI变得更平民化,进而**AI运算时代的来临,使英特尔能够成为加速AI发展的催化剂。

而就更实际的产品而言,英特尔在伺服器端处理器平台上,也针对AI有所布局。在2017年,现有的Xeon E5、Xeon Phi处理器平台都将推出新一代产品,同时,除了以Xeon搭配FPGA(Field Programmable Gate Array)晶片Altera Arria 10之外,英特尔也将以Xeon搭配新开发的“Lake Crest”晶片,专攻类神经网路的加速应用。

值得注意的是,Lake Crest的形式是一张基于矽晶片的独立加速卡,技术源自于英特尔今年8月并购的新创公司Nervana Systems,该产品将于2017年**季问世。之后,英特尔还将推出Xeon结合这种新型态加速AI处理机制的晶片,研发代号称为“Knights Crest”,届时,采用这颗晶片的伺服器直接具有系统开机的能力,无需搭配Xeon处理器。

英特尔AI伺服器平台的发布时程

在2016这一年,英特尔已经推出了FPGA的系统单晶片解决方案Arria 10,以及Xeon Phi x200系列(Knights Landing)。2017年他们将发表新的Xeon Phi(Knights Mill),以及深度学习专用的运算晶片Lake Crest,而在通用伺服器级处理器Xeon系列,基于Skylake微架构的产品也将问世。

强化平行处理与向量处理性能,Xeon与Xeon Phi支援新指令集

英特尔在2017年即将推出的伺服器产品,还包括采用Skylake微架构的新一代Xeon处理器,以及Xeon Phi(代号为Knights Mill)。

以现行的Xeon E5-2600 v4系列处理器而言,根据英特尔提供的效能测试数据,若执行大数据与AI领域经常会运用的Apache Spark软体环境,效能提升的幅度,可望达到18倍之高(以今年推出的Xeon E5-2699 v4搭配MKL 2017 Update 1程式库,对上Xeon E5-2697 v2搭配F2jBLAS程式库)。

英特尔表示,在初期出货给特定云端服务业者的“Skylake”Xeon处理器版本(preliminary version)当中,将会加入更多整合式加速运算的进阶特色。例如,新的进阶向量延伸指令集AVX-512,可针对机器学习类型工作负载的执行,提升相关的推理论断能力。至于Xeon新平台其他增益的功能与组态支援,预计将会在2017年中正式发布时,才会揭露。

若单看AVX-512这套指令集,目前只有今年6月推出的Xeon Phi x200系列处理器(Knights Landing)支援,接下来,英特尔的主力通用伺服器平台Xeon处理器,会在下一代采用Skylake微架构的产品当中支援。

因此,就目前而言,英特尔现有处理器所支援的AVX指令集,总共可分为三代:Sandy Bridge和Ivy Bridge微架构处理器,内建的是**代AVX,Haswell和Broadwell微架构处理器改为AVX2,而Skylake微架构和Knights Landing是采用AVX512。基本上,前两代的AVX指令集,都是基于128位元SIMD暂存器,可延伸到256位元。

至于Xeon Phi的下一代产品 “Knights Mill”,英特尔表示,会把深度学习的应用效能,提升到现有Xeon Phi处理器(7290)的4倍,并同样具备直接记忆体存取(Direct Memory Access)的能力——*高可存取到400GB(Knights Landing是以384GB的DDR4记忆体,搭配16GB的MCDRAM)。

同时,在横向扩展到32节点的系统环境当中,目前的Xeon Phi也已经能大幅缩短机器学习的训练时间,成效差距可达到31倍之大。

基于FPGA可程式化硬体运算技术,推出深度学习加速卡DLIA

FPGA则是另一个英特尔近年来极力发展的重点,他们在2015年并购了专攻FPGA技术的Altera公司,并以此成立新的业务单位──可程式化解决方案事业群(Programmable Solutions Group)。

针对高效能运算(HPC)领域当中也相当热门的AI应用,英特尔在今年11月稍早举行的Supercomputing 2016大会期间,也宣布将于2017年初推出基于FPGA的AI加��解决方案,名为Deep Learning Inference Accelerator(DLIA),可用于影像辨识应用,并且具备大量的资料吞吐能力与高度的能源效益。

DLIA的硬体是英特尔FPGA 系列产品当中的Arria 10的介面卡,晶片之间传输率,*高可达到25.78 Gbps,*大浮点运算效能为1,500 GFLOPS,可因应卷积神经网路(CNN)的部署架构,提供*佳化效能。而且,Arria 10本身所采用的处理器,是20奈米制程的ARM系统单晶片(SoC)Cortex-A9 MPCore,比起前一代FPGA与SoC晶片,号称能节省4成的电力。

同时,由于DLIA是基于FPGA技术而成,所以秉持了可程式化的特性,用户能从远端对DLIA进行韧体更新,以便随时因应AI技术的改变,而且也能直接运用深度学习的软体开发框架,例如英特尔自己维护、发行的Caffe,以及MKL-DNN(Math Kernel Library for Deep Neural Networks)等程式库。

专为深度学习应用所设计的Crest系列晶片,预计将在2017年问世

英特尔2016年并购Nervana公司后,预计在2017年推出运算晶片Nervana Engine。

这颗代号为Lake Crest的处理器,是专为深度学习的工作负载所设计的,将提供极高的运算密度,大幅超越现行GPU的运算能力。

在资料存取的方式上,Lake Crest本身也配置了新一代的高速频宽记忆体技术HBM2,搭配的总容量为32GB,存取速度高达8Tb/s。而晶片之间进行互相沟通时,Lake Crest提供12个双向的连结通道,有助于在彼此互连的架构下,进行高速资料传输。

英特尔强调,Lake Crest能支援真正的资料模型平行处理作业,因为在这样的运算架构当中,每一个运算节点,都会配置专用的记忆体介面,如此一来,系统能够存取的资料模型大小较不受限,同时也可以藉此增进记忆体I/O效率。

而在Lake Crest之后,英特尔打算师法Xeon Phi x200系列处理器的作法,推出更进一步整合Xeon与Nervana加速技术的晶片,研发代号为Knights Crest。展望AI运算平台的未来目标,他们希望将现行AI应用耗费在深度学习训练的时间,尽可能地缩短,在2020年能做到即时训练,达到节省幅度100倍的目标。

Lake Crest的深度学习处理架构

Lake Crest是基于多维度资料阵列(tensor-based)的处理架构,而且,提供Flexpoint的作法,所能支援的平行处理层级是现行技术的10倍。这颗晶片内建的记忆体也很特别,是HBM(High Bandwidth Memory)的**代技术,记忆体频宽是目前DDR4的12倍。ithome

2.蒋尚义转投中芯关键72小时:张忠谋苦劝难挽回;

12月21日,中芯国际正式公告,聘请台积电前共同营运长蒋尚义担任独立董事,消息一出,震撼台湾半导体产业。

蒋尚义是谁?他是台积电在制程技术上从跟随者变成***的关键人物,协助台积电制程研发从25微米做到16nm。在点13微米一役,台积电从此拉开和联电的距离,多次重要技术布局,他的决断都扮演极为关键的角色。

业界传出,蒋尚义出任中芯董事前,曾告知台积电董事长张忠谋,张忠谋虽劝蒋尚义拒绝,但没被接受。

本刊调查发现,台积电董事长张忠谋是在蒋尚义出任中芯董事前3天,才“被告知”,这也可以看出,蒋尚义转投中芯一事,是早就心意已决。

蒋尚义接任的时间点十分敏感,根据《EE TIMES》报导,中芯是2016年成长**大的晶圆代工厂,营收预计成长27%,规模直追第3名的联电,2016年,中芯的资本支出上调至25亿美元,联电只有22亿美元,中芯首度超越联电,展现强烈企图心。

中芯更宣布,将在2018年让14奈米技术投产,同一年,台积电南京厂16奈米制程将进入量产。中国加强半导体自制率的目标并未改变,如果蒋尚义能帮助中芯新技术顺利量产,不只联电在中国的竞争压力更大,也会为台积电在中国发展投下变数。财讯双周刊

3.程天纵:凯明败局背后的通讯产业话语权争夺战;

在3GPP RAN1 87次会议上,中国华为公司的Polar Code(极化码)5G短码方案,*终从美国主推的LDPC和法国主推的Turbo2.0两大竞争对手中脱颖而出,成为5G控制信道eMBB场景编码*终方案,华为又一次为中国通信行业赢得了话语权。

在通信行业,占据金字塔**的不是设备制造能力、商用能力,而是标准。编码和调制是无线通信技术中*核心的部分,不仅展现了一个国家在通信科学基础理论的整体实力,更决定着在通信领域是否拥有*高的话语权。

姓名:程天纵

个人简介:创客创业导师。原中国惠普总裁、德州仪器亚太区总裁、富士康集团副总裁。创客创业社群深圳湾“Terry &Friends”发起人。

这则新闻勾起了我多年前的回忆,也感叹中国无线通信行业和手机产业从无到有,从落后、追赶、并肩到超越的整个过程。趁此机会,与大家分享凯明信息科技股份有限公司(COMMIT,以下简称凯明)的失败案例。

产业合作的秘辛

我有幸参与中国在3G时代所创立的“TD-SCDMA”国际标准的制定,此标准是由大唐集团李世鹤博士为首的大唐电信科学研究人员开发,成为国际上第三代移动通信无线接入技术的三大标准之一,这也是中国百年电信史上的重大里程碑。

被誉为“TD之父”的李世鹤是电信科学研究院的副总工程师,在负责起草和修订TD-SCDMA标准的同时,也负责主持开发全套TD-SCDMA系统设备的任务。当时无线通讯产业的技术、产品和生态都控制在欧美企业的手中;取得国际标准只是**步,然而,如果空有国际标准和基地台却没有手机晶片,就无法形成产业。

虽然在无线通讯产业,基地台已经是很大的市场,但手机才是真正的兵家必争之地。为了制造国产手机端的TD晶片组,中国信息产业部副部长曲维枝找到了时任德州仪器(TI)亚洲区总裁的我,希望由我带头成立一家TD手机晶片公司。基于长期良好的合作关系以及和曲副部长的私交,我接下了这个艰难的任务。

合纵连横

首先,我必须说服德州仪器公司,将内部的OMAP平台开放给中国,修改成为TD-SCDMA晶片、并且投资成为这家合资公司的股东,才能确保技术来源及后续的支持。

可是,当时诺基亚是另一个3G标准WCDMA的*大支持者,同时也拥有全球手机*大的市场占有率,又是德州仪器*大的手机晶片客户,诺基亚岂会同意德州仪器参与开发和支持TD-SCDMA?*保险的办法是让诺基亚成为这家合资公司的股东,再挟天子以令诸侯。

但是3G标准还有CDMA-2000,其*大支持者就是韩国三星和LG;如果能争取其中一个支持,造成两大现有的国际标准阵营都支持这个新诞生的标准的印象,就比较容易让手机品牌公司支持开发新的TD规格手机。

三星很难打交道,于是我选择了有多年交情的LG为首要目标,接着说服了诺基亚,那么德州仪器也就半推半就加入了。可是德州仪器为了不得罪手机客户,而且在中国大陆也没有工厂和资源,所以不愿意承担合资公司的主要责任;于是我就找上了老同学、台湾大霸电子的创办人兼董事长莫皓然,利用他在上海闵行区 “迪比特”品牌手机的厂房和资源,成立凯明。

2002年1月,由中国信息产业部及电信科学技术研究院发起,17家中外公司合资成立的凯明在北京正式宣布成立,公司董事长由普天集团总裁欧阳忠谋担任,电信科学技术研究院副院长杨毅刚任副董事长,莫皓然任CEO,大唐电信的李军任CTO。投资总额达二亿三千多万元人民币,主要投资方分别是中国普天资讯产业集团公司、电信科学技术研究院、德州仪器中国公司、诺基亚(中国)投资有限公司、LG电子株式会社和首信、大霸等17家横跨电信各领域的企业。

这17家主要股东其实都是通信市场上的竞争对手,因此凯明的成立被当时的业者视为“不可能的任务”,只有极少数人知道我是幕后推手兼总设计师。

功亏一篑

凯明的成立,引发了国际和大陆半导体公司诸如意法半导体、飞利浦半导体和三星投资的天碁科技、大陆本土的展讯等争相投入TD手机晶片的研发。2002年10月30日,由大唐电信、南方高科、华立、华为、联想、中兴、中国电子、中国普天等 8 家知名通信企业作为首批成员,自愿发起并成立了TD-SCDMA产业联盟。

由凯明信息开发的3G TD-SCDMA样品于2004年8月面市,通过了产品样片测试和系统测试并试产。这组专用晶片是中国3G标准核心晶片**在国内进行的自主设计、以及自行加工制造与测试。

看似前程一片大好,背后却是暗流汹涌。随着德州仪器终止了OMAP平台的研发与迭代,我于2007年10月底离开德州仪器加入鸿海;而莫董事长由于迪比特手机失败而导致内线交易官司缠身自顾不暇;其他股东都是多方合作多方压宝,所以也不在乎凯明的生死。

此外,凯明错过了三次外部融资的机会,资金链断裂导致拖欠员工三个月工资;于是在TD市场一致看好的情况下,凯明董事会经过仔细评估后,于2008年5月6日全体通过终止运营的决议。

失败乃成功之母

近期,纠缠十二年的内线交易官司了结,正式结束了老莫的浩劫。有时我想如果当时我不离开德州仪器,如果老莫没有这个莫名奇妙的官司,如果凯明没有因过于自信IPO而错失融资机会,情况会怎样?

不过,这些都改变不了今天的事实。只是很少人知道,从3G到5G技术标准,中国通讯产业抢夺话语权之路走得多么辛苦;多少血泪故事隐藏在今天光鲜亮丽的成就后面。总而言之,华为值得我们尊敬。

从超越爱立信成为****通讯设备运营商开始的那一刻,就宣告了华为传奇的正式开启。如今超越高通,再次见证华为的伟大;其下一个目标就是手机领域的三星、苹果。华为的成功,只是中国科技企业走向世界舞台中心的一个缩影,而我们即将见证更多的颠覆和传奇。没有人相信一直霸占着核心技术的高通会被华为打败,就如同没人相信华为会打败爱立信一样。但*终结果,仍宣告了高通统治时代已经结束,中国通讯技术迈入世界的**领域。

世界经理人

4.紫光布局/Flash军备竞赛再起 产能埋隐忧;

储存型快闪存储器(NAND Flash)军备竞赛再起,南韩存储器大厂SK海力士和紫光集团旗下的长江存储都加入3D NAND Flash军备竞争,尤其长江存储武汉厂启动建厂,将在2018年投产,为届时市场出现供过于求情况埋下隐忧。

目前各市调机构均看好明年NAND Flash仍然供不应求,但南韩记存储器大厂SK海力士上周宣布将在南韩盖一座全新快闪存储器厂,在中国大陆也将加码投资9,500亿韩元,扩充产能,希望市占率能赶上三星,但为NAND Flash市场投下新变数。

稍早三星和美光也都宣布进一步扩产行动。三星也正于京畿道平泽建设新厂,预定2017年上半年启用,**期投资额15.6兆韩元(134亿美元),估计12寸晶圆产量可达20万片,虽然三星还未敲定生产项目,但市场推测,因三星DRAM市占已接近50%门槛,有反托辣斯法要求分割疑虑,应仍会以发展3D NAND Flash 为主。

另外,三星大陆西安厂NAND Flash首期生产规模也达每月10万片。

美光并购尔必达后,将新加坡DRAM厂转为生产NAND Flash,同时也全力发展3D NAND Flash,其中新加坡10X厂已于今年9月正式投产3D NAND Flash,美光执行长邓肯(Mark Durcan)还专程抵达新加坡主持启用典礼。

全球**大快闪存储器供应商东芝半导体也宣布在日本四日市进行扩建,新产能也预定2017年陆续产出。

经济日报

5.紫光盖全球*大3DNAND厂,暂时不涉足DRAM;

大陆紫光集团在2016年终正式宣布投资总额高达240亿美元,在武汉东湖高新区兴建全球单一*大3D储存型快闪存储器(NAND Flash)厂,为全球存储器市场投下一颗震撼弹。

半导体设备业透露,紫光集团由旗下长江存储公司负责推动这项计画。紫光集团暨长江存储董事长赵伟国甚至将这项投资案,等同辽宁号航空母舰出海试航,是中国大陆存储器产业从零突破的开端,也创下由国家战略推动、地方大力支持、企业市场化运作的新合作模式。

由紫光集团联合国家集成电路产业基金(大基金)、湖北省地方基金、湖北省科投共同投资,并结合武汉、上海、矽谷及台湾等研发人员,决定以自主研发投入生产3D NAND Flash设计、制造。

由长江存储主导投资的3D NAND Flash厂,位于武汉东湖高新区的武汉未来科技城,占地高达1,968亩,将建立三座全球单座洁净面积*大的3D NAND Flash厂房,一座总部研发大楼和其他若干配套建筑,**期计画预定2018年建成启用投产,2020年全部完工,月产能将达到30万片,年产值将超过100亿美元。将成为全球*大单一NAND晶片制造厂。

至于后续的封测,以南茂为主要封测平台,但力成也积极接洽争取。

紫光高层并透露,长江存储将会等到取得国际大厂授权,或自主研发技术达到成熟阶段,才会跨足DRAM制造,绝不会窃取他厂的技术或**投入生产。

紫光集团董事长赵伟国上月30��宣布这项投资案,当天包括:**工信部副部长刘利华、工信部电子信息司司长刁石京、国家发改委高技术产业司副司长孙伟、国家集成电路产业投资基金公司董事长王占甫等人,与湖北省副省长许克振,武汉市委、常务副市长龙正才、东湖高新区党工委书记胡立山等重要官员都亲自出席,为中国大陆跨足建立自主存储器技术且是历年来单笔*大投资案做见证。

业界人士指出,虽然紫光集团强调技术自主研发,但近期已积极对台展开大规模挖角行动,值得有关单位和企业密切注意。经济日报

6.湖南省电子信息制造业“十三五”规划出炉

红网长沙1月1日讯(时刻新闻记者 杨艳)《湖南省电子信息制造业“十三五”发展规划》近日由湖南省经信委印发。按照规划,湖南确立电子信息制造业在制造强省建设中的支撑地位,打造大批“工匠湘军”,到2020年,全省电子信息制造业的总体主营业务收入将突破4500亿元。

“十二五”期间,全省电子信息产业规模先后迈上千亿和两千亿台阶,成为全省工业支柱行业和多点支撑产业发展格局中的重要支撑点。2015年,全省电子信息制造业实现产值2333.2亿元,是2010年的5.2倍,年复合增长率达39.2%;完成工业增加值825.55亿元,是2010年的5.18倍,年复合增长率达39%,列全省工业主要行业**位;电子信息产品实现出**货值523.1亿元,同比增长33.2%,增速居**第5。

按照规划,到2020年,将湖南建设成为中西部地区特色突出的电子信息制造业基地,产业规模和整体质量效益进入中西部地区前列,产业增速继续高于**行业和全省工业平均水平,产业**能力持续增强,新一代信息技术产业比重显著提升,电子信息制造业在全省工业经济和“制造强省”中的支柱性地位和战略性作用进一步凸显。

具体完成4个目标。产业规模方面,电子信息制造业的总体主营业务收入突破4500亿元。**能力方面,建设一批制造业**中心、工程(技术)中心、重点实验室等**平台,成立一批政产学研用产业**联盟,参与制定一批行业标准,承担一批国家和省级科技重大专项,突破一批核心关键技术,研发投入比例高于**平均水平。企业培育方面,培育2家以上五百亿元企业,5家以上百亿元企业。培育一批中国电子信息百强和细分领域领军企业,争取一批整机及零部件产品进入全球市场及**产业链。基地建设方面,建成以自主可控芯片为特色的国家集成电路设计基地、******的新一代电力电子器件特色产业基地、**知名信息**产业基地和全球知名的智能终端盖板及触控面板生产基地。质量效益方面,力争行业劳动生产率、行业利润率、增加值率等指标高于**行业中等水平。培育一批**、湖南**产品。

湖南电子信息制造业的发展重点为集成电路、电力电子、新型显示、自主可控计算机整机、智能硬件、应用电子、电子元器件与材料和物联网、虚拟现实与人工智能等8个方面。包括建设国家集成电路产业特色集聚区,打造以**自主可控芯片设计为核心的特色产业集群,建成新一代电力电子器件为重点的集成电路特色工艺生产基地,全力打造全球知名的视窗防护玻璃、触控面板及模组生产基地,打造以国产自主可控计算机整机为核心的信息**产业基地,发展**化、个性化、定制化的智能家居产品,积极推进能源电子、汽车电子、医疗电子等产品研发及推广应用,加快构建北斗导航产业园和北斗信息服务平台和系统建设,重点支持集成电路、电力电子、新型显示器件、半导体照明、数字音视频、应用电子等领域的新型关键元器件及材料的研发与产业化,打造军民融合技术协同**平台和传感器产业基地,全力推动人工智能在全省快速发展。

你可能感兴趣: 业界新闻 图片 DRAM 存储 OpenStack
无觅相关文章插件,快速提升流量