英特尔IT资源调度祕密武器亮相

分享到:
12264
下一篇 >
汇集了快取与记忆体层级的4大监控功能,Xeon E5-2600 v4系列处理器新增资源督导技术(Resource Director Technology),能持续监控处理器L3快取与记忆体频宽的使用与配置效率,强化系统资源调度指挥的能力

因为伺服器虚拟化应用的普及与兴盛,资料中心基础架构对于运算、储存、网路等IT资源的调度指挥(orchestrate),以及自动产生系统执行环境(Automated Provisioning)的工作变得非常频繁,连带产生资源分配不均的管理难题。在英特尔新推出的Xeon E5-2600 v4所新添加的众多特色当中,就有一项是专门针对这样的需求而发展出来,那就是资源督导技术Resource Director Technology(RDT),透过它,可协助IT人员能够进一步掌握与控管伺服器平台的资源,促使资源调度变得更为敏捷,协助企业IT环境能加速转型,迈向更为**、也更自动化的软体定义IT基础架构。

RDT目前包含4大技术:在Xeon E5-2600 v3时期推出的快取监控技术(Cache Monitoring Technology,CMT),以及快取配置技术(Cache Allocation Technology),再加上新的记忆体频宽监控技术(Memory Bandwidth Monitoring,MBM),以及程式码与资料优先存取技术(Code and Data Prioritization,CDP)。

有了这些资源管理技术,使得作业系统与Hypervisor藉由处理器平台的协助,能够管理与监督在伺服器共用的快取与记忆体资源,而且,RDT能掌控的程度更为进阶,可透过特定模型暂存器(Model Specific Register,MSR)的控制,深入系统核心(Ring 0)执行。

此外,RDT可以相容于现有英特尔处理器所普遍内建的超执行绪技术(Hyper-Threading Technology),彼此可共同合作。对于经常改变的作业系统与Hypervisor执行状态,RDT也适用。

整体而言,RDT的应用范围,可涵盖处理器快取与系统记忆体频宽,针对这两项竞争*激烈的资源,提供动态观察与观察能力,能采取被动监督与主动配置的作法──每一支应用程式、作业系统与虚拟机器的资源用量,对处理器而言,将变得更为透明;此外,资源用量也将基于每一支应用程式、作业系统与虚拟机器的层级,予以不同的区分与配置。不过,可惜的是,Xeon E5-2600 v4目前对于处理器快取的管理较为完善,而对于记忆体频宽只能进行监督,但尚未支援配置。

有了RDT之后,整体而言,伺服器因为虚拟机器、应用程式执行环境的提供所引发的资料移动,能根据对应的优先顺序、服务等级来调度指挥资源,而不是任凭抢夺、占用,同时,还能减少非必要的资料传输作业。

对于资料中心的维运来说,若能运用RDT,在高度导入伺服器虚拟化环境下,可以将这些快取与记忆体资源的利用,提升到新的层次,并且适应因为业务持续变动所提出的各种IT环境要求,还能支援需线上迁移到其他资料中心位置的工作负载。

随着英特尔在3月31日正式推出Xeon E5-2600 v4,该公司也同步宣布有多家企业采用RDT这项技术,像是全世界*大的证券交易所NASDAQ,该公司架构与效能工程**技术专家Sandeep Rao表示,资料中心运作效率因此提升到先前环境的4.1倍。此外,还有阿里巴巴、中国移动、Facebook、VMware等公司已经开始运用RDT。

RDT就像机场塔台能进行复杂的IT资源调配

对很多人来说,RDT的角色与作用似乎很抽象,英特尔用机场管制塔台作为比喻──塔台(RDT)会结合雷达遥测资料,随时监督与控管所有飞机(虚拟机器、应用程式、执行绪)起降作业。

**步 对于离处理器*近的L3快取,提供监控与配置

首先,是针对处理器L3快取的使用──快取监控技术(CMT),以及快取配置(CAT)技术,它们能协助Xeon E5-2600 v4更聪明地执行相关的工作排程,以及负载平衡的决策。同时,能将伺服器所要提供的服务,透过这种新的分层方式进行管理,可确保高优先执行顺序的应用程式,能享有足够的快取,针对工作负载的执行,促进更灵敏的配置、载平衡、整并作业。

CMT和CAT之所以能运作,主要是系统会先透过资源调度应用软体(orchestrator),或是根据作业系统、Hypervisor的指派,将伺服器目前所承载的执行绪、程式、虚拟机器,对应为不同的资源监控代号(Resource Monitoring IDs,RMID),以及服务类别(Classes of Service,CLOS)。

在CMT的使用上,Xeon E5-2600 v4处理器平台可监控的RMID数量,是Xeon E5-2600 v3的2倍──对于每个部分的快取,能监看8个。而对于CAT,Xeon E5-2600 v4目前可支援16个服务类别。

这两项技术的实际应用效果如何?以CAT为例,在英特尔与云端分析服务商AppFormix合作下,他们以搭配两颗Xeon E5-2699 v4处理器的伺服器,来比较CAT使用前后的差异。测试结果显示:CAT启用后,网站伺服器在该机制的保护下,效能(吞吐量)可提升27%;若是与其他会抢占资源的工作负载一同执行(每颗处理器执行11支Stream 效能测试程式),在启用CAT的伺服器下执行的网站伺服器,平均反应速度比起不启用CAT时,要快上51%,而在恶劣情况下的反应速度,甚至可快到2.22倍,成效相当惊人!

**步 监督系统记忆体与L3快取之间的传输频宽

MBM则是针对系统记忆体的存取流量进行管理,同样基于上述CMT所使用的RMID来进行观察,系统可藉此发现记忆体频宽存取的冲突,以及促使执行绪的迁移。

首度采用MBM的处理器是去年推出的Xeon D-1500系列,所针对的伺服器类型主要是单路架构的应用设备,现在则轮到Xeon E5-2600 v4系列开始支援,也表示对应的主流二路伺服器平台,从此也将受益于这项技术。

MBM的导入,有助于揭露记忆体频宽的细部用量,面对横跨不同处理器插槽、核心之间执行的工作负载,例如英特尔的DPDK(Data Plane Development Kit),伺服器能以此方式做到有效平衡,避免这些处理程序争夺记忆体资源,可增进记忆体资源利用率,进而提高服务等级,达到存取效能*佳化。

英特尔之所以发展这样的技术,源自于多核心处理器架构虽然拥有阶层式快取,能以大规模的资料吞吐能力与延展性,提升应用程式的执行效能,但许多使用者层级的处理程序同时执行的关系,它们经常彼此争夺快取与记忆体频宽的资源。此外,处理器快取区分为越来越多阶层,也是记忆体存取效率不彰的理由之一,因为L3快取与系统记忆体对于处理器存取而言,都是横跨所有核心一同共享的资源。

而记忆体存取效率好坏将会冲击系统整体效能,因此若要达到*佳记忆体存取效能,必须透过持续监控与提高使用效率等方式。

面对上述这些应用需求,英特尔近期所发展出来的MBM技术,已经能够从快取的不同阶层当中,逐一监控频宽,特别是L3快取。而MBM的基本架构是延伸自英特尔现有的CMT技术,增添了基于CPUID的计数功能(enumeration),以及新的事件代码,以便从近端与远端记忆体的控制器撷取记忆体频宽资讯。

由于CMT能对每个执行绪加上标记,这意味着在执行应用程式、虚拟机器或容器(Container)时,每个执行绪的频宽能够被测量到;同时,本身所在与远端的记忆体控制器频宽用量,也都能藉由当中所对应的事件代码观察到,因此使得具有频宽感知能力的排程执行,以及针对非一致式记忆体存取(Non-uniform Memory Access,NUMA)的*佳化,都将能够实现。

RDT以处理器快取QoS为主要号召

Xeon E5-2600 v4处理器平台新增的功能当中,以RDT(Resource Director Technology)*为独特,因为有了这项技术,可确保高优先顺序的虚拟机器、应用程式或执行绪,都能获得相对更多的处理器L3快取与系统记忆体,有助于资料中心环境进一步提升伺服器本身的资源利用效率。

第三步 透过处理器快取配置,控管应用程式与资料存取优先顺序

从英特尔发展上述三种技术的历程,其实可以看到,对于承载越来越多型态应用的伺服器,他们的目标已经越来越很明确,就是针对共用平台资源的使用,提供更多有效管理机制。

这项大工程的进行,*早应该回溯到处理器的即时排程执行,以及后来陆续新增与扩展的VT系列指令集,面对执行高优先顺序的虚拟机器时,实体处理器必须能够固定与隔离这些工作负载;接着是记忆体的配置,须具有快取的感知能力,并且能够为高优先顺序的虚拟机器,给予专属的记忆体区域;然后,才是针对硬体周边装置资源的专属配置,例如网路介面、绘图处理器。

但对于伺服器平台上所共用的其他资源,像是处理器内建的L3快取与记忆体频宽,一直并未着墨,而这部分的功能支援,无法透过应用软体来帮忙,非得由处理器厂商亲自操刀才行。

而这些就是英特尔发展平台共用资源监控技术的主要理由。因此他们先发展CMT、CAT,聚焦在处理器快取资源的管理,并且在Xeon E5-2600 v3开始提供;从Xeon D-1500起,延伸到系统记忆体频宽的监督,而推出了MBM;在*新推出的Xeon E5-2600 v4,相关技术又更上一层楼──英特尔正式推出了程式码与资料优先存取技术(CDP)。

这项技术是基于英特尔CAT的延伸,执行绪能够针对程式码执行与资料存取,配置个别专属的L3快取区块,因此,程式码与资料在L3快取置放的区域,能透过软体设定的方式来隔离彼此,并依照不同优先顺序加以区分,进而能够根据工作负载的特性,来调校快取容量的调配

实际上,处理器是透过程式码,或资料快取的容量位元遮罩(Capacity Bit Mask,CBM)来分配。这些遮罩都是特定模型暂存器(MSR),皆以IA32_L3_QOS_MASK_n的格式来命名,而由于每一个服务类型(CLOS)都会配合1个dcache_cbm快取位元遮罩,以及1个icache_cbm的MSR,所以每个CLOSid代号都会搭配CDP。

CDP在哪些应用场景可以有效发挥?主要是具有大量程式码执行痕迹的应用程式,或者是针对一些程式码较敏感、需在快取当中妥善保护的应用程式。

CMT的运作架构

CMT(Cache Monitoring Technology)是英特尔��先推出的伺服器平台QoS管理机制,能辨识过度使用资源的应用程式,并根据优先顺序重新排程执行。若发现占用快取资源的应用程式,会以每个资源监控代号(RMIDs)的形式来回报。

CAT的运作架构

CAT(Cache Allocation Technology)和CMT同在Xeon E5-2600 v3处理器推出,但并非全系列提供,当中运用切割L3快取的方法,促使应用程式执行时得以分隔,过度使用L3快取的执行绪将受到隔离,以免影响其他程式。

MBM的运作架构

随着Xeon E5-2600 v4处理器推出的MBM(Memory Bandwidth Monitoring),也利用RMIDs架构来实现记忆体频宽监控,能基于执行绪、核心或应用程式的角度观察,对于争夺共用资源的情况,能提出较佳的解决方法。

可结合英特尔先前发展的资料中心管理机制

除了跟着Xeon E5-2600 v4系列处理器一起推出的RDT资源督导技术,先前英特尔所提出的多种资料中心管理技术,也还是继续在新款Xeon当中支援,例如Node Manager(NM)、Data Center Manager(DCM),它们也是管理IT基础架构资源时,所不可或缺的层面。

以NM为例,在Xeon E5-2600 v3时,功能已提升到3.0版,可监控资料中心基础架构环境日常运作时的多种特性,包括伺服器平台的耗电、效能、**性、散热(进气口与排气口的气流温度)、资源使用率(处理器、记忆体、I/O、每秒运算资源利用率)、所在位置。若是针对伺服器的管理而言,NM可做到动态监控设备的耗电情况,并且能横跨多个节点、机柜与资料中心,掌握这些不同规模设备的发热组态。

在NM 3.0当中,新增的特色大多是针对用电的管理,像是:能及早预测电力不足,当系统所需电力濒临到资料中心供电的上限时,NM能自动推行减量用电的措施;对于系统开机期间会出现尖峰用电的情况,NM可以设定此时的耗电量上限来控管,而不需要复杂的程序或透过先行关闭部分处理器核心来达成目的。

RDT的两大应用面向与发展顺序

基于快取与记忆体这两个走向,英特尔发展了多种针对伺服器执行环境的QoS资源管理技术,可横跨整个共用平台,实施监控的机制,并延伸到强制套用容量分配政策。

RDT技术发展三部曲

历经3个时期的发展,英特尔终于将资料中心管理技术,从硬体层次的伺服器省电,逐渐提升到更高阶的快取与记忆体资源管理,做到**的IT资源调度指挥,增进资源使用率,对于软体定义IT基础架构下频繁进行的自动环境产生(Automated Provisioning)工作,也相当有帮助。

你可能感兴趣: 业界新闻 图片 英特尔 IT 控制器
无觅相关文章插件,快速提升流量