- 亿玖动态
- 行业资讯
帮CPU减负只是个开始 英特尔全新IPU为提升数据中心运算效率而生
发布时间:2021-07-10
随着云计算、大数据、物联网和人工智能等新一代信息技术的快速发展,数据也随之呈现出爆炸式的增长,数据中心建设成为了大势所趋,世界主要国家和企业纷纷开启数字化转型之路,在这一热潮推动下,全球数据中心IT投资呈现快速增长趋势。根据Gartner公布的初步数据显示,2020年中国IT支出达到2.84万亿,其中数据中心系统支出2508亿元,占IT支出比重达8.85%。
这也造成了90年代以来,服务器市场的不断增长,但随着计算效率的提升,对数据的需求不降反增——这与19世纪后期,威廉·斯坦利·杰文斯提出的煤炭使用效率变高造成煤炭消耗量增加的理论如出一辙,数据需求的增长最终造成了云和通信服务商必须不断耗费高昂的成本来对基础设施进行升级和维护,以满足消费者的需求。
计算效率的提升造成了对数据需求的增加
其中有一个降本增效,同时提高效率的方法,那就是为CPU减负。要知道,现在除了主内存和辅助内存之外的所有计算都是在CPU上完成的,面对超大规模数据处理的需求,CPU的算力已经达到瓶颈,但随着摩尔定律的进步正在放缓,而且CPU内核价格昂贵,尽可能地从CPU内核中卸载虚拟化、容器化、安全化工作负载的繁琐开销,一方面是对CPU性能价值的充分释放,另一方面也是对数据处理与存储等工作负载的更好平衡。
在6月15日凌晨举行的SixFive峰会上,英特尔推出了全新的基础设施处理器IPU,首先要明确的是,此处的IPU并不是先前英特尔推出的成像处理单元,也不是如Graphcore这样的新锐厂商所提供的为AI计算打造的Intelligence Processing Unit,而是Infrastructure Processing Unit。
简而言之,这是一个可编程的网络设备,能够对数据中心内的基础设施功能进行安全加速,从而使系统级资源的管理更加智能,通过IPU,云运营商可以转向完全虚拟化的存储和网络架构,在减少CPU方面开销的同时保持超高的性能、以及强大的可预测性与可控性。
听起来似乎有点不可思议,在大众眼中,英特尔自己就是卖CPU的,怎么还能自己对自己自己下狠手呢?
恰恰相反,IPU的定位是完成性能敏感的并且通用的工作任务加速处理,类似一个通用的加速平台,由IPU完成基础的工作任务,构建基础设施层,这样CPU就可以来完成其他更有价值的工作,对于一线的云和通信服务商来说是极大的利好,由于数据中心规模巨大,任何一个任务从CPU上的减负都意味着显著的成本降低,也意味着利润的提升。对英特尔来说,即使自己不做IPU,也会有人出来做类似的事情抢占市场,某种意义上,这对英特尔和云服务商来说是绝对的双赢,相信随着整个软硬件技术栈的演进,IPU的采用会逐步扩展到所有的云运营商,以及其他各类数据中心。
虽然这对现有的集中式数据中心的格局造成了一些挑战,毕竟将计算推到了实际产生数据,也就是CPU之外的地方,这会对在此之上运行的软件也造成不小的影响,但随着基础设施的不断发展,为数据中心降本增效早已成为了云服务商们争先要解决的问题,只有让CPU专注于业务负载,其他任务调度之类的负载交给硬件加速,提升单颗CPU的业务使用效率,才是解决这一问题的有效办法。
很明显,IPU就是为了这个目标而生的,其实英特尔的IPU和AWS提出的具备存储、网络、管理以及安全能力的专有硬件Nitro或是英伟达在去年发布的DPU比较类似,他们都能把诸如存储和网络虚拟化等功能从CPU迁移,进而释放CPU核心的能力,具体来说,英特尔的IPU具备以下几个能力:
●通过专用协议加速器来加速基础设施功能,包括存储虚拟化、网络虚拟化和安全。
●通过把软件中的存储和网络虚拟化功能从CPU转移到IPU,从而释放CPU核心。
●允许灵活的工作负载分配,提高数据中心利用率。
●允许云服务提供商根据软件速度对基础设施功能进行定制化部署。
近年来,随着软件行业的发展,应用程序分解为更小的面向服务的、在微服务的容器中运行的组件成为了新的趋势,由于每个微服务本身都包含自己的负载均衡器,且具有分解的架构,这样即便容器中的一个函数失效时,其工作负载也可以重定向到不同的微服务或者容器中继续运行,从而降低对整体服务的影响。而如果单个微服务需要大量资源,系统也可以适当地请求更多动态自动增加计算资源内存,以支持该微服务,这些高度复杂的可扩展和高性能微服务产生了对于高效编排的新需求,而这些,通过IPU都可以做到。
相当一部分CPU的计算性能都用在了与业务无关的负载上
通过特定功能,IPU可对数据中心中基于微服务架构的现代应用程序进行加速。来自谷歌和Facebook的研究表明,微服务通信开销可消耗22%到80%的CPU性能,借助IPU,云提供商可以安全地管理基础设施功能,同时为客户提供对CPU和系统内存功能的全面控制力。
根据英特尔公司数据中心事业部副总裁兼以太网产品部总经理Patty Kummrow的说法,通过至强处理器、FPGA和以太网组件的广泛部署,英特尔已在IPU市场出货量上位于领先地位。目前英特尔首个基于FPGA的IPU平台已为多个云服务提供商完成部署,例如百度就基于英特尔的IPU解决方案,通过自研智能网卡实现了裸金属、虚机、容器多种算力在网络和存储功能的全面卸载和统一。不仅如此,英特尔的首款ASIC IPU也正在测试中。
不断演进的数据中心需要一个全新的智能架构。在这一架构内,大规模分布式异构计算能够协同工作,无缝连接,形成一个独立的计算平台。这种新架构将有助于解决当今资源搁浅、数据流拥堵和平台安全不兼容的挑战,由于超大规模云计算架构对于软硬件结合的需求越来越高,从为了卸载网络相关工作任务而设计的SmartNIC开始,数据中心就在不断地进行新架构的尝试。
作为英特尔SmartNIC产品线的演变,虽然目前IPU并未宣称自己有提供计算的能力,但从去年发布的SmartNIC C5020X来看,IPU要补充这一能力还是十分简单的。但不管怎么说,从云计算公司的角度来看,通过与至强微处理器的结合使用,IPU都可以提供高度智能的基础设施加速,并能够以更可预测的方式提供新级别的系统安全控制隔离,更为关键的是物理隔离业务和管理:业务在CPU、管理在IPU。
从英特尔的角度来看,这次推出的IPU也是英特尔在云战略的又一重要支柱,从把IPU放在了同CPU、XPU同一级别的水平线上就可见一斑。不难看出,在英特尔眼里,未来的智能数据中心架构将拥有三类计算单元:用于通用计算的CPU、用于特定应用或特定工作负载加速的XPU以及用于基础设施加速的IPU,它们将通过可编程网络相互连接,从而有效利用数据中心资源。
据IDC统计,近10年来全球算力增长明显滞后于数据增长。全球算力的需求每3.5个月就会翻一倍,远远超过了当前算力的增长速度。以数据为中心的计算架构成为了趋势,网络计算和IPU也随之成为了以数据为中心计算架构的核心,作为一种全新的技术类别,IPU有望在存储、虚拟化和安全方面扮演越来越重要的角色。