技术对决

早在几年前,选择何种协议来连接计算机到网络根本不需要纠结。中等规模数据中心的服务器使用以太网互联技术,而如果你想连接很多节点到单个高性能计算机(HPC),则需要选择InfiniBand。

图片 1

而现在,这种选择开始模糊。这两种协议开始“侵犯对方的领地”,以更好地互联较大的数据中心。最新版本的以太网——千兆以太网(Gigabit
Ethernet)完全能够支持更大的HPC系统,而InfiniBand也正被越来越多地应用于性能敏感的企业数据中心。

11月8日消息,据外媒CNBC报道,可编程芯片厂商Xilinx已与巴克莱银行达成合作,计划收购服务器和存储端到端连接解决方案供应商Mellanox。消息人士透露,该交易近期不会达成,并有可能以流产告终。其中两名消息人士称,如果交易最终能够达成,则预计将在12月对外宣布。

从世界最快超级计算机的前500强最新名单来看,500强系统中有226个系统使用的是InfiniBand,而只有188个使用千兆以太网。

近年来,半导体行业整合浪潮席卷全球。不难发现,2015年Intel 宣布以 167
亿美元收购Altera,以及2016年Nvidia收购Icera的背后,是各大AI芯片厂商实现规模经济、降低成本,保证自身在半导体行业影响力的决心。知情人士表示,收购预计将于12月公布,目前Xilinx市场估值超过220亿美元,本次收购后Xilinx市值会有不小的增长,。由于Intel和Nvdia已经在之前完成了资源整合,预计不会过多干预Xilinx对
Mellanox的收购。

目前,对于网络聚合点,可以使用100千兆以太网,其中100千兆以太网卡的每个端点都能以100Gbps传输数据。更便宜的1、10和40千兆以太网网卡同样也可以用于服务器和交换机。为了满足对更多带宽的需求,以太网联盟已经开始开发400千兆以太网。

Xilinx与Altera一样,生产现场可编程门阵列芯片,以及用于运行搜索算法和电源人工智能的数据中心的电路板。1984年,Xilinx的联合创始人罗斯弗里曼发明了FPGA。Mellanox的市值约为50亿美元,其业务包括出售应用于数据中心的网络硬件以及用于连接交换机和其他硬件的电缆,多年来致力于提供服务器和存储端到端连接解决方案。在本次收购后,Mellanox将为Xilinx提供更广泛可选的产品及解决方案,并持续聚焦核心客户以及业务,打造技术壁垒。

当前版本的InfiniBand(FDR)提供56Gbps(或者每通道14Gbps)的速度。下一代EDR(增强型数据速率)将于明年推出,提供100Gbps。

赛灵思市值达220亿美元以上,该公司在此前的半导体行业并购大潮中基本上保持静观立场。市场此前推测,一家规模更大的芯片厂商可能会对赛灵思发起收购,在英特尔2015年收购阿尔特拉后这种猜测更是有所加深。跟已更名为Intel
PSG的阿尔特拉一样,赛灵思也生产FPGA芯片,应用于运行搜索算法和为人工智能提供支持的数据中心的集成电路。FPGA由赛灵思联合创始人罗斯·弗里曼在1984年发明。

这些数字只是告诉了我们一部分事实。InfiniBand提供的优势还包括扁平化的拓扑结构、更低的延迟性和对服务器处理器更少的依赖。而以太网在整个网络设备市场无处不在。

在网络硬件销售市场上,思科占据着统治地位,而收购迈络思可令赛灵思获得更多可在数据中心市场上出售的产品。今年早些时候迈络思与激进投资者Starboard
Value达成和解,当时由后者提名的三名新董事进入了该公司董事会。

以太网的力量在于它无处不在,从笔记本电脑到最大的数据中心交换机,以太网联盟主席John
D’Ambrosia表示:“有很多公司都提供以太网解决方案,一个共同IP可以跨多个应用程序。”

此外,除了Xilinx,Intel在今年早些时候可能对Mellanox感兴趣。但是,随着天使投资公司Piper
Jaffray指出英特尔仍在寻找一名CEO,而博通刚刚结束了本周190亿美元收购CA的计划,所以在收购方面Xilinx不会遇到过多阻碍。Mellanox自10月25日以来飙升22%至每股88美元左右,并随着今日Xilinx的收购消息发布后上涨近6%至94美元。如果达成协议,收购价可能会超过100美元,Mellanox估值约为55亿美元。

这种无处不在确保了互操作性以及低成本,因为很多供应商激烈的竞争将拉低价格。“对于以太网,你可以将很多东西放在一起用,你可以获得竞争力,同时降低成本。”

Mellanox是一家总部位于以色列的公司,该公司成立于1999年。公司官网介绍,他们是一家在全球范围内为服务器和存储提供端到端Infiniband和以太网互联解决方案的领军企业。他们提供的互连解决方案通过低延迟、高吞吐量的强大性能,可以极大的提升数据中心效率,在应用和系统之间快速的传递数据,提升系统可用性。Mellanox为业内提供了加快内部设备互联的技术和产品,包括网络适配器、交换机、软件和芯片,这些产品都可以加速应用的执行,并最大化的提升HPC、企业数据中心、Web2.0、云计算、存储以及金融服务的效率。

InfiniBand在2000年出现,它主要用于绑定多台服务器的内存和处理器,让它们之间可以进行通信,仿佛位于同一块电路板上一样。要做到这一点,InfiniBand的结构并不简单,结合OSI(开放系统互联)网络协议栈的底部四层(物理、数据链路、网络和传输层)到单一架构。

据媒体报道,收购迈络思可令赛灵思获得更多可在数据中心市场上出售的产品。

InfiniBand行业协会工作组联合主席Bill
Lee表示:“InfiniBand的目标是改善应用程序之间的通信。”这似乎在暗讽以太网的“存储和转发”的方式。

我们知道,随着在服务器,存储和嵌入式系统中使用多个多核处理器,I /
O带宽不能跟上处理器的进步,造成性能瓶颈。快速数据访问已成为利用微处理器增加的计算能力的关键要求。此外,互连延迟已成为集群整体性能的限制因素。

与千兆以太网的分层拓扑结构不同,InfiniBand是平面结构,从拓扑结构上来说,这意味着每个节点都有对所有其他节点的直接连接。InfiniBand的特别之处在于RDMa(远程直接内存访问),这允许网卡在服务器上读取和写入数据,而无需服务器处理器来进行这个工作。

另外,集群服务器和存储系统作为关键IT工具的不断增长的使用导致了互连配置的复杂性的增加。
EDC中的配置和连接数量也有所增加,使得系统管理变得越来越复杂,操作昂贵。另外,使用不同的互连基础设施管理多个软件应用程序已变得越来越复杂。

InfiniBand迅速获得了HPC系统的青睐,如上面所述,这项技术现在已经蔓延到了企业环境。例如,Oracle公司使用InfiniBand来为其Exadata和Exalogic数据分析设备提高性能。微软为其最新发布的Windows
Server 2012添加了对RDMA的直接支持。

再者,随着附加的计算和存储系统或节点被添加到集群中,互连必须能够扩展,以便提供集群性能的预期增加。此外,对数据中心能源效率的更多关注正在导致IT经理们寻求采用更节能的方法。

InfiniBand的另一个企业用户是美国退伍军人事务部,这个美国联邦机构的信息操作约在200台服务器上运行,它们通过InfiniBand来通信。该事务部的解决方案架构师Augie
Turano表示:“我们要进行大量数据传输。”数据库经常在服务器间移动,这样就可以使用不同的应用程序来分析数据库。Turano表示:“对于我们来说,能够以InfiniBand的速度来在服务器间移动数据,是一个很大的改进。”

同时,大大多数互连解决方案不是设计为在大型集群环境中使用时提供可靠的连接,从而导致数据传输中断。由于EDC中的更多应用程序共享相同的互连,因此需要高级流量管理和应用程序分区来保持稳定性并减少系统停机时间。大多数互连解决方案不提供此类功能。

然而,以太网联盟的D’Ambrosia并不畏惧InfiniBand的性能优势,他认为以太网能够赶超这种性能。他说道:“我们喜欢来自其他技术的挑战,因为这让我们意识到我们还可以继续完善。”

据维基百科,Mellanox正在深耕的InfiniBand是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。InfiniBand也用作服务器与存储系统之间的直接或交换互连,以及存储系统之间的互连。总体来看,这个技术有以下优点:

虽然以太网最初被用来连接少量计算机,而后来的版本则是专门针对更大型应用,例如作为整个数据中心的背板,这种应用很快就成为主流。另外,一些技术(例如iWarp和RoCE)能够帮助以太网降低延迟性和处理器使用,让千兆以太网可以直接与InfiniBand竞争。

首先,被设计为严重依赖通信处理的其他互连技术相比,InfiniBand被设计用于在IC中实现,以减轻CPU的通信处理功能。
InfiniBand能够相对于其他现有的互连技术提供优越的带宽和延迟,并且每个连续的产品都保持了这一优势。例如,我们目前的InfiniBand适配器和交换机提供高达100Gb
/ s的带宽,端到端延迟低于微秒。此外,InfiniBand还充分利用了PCI
Express的I / O功能,即高速系统总线接口标准。

D’Ambrosia表示:“以太网正在不断完善。”InfiniBand要注意了,数据中心正潜伏着一个有力的竞争对手。

其次,根据独立的基准测试报告,InfiniBand解决方案的延迟不到测试以太网解决方案的一半。
光纤通道仅用作存储互连,通常不会在延迟性能上进行基准测试。
HPC通常需要低延迟互连解决方案。 此外,云,Web
2.0,存储,机器学习和嵌入式市场中对延迟敏感的应用程序越来越多,因此,使用10Gb
/ s和更快的行业标准InfiniBand和以太网解决方案有趋势 ,能够提供比1Gb /
s以太网更低的延迟。

第三,虽然其他互连需要使用单独的电缆连接服务器,存储和通信基础设施设备,但InfiniBand允许在单个电缆或背板互连上整合多个I
/ O,这对于刀片服务器和嵌入式系统至关重要。
InfiniBand还通过单个连接整合了集群,通信,存储和管理数据类型的传输。

第四,InfiniBand被开发为提供多个系统的高可扩展性。
InfiniBand在硬件中提供通信处理功能,减轻了该任务的CPU,并使得添加到集群的每个节点的全部资源利用率得以实现。

第五,InfiniBand是唯一在硅硬件中提供可靠的端到端数据连接的行业标准高性能互连解决方案之一。此外,InfiniBand还促进虚拟化解决方案的部署,从而允许多个应用程序在专用应用程序分区的同一互连上运行。因此,多个应用程序在稳定连接上同时运行,从而最大限度减少停机时间。

Mallanox公司拥有的从光模块、网卡、交换机、服务器到有源光缆的全系列200G产品,同时他们还提供RDMA技术、GPU
Direct RDMA技术、SHARP技术、NVMe Over Fabric Target
Offload技术、SHIELD技术和Socket Direct和Multi-Host技术,相信也是Xilinx
看中他们的一个原因。但我们应该看到,作为互连技术,IB与以太网、光纤通道和其他专有技术有强烈的竞争关系。缺少服务器核心CPU的Mellanox被Xilinx收购,也许是一个不错的选择。

文章来源:半导体行业观察

发表评论

电子邮件地址不会被公开。 必填项已用*标注