Infiniband和以太网提速数据中心

时间:2008-12-07   来源:   网友评论:0   人气: 465 作者:

数据中心内的网络通道看起来变得越来越窄了,你可以试想德国的高速公路或是美国的州际公路,并在脑中画出这样的一幅图画——城市要发送的货物和人员到其他城市所行驶的单行道被堵塞了,每个人都僵持在那里。

我们正在看到这个行业出现一些小的神奇的改变——运行在缓慢的以太网连接上的Windows操作系统正在像蜜蜂一样,嗡嗡作响的冲进“寺庙”——数据中心中所用的那些大规模生产的刀片服务器、虚拟机、多核处理器、多插槽服务器,并通过他们处理并传输那些需要高速度的负载——等等,再等等,还要等待,缓慢的网络就像咳嗽一样,勉强的为服务器处理器提供燃料:那些亟待处理的数据。

即便是拥有令以太网相形见绌的自己“专用”超级高速公路Infiniband的高性能计算领域,这个问题也同样明显,虽然Infiniband与以太网以太网比起来已经让以太网像是蜗牛一样,但是仍然不够快。超级计算机们在昨天还仅仅只有100个核心,最多也不过1000个处理器核心,但现在,几千甚至更多核心的超级计算机被开发出来,百万亿次的高性能计算机已经不是新闻,而千万亿次的超级产品看起来也并不是很远了——这也就是说,哪怕是拥有20GBit/s速度的DDR(Dual Data Rate,双倍速率)Infiniband连接也要跟不上数据的发展了(编者注:或许QDR(Quad Data Rate,四倍速率)Infiniband的机会已经出现了。)

但问题在于,网络设备就像接在管道终点的淋浴龙头,如果接了两个水龙头的话,每个龙头则只能获得一半的水,四个龙头则每个龙头只有四分之一的水,八个龙头——你肯定能猜出来是淋浴龙头是为何无法使用的(编者注:作者的意思应该是,如果使用DDR或QDR技术,Infiniband能够提供的通道数就会减少,因为DDR和QDR是基于多通道互连技术的,而另一方面,即便前端进行了多通道的互连,但是后面提供的数据量并未改变的话,即水龙头来说的管道并未加宽的话,Infiniband通道上的数据,只不过是被分流了一下而已,并不能发挥相应的优势。)

因此,数据中心网络技术正在寻找面临虚拟化和刀片服务器及高性能计算等应用压力下的能够处理繁忙I/O的解决方案,当然,现在Alacritech、Mellanox、QLogic正在以两倍甚至十倍的速度冲击Infiniband和以太网的速度。

10G以太网

Mellanox前不久推出了一款聚合网络适配器(CNA)产品,这是一个两个端口的10GbE产品,基于Mellanox此前已经为人所熟知的ConnectX ENt主板之上。事实上,Mellanox此前一直在Infiniband技术业界久负盛名,涉足以太网市场看起来有一点偏离他们的主业了。他们的新产品支持如NetQueue、SR-IOV等虚拟化加速功能,其I/O整合架构类似于数据中心以太网(Data Centre Ethernet,DCE)、FCoE(Fibre Channel over Ethernet)以及InfiniBand over Ethernet(IBoE)

新的八核服务器(双插槽四核处理器服务器)中,每个核心所能够获得的带宽基本上是1Gbit/s左右,这个数字是远远不够的,因此用户需要价格合理性能优异的产品,Mellanox公司表示,其新的产品每端口的价格约在200~300美元之间,而光纤通道HBA卡每端口需要400~500美金,ConnectX ENt的竞争对手,QLogic的CNA卡的成本在每端口300~400美元之间。不过可惜的是,该产品并没有TCP/IP卸载引擎(TCP/IP offload engine,TOE)或是支持iSCSI。

不过,Alacritech公司则正在利用其TOE技术生产10GbE NIC(网卡),并通过TOE技术能够良好的支持Windows Server 2003或是Windows Server 2008作为TCP/IP的发起端(initiator)的数据处理工作。当然,Open Solaris、Linux、Mac OS X等操作系统也都能够支持这项特性。该公司将这项技术称之为:可扩展的网络加速器(Scalable Network Accelerator,SNA),我们可以认为它就像一个TONIC,一个TOE和NIC的混合品。Alacritech公司的市场总监Doug Rainbolt表示,新产品的价格已经非常接近万兆以太网卡的价格,因此他建议用户现在就可以行动了。同时,他表示新的卡对于VMware和Hyper-V的支持都非常好。


 

文章评论