InfiniBand从HPC转向企业存储|企业转向战略
尽管前路还有很多不确定因素,但InfiniBand在传统的HPC市场之外又找到了新的市场――企业存储。 在超级计算领域小有斩获之后,InfiniBand又开始将目光转向企业存储互连。
InfiniBand技术提供了很低的延迟,当前的性能为10Gbps,并承诺未来的性能可发展到120Gbps。
随着该技术在几年前炒作后的实践中失败,分析师和厂商倾向于确信InfiniBand的机会可能最终会由高性能计算(HPC)市场转向企业。
存储厂商Isilon Systems宣称其90%的客户决定采用基于InfiniBand的产品作为基于千兆网(GbE)的选择之上。Isilon开发了一款称为Isilon IQ的InfiniBand集群存储解决方案。
LSI逻辑(LSI Logic)的Engenio子公司也跃入了InfiniBand存储的争夺,微软也在其新的Compute Cluster Server 2003 beta中包括了对InfiniBand的支持。IBM去年已在其BladeCenter中配置了InfiniBand。
不仅适合HPC
Engenio存储集团的架构总监Bret Weber表示,在HPC环境中,InfiniBand几年来被作为互连的选择主要是因为其低延迟特性。Weber表示,HPC用户已经复制他们的基础设施到FC SAN,并疑惑为什么他们不能把InfiniBand用于存储。
Weber认为,“对最重要的部分,我们看到InfiniBand还没能真正成为存储互连的驱动力,但它已经被基础设施拉下了水。”
HPC市场也在传统上被看作是众多新技术开始起步的地方。
Weber表示,“在HPC领域发生的代表了普通用途计算领域在三至五年之后将要发生的,这也是我们对FC的看法。”
IBM也看好InfiniBand作为一种互连技术在HPC领域之外的前景。蓝色巨人通过两年前与Topspin Communications的协议强化了其对InfiniBand的支持,后者去年被思科收购。
IBM的xSeries和BladeCenter服务器部门CTO Tom Bradicich表示,InfiniBand成为企业配置的一个选择有四个原因。首先是它基于开放工业标准; 其次是性能――10Gbps铜线配置和30Gbps交换机; 第三是远程直接内存访问(Remote Direct Memory Access,RDMA)能力; 第四个关键特性是专用协议卸载引擎(Dedicated Protocol Offload Engine)。
分析师也对IB技术在企业的承诺发表了看法。
451集团分析师Simon Robinson表示,“它的低延迟、低开销和高速是其在任何领域的全部资产。”
近日的一份Taneja集团技术摘要,假定InfiniBand将发现其作为一种普通的交换网络进入企业集群配置的道路。
该报告声称,“的确,它通过提供类似Isilon IQ的背板到集群解决方案获得了开始,但我们期望看到基于IB的技术从其滩头阵地深处,在基础设施中取得宽度和高度两方面的进展。”
厂商在等待
Robinson表示包括Engenio、DataDirect和Verari在内的厂商在等待时机,它们全都发布了InfiniBand存储系统。该技术也在固态存储(SSD)市场获得了Texas Memory Systems(TMS)的支持,并进一步转向市场的其他领域。
不过,他表示,断言它取得胜利还为时过早。
Robinson说,“在存储这端还没有真正的赢家,现在还都仅是在试水。但留在市场里坚持芯片级开发的开发者现在已有一定的收获。”
Taneja集团称,Isilon“通过其惊人快速和伸缩性的基于IB版本的Isilon IQ集群存储系统,确立了在基于IB的集群存储市场完全领导地位。”
Isilon以与其GbE解决方案同样的价格提供了其InfiniBand集群存储解决方案。
需要克服的阻碍
InfiniBand仍然有一些需要克服的阻碍。IBM的Bradicich表示,这些InfiniBand面临的阻碍一般出现在技术采用阶段。这些阻碍之一是对用于连接InfiniBand I/O到FC SAN存储的InfiniBand-FC网关的第三方认证。
Bradicich说,“本机InfiniBand存储产品现在才完全出现在市场上,并且它将花费一些时间来取得市场增长。而且最近才有一个开放标准软件栈变得一致并得到完全的支持。”
这个用于InfiniBand的标准软件栈由Open IB组织开发,也被Engino的Weber看作是帮助克服采用障碍的一个关键驱动力。
Weber表示,“所以对于InfiniBand,我们不会遇到与FC类似的情况――每个厂商有他们自己所有的驱动程序栈。通过InfiniBand和Open IB,我们有了真正的通用驱动程序栈,并且通过这些你能更快地将产品推向市场。”
Isilon市场副总裁Brett Goodwin把教育和认知看作是最大的阻碍。
Goodwin表示,“你能在不比GbE增加成本的情况下获得好处的经济性令人注目。真的变成客户不需要头脑判断即可尝试这项新技术。”
小资料:Interop: InfiniBand毁誉参半
InfiniBand继续了拥护者和反对者近乎相等的局面。如果日前在拉斯维加斯举行的Interop大展是市场感觉的征兆: 部署仍主要在高性能计算(HPC)环境中,支持者仍对更广泛的采用怀有希望,而大型存储厂商则仍持抵触态度。
啦啦队队长们当时表态说: “InfiniBand将会复活,”负责大会存储网络日的咨询公司HGAI总裁Howard Goldstein预言,“看看思科收购Topspin,以及QLogic收购Pathscale。”
一位不愿透露姓名的半导体公司产品经理说,“我赞同它将卷土重来的感觉。如果你看到FC和以太网之外,它正是人们在寻找的东西。最初,它被看作是IBM专有的事物,这给它带来了几分损害。”
一位没有透露姓名的东海岸州政府的网络工程师说,“我们认为它能因为其低延迟在存储中得到应用。”他补充说,InfinBand也是他所在的州快速增长的服务器之间潜在的互连框架。他说,“我们的服务器区域比我们的主机占用面积增长得要快。”
其他用户赞扬了服务器和网格计算从该技术中获得的好处。位于达拉斯的游戏公司Ensemble Studios的IT经理Roy Rabey表示,“我认为这是个好主意。”特别是,Rabey感觉这项技术非常适合其数据密集型服务器工作。“我们要做大量的渲染,因此互连的(处理器)内存将提高我们渲染在游戏开发中使用的数据密集型对象的能力。”
Ensemble Studios以《帝国时代》(Age of Empires)游戏而享有盛誉,通常用三年时间来开发一个新产品,虽然Rabey认为如果他使用InfiniBand能明显减少所用的时间。他说,“用它来代替LAN能成倍地提高我们的渲染工作。”
这位管理人员提醒说,迄今为止,成本是他的公司没有部署该技术的主要原因,尽管他认为也有一些互操作性问题。他说,“我们使用的系统还没有实施InfiniBand。”明确地说是Ensemble用来生产其游戏的高端图形工作站。
利用后端动力的能力也在Interop上被认为是一个关键。Austin独立学区的网络系统和支持总监Shlomi Harif说,“InfiniBand可能在网格计算中扮演一个互连的角色。”
但不是每个人都如此看好这项技术的前景。一位不愿透露姓名的来自科研领域的工程师解释说,“我没有真正地使用它――它不是主流角色。你想用你的工作来打赌吗?”
最近,包括Engenio和DataDirect Networks在内的许多厂商开始提供真正的InfiniBand存储系统,让客户直接通过InfiniBand交换机连接,而不需要FC到InfiniBand的桥接。
虽然如此,一些大型存储厂商仍然对该技术在存储的应用持保留态度。EMC产品行销高级总监Marty Lans表示,“我参观了很多客户,但我必须每月谈论它一次,而那只是因为有些人听说了它。”
博科(Brocade)CTO Dan Crain在上周四早晨的一个小组会议上发言,突出了InfiniBand“独特的”大量铜缆及最终用户的谨慎成为阻碍其采用的主要原因。他说,“一项新技术的一些主要障碍始终是行政上的,没有人愿意为它负责。”
思科数据中心业务部门副总裁Ed Chapman在同一个小组会议上发言,解释说该厂商有许多HPC和金融领域的客户使用该技术作为服务器互连。但是,他也认为线缆是一个问题感觉该技术仍要突破小生态环境的束缚。
他解释说,“它不是即插即用的。除非有一个具体原因说为什么你需要部署这些HPC应用,很难简单地说,‘我想在我的整个数据中心部署InfiniBand。’”(Gelada编译)
