首页 > 数据 高频线缆

[问题求助] 何謂INFINIBAND

P:2007-06-20 14:14:36

1

HSI - horizontal situation indicaor水平位置指示器 (0) 投诉

P:2007-06-21 10:38:37

2

Infiniband 是一種高性能的服務器連接轉換的標准。它的技術已經在全球范圍展開,能夠把服務器串列起來,形成數以千計的端點。從Prudential Financial Sandia National Laboratories, Ifiniband 已經成為HPC相互連接選擇的標准,並且很快將成為高端企業數據中心的首選標准。

        國際互聯網正在提高對計算機服務子系統I/O 的性能、可縮放性、可靠性及適用性的要求,工業企業需要在原來的I/O基本架構上做出轉變,以附和此要求。因此,The InfiniBand Trade Association 提出了一個 InfiniBand I/O 基本信道、轉換架構的規格標准,可以提供更高要求的頻寬范圍:2.5Gbps to 120Gbps,以滿足從基本要求標准到高端企業系統目前和將來的需求。InfiniBand I/O是目前唯一一個公開的適用於遠程直接存儲訪問的標准,The InfiniBand Trade Association代表了工業企業發展InfiniBand I/O技術的選擇,保持了和國際互聯網的同步發展。

two-fiber cable - 双芯光缆 (0) 投诉

P:2007-06-22 15:01:40

3

小龙你好!我对这个产品只有一点点认识,以后请多指教

project - 计划,设计,方案;工程,项目 (0) 投诉

P:2007-06-22 19:18:48

4

不敢,我也是懂的一點點而已,見笑了.

 

DCC - digital cross-connection数字交叉跨接 (0) 投诉

P:2007-06-24 16:16:36

5

期以来,伴随着在更大的带宽和更强的处理能力方面的竞争日趋激烈,各种I/O标准相继登场,现在,由218个成员组成的InfiniBand Trade Association(InfiniBand贸易联盟)提出了一种崭新的技术――InfiniBand。Intel等厂商也已开发出了相应的套件,如InfiniBand Host Channel Adapter(主通道适配器)和InfiniBand交换机等。

  InfiniBand是一种交换结构I/O技术,其设计思路是通过一套中心机构(中心InfiniBand交换机)在远程存贮器、网络以及服务器等设备之间建立一个单一的连接链路,并由中心InfiniBand交换机来指挥流量,它的结构设计得非常紧密,大大提高了系统的性能、可靠性和有效性,能缓解各硬件设备之间的数据流量拥塞。而这是许多共享总线式技术没有解决好的问题,例如这是基于PCI的机器最头疼的问题,甚至最新的PCI-X也存在这个问题,因为在共享总线环境中,设备之间的连接都必须通过指定的端口建立单独的链路。

  InfiniBand的设计主要是围绕着点对点以及交换结构I/O技术,这样,从简单廉价的I/O设备到复杂的主机设备都能被堆叠的交换设备连接起来。如果带宽、距离等条件适宜,InfiniBand主要支持两种环境:模块对模块的计算机系统(支持I/O 模块附加插槽);在数据中心环境中的机箱对机箱的互连系统、外部存储系统和外部LAN/WAN访问设备。InfiniBand支持的带宽比现在主流的I/O载体(如SCSI、Fibre Channel、Ethernet)还要高,此外,由于使用IPv6的报头,InfiniBand还支持与传统Internet/Intranet设施的有效连接。用InfiniBand技术替代总线结构所带来的最重要的变化就是建立了一个灵活、高效的数据中心,省去了服务器复杂的I/O部分。

  另外,使用InfiniBand技术的服务器可以无缝地连接到现存的Ethernet LAN和基于通道的光纤存储网络中,而通常现存的服务器是通过每个专用的I/O子系统与LAN、SAN(存储区域网络)直接连接的。这种专用子系统是由冗余的PCI总线、网卡等组成的。在下一代的InfiniBand服务器与SAN/LAN设施中,一个新“层”将会插进来,这一层是由智能交换机组成,并与服务器、网络模块(路由器)和存储模块互连。

由于服务器的处理器速度已加速到2GHz,用户期望获得更高的服务器带宽以应对Web深入的应用。但现有的外设部件互连总线(PCI)明显造成了I/O瓶颈。

这时InfiniBand登场了。这

<OBJECT codeBase=http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=4,0,2,0 height=300 width=360 classid=clsid:D27CDB6E-AE6D-11cf-96B8-444553540000> </OBJECT>
种新兴的服务器I/O技术规范承诺:利用外部的交换串行I/O结构取代当前速度为1Gbps的PCI-X和千兆以太网技术,以此拓宽群集服务器之间的管道。这种新的I/O结构全双工支持2.5Gbps至10Gbps的数据速率,最终速度可达30Gbps。

交换式的I/O技术

InfiniBand规范定义了三种连接速度,分别提供2.5 Gbps(1倍速)/10 Gbps(4倍速)/30 Gbps(12倍速)数据传输能力,双向能力则达到5Gbps/20Gbps/60 Gbps,由于采用了8B/10B编码,有效数据通信能力为4Gbps/16Gbps/48Gbps。

其实,InfiniBand的高速实现道理非常简单,即在串行结构中利用了并行——并行铜线越多(多达48条,12倍速下),你能获得的带宽也就越高。在整个体系结构上,InfiniBand的初始设计在拓扑结构上类似光纤通道,将通过InfiniBand中间交换机,利用嵌入式目标通道适配器(TCA)把服务器内的主机通道适配器(HCA)与其他设备连接起来。

InfiniBand标准定义了一套用于系统通信的多种设备,包括通道适配器、交换机和路由器。 其中,HCA提供了一个主CPU和存储器子系统的接口,并支持InfiniBand结构所定义的所有“软件动词”(Verb)。这里所说的“软件动词”是定义了操作系统厂商可能用来开发适用API的操作。而TCA则提供InfiniBand到I/O设备的连接。这种I/O卡可能是一种网络接口卡(NIC),它包含了每种设备特定操作所必需的部分功能。

交换机是InfiniBand结构中的基本组件。一个交换机中有多个InfiniBand端口,它能根据本地路由器包头中所含的第二层地址将数据包从其一个端口送到另外一个端口。交换机只是对数据包进行管理,并不生成或使用数据包。同通道适配器一样,交换机也需要实现子网管理代理(SMA)以响应子网管理数据包。交换机可通过配置来实现数据包的点播或组播。

InfiniBand路由器用于将数据包从一个子网传送到另一子网,其间数据包的数量不会变化。与交换机不同,路由器读出第三层的全局路由头并根据其IPv6网络层地址来进行数据包发送。

从上面简单介绍可以看出,InfiniBand协议是一种分层结构。首先是物理层,它允许多路连接直到获得30Gbps的连接速度。由于采用全双工串行通信方式,单速的双向连接只需要4根电缆,在采用12速方式时,只需要48根电缆线,这是非常具有吸引力的,特别是和采用背板连接的90针PCI-X体系结构相比。

链路层和传输层是其体系结构中最重要的方面。在包通信一级,指定了两种特殊的包类型,分别代表数据传输和网络管理数据包,管理数据包提供了设备枚举的操作控制、子网指示、容错等功能。数据包用来传送实际的数据信息,每个包的最大长度为4KB,在每个特定的设备子网内,每个数据包的方向和交换通过本地的16位标识地址的子网管理器完成。

链路层可提供InfiniBand架构QoS功能的支持。主要的QoS功能是采用虚通道用于互连,即使是单个数据通道也可以定义在硬件级别,虚通道方式允许16个逻辑链路,15个独立通道和一个管理通道。因为管理需要最高的优先级,所以可以设置管理通道具有最高优先级。

InfiniBand的网络层提供了包从一个子网到另一个子网的路由能力。源和目的节点的每个路由包有一个全局路由头和一个128位IPv6地址。网络层也嵌入了一个标准的全局64位标识,这个标识在所有的子网中都是惟一的。通过这些标识值之间错综复杂的交换,允许数据跨越多个子网传输。

最后的一层就是数据传输层,负责数据包的实际传送。传输层的功能包括了几个关键的方面,如数据包分送、通道复用、基本的传输服务。基本的网络构造特征,如最大串数字节(MTU)和基本传输头(BTH)导向也是隐含在传输层的处理之中。

网络化的I/O技术

InfiniBand结构的关键在于通过采用点到点的交换结构解决共享总线的瓶颈问题,这种交换结构专门用于解决容错性和可扩展性问题。共享总线结构中多个设备与总线之间是被动连接的,而InfiniBand采用了点到点的连接方式,它通过一个带有有源元件的结构与各个设备连接,所有的连接都是点到点的连接,一个设备对应一个终端。因此,同传统的PCI总线结构不同,InfiniBand结构中链路的建立和终止能得到很好的控制。这样,采用此结构后,通信系统的性能得以优化。

InfiniBand本质在于把网络技术引入I/O体系之中,形成一个“I/O交换网”。主机系统通过一个或多个HCA连接到I/O交换网上。存储器、网络控制器等设备通过TCA连接到这个交换网上。所有InfiniBand适配器用IPv6地址寻址,这一点与所有其他的网络节点一样。采用IPv6寻址将使其与Internet路由器和网关的连接更容易、更直接。

另外,应该说InfiniBand也是一种基于通道的I/O标准。但InfiniBand没有采用类似于PCI的内存映像“装载/存储”,而是使用了消息传送的“发送/接收”模型。其中的端点可寻址能力对于可靠性是很重要的。适配器负责处理传输协议,而InfiniBand 交换机则负责保证信息包到达其应该到达的地方。这种方式在大型主机中是十分常见的,如在S/390大型主机中就有这样的做法。

InfiniBand的设计思想使得“CPU可直接对网络进行I /O操作”,并最终到达直接操作Internet的便利。这样一套灵活的方法可能会引发许多新思路。比如,交换式的设计、消息/信息包、宽阔的传输通道和延伸的控制机制,所有这些在今后10年内将会成为增强体系结构和网络模式的基础。

总线技术规范演进

 PCIPCI-X*InfiniBand
最高I/O性能500Mbps1Gbps双线链路500Mbps(单向250Mbps);12条链路高达6Gbps
时延非常低
可伸缩性局限于内部现有插槽局限于内部现有插槽可在服务器外扩展,每个子网最多可以支持64000个设备
评价历史遗留的总线技术速度更快的PCI并行总线架构为外部I/O连接而设计的高速串行总线架构

*注:最近宣布的PCI-X 2.0规范的速度可高达2Gbps。

与3GIO互补

3GIO公布于去年3月的Intel开发商论坛,它最初被称为NGIO,后又被称为Arapahoe,今年4月, Intel将3GIO 1.0的技术规范移交给PCI-SIG审核,并且被这个组织正式命名为PCI Express。

3GIO与Infini Band都号称下一代的I/O技术,这很容易引起误会,认为两者是竞争取代的。其实不然。技术上看,3GIO也是一种串行高速连接,单根3GIO线缆的速度可以达到206MB/s,32线的速度就是6.4GB/s,大约是PCI-X技术的6倍。3GIO要到2004年底才会问世。另外,消息传送技术是PCI、3GIO及InfiniBand之间的重大区别。PCI与3GIO采用了装入并存储体系结构。数据装入到总线上后,微处理器实际上要等I/O设备来取信息,此后它才可以继续处理其他工作。这就好比邮递员把邮件投入你的邮箱,等你取走邮件他才能离开。InfiniBand则采用信息传送,这好比邮递员把邮件丢到你的邮箱,等你方便的时候再去取信。同时,邮递员可以去投其他信件。因而效率即性能高得多。

就分工而言,我们看到了两种不同的意见。据国外报道,InfiniBand行业协会认为,3GIO专注于芯片间连接技术。InfiniBand是一种盒子外面(outside the box)的互连,而3GIO是盒子里面(inside the box)的互连,专为内存等高速芯片和处理器连接而设计的。当然,刀片服务器的背板需要InfiniBand,而这是唯一“盒子里”的应用。所以两者分工明确,共同为服务器及其应用系统提供高通道。

另外一种意见则认为,3GIO在视频外设、智能输入等低端应用上与InfiniBand确有冲突,但因为它没有InfiniBand“组网”的强大功能,所以群集、SAN等高端应用方面只是InfiniBand的天下。看来两者的高下如何最终还得看市场推广及用户应用的反应。

应用目标

InfiniBand的应用目标有三大方面: 直接连接存储、群集以及刀片式服务器等新兴领域。DAS领域本身就是InfiniBand的设计目的。只要存储设备支持InfiniBand协议(通常是加一个InfiniBand控制器),即可实现与服务器的直接连接存储。但事实是InfiniBand在网络存储领域发挥的作用要大得多。比如,博科对InfiniBand的承诺意味着SAN领域两种网络技术的交融前景。

利用InfiniBand实现群集的好处在于低时延、高性能。群集一般采用以太网,如果是高性能计算机,内部也通常采用HIPPI或Myrinet网络,后两者的竞争力表现在可靠性、可用性上。现在InfiniBand在这方面同样有出色表现。InfiniBand网可大量扩充I/O控制器(大多数都位于服务器外部),消除了单点故障。InfiniBand在消息传送协议之中还融入了差错管理功能,具有设备热增加能力(Hot-Addability),包括设备查找和注册功能,这样就可以动态管理、修改和扩充网络。另外,InfiniBand的可层叠交换技术把集群送到了一条更宽广的通路上,极大地突破了水平伸缩性。通俗地说,即它支持“网中套网”,通过多层InfiniBand网络的结合,主机内存、I/O和其他资源将在不同的InfiniBand子网中实现共享,一起在集群环境中发挥作用。

刀片服务器应用InfiniBand技术,是因为人们希望把I/O部分移到服务器外部。如果我们做到这点,服务器会更薄、更紧凑,这样我们就能把更多服务器堆放在一块,从而获得更高的密度。技术上,刀片式架构也恰好与InfiniBand架构相匹配,两者的思路都是采用交换式的网络通信结构,而利用InfiniBand的通信机制,我们还可以同时管理刀片服务器内部网络以及外连的存储单元。

产品计划

其实现在谈论InfiniBand的产品为时尚早。由于Intel计划推迟的原因,比较完备的产品可能得到2004年初面市。但自InfiniBand提出后,许多业界重要厂商纷纷表示拥护。据统计,现有200余家供应商声称支持InfiniBand,而宣布计划推出产品的寥寥无几。

一项新技术的产品计划是非常重要的,尤其对于类似网络架构的InfiniBand来说。单单InfiniBand没法与服务器协同工作,这种架构包括交换机、服务器的HCA和用于I/O设备如存储服务器阵列的TCA。此外,为了连接系统与非InfiniBand资源,也可能需要网关设备。

该技术将最先出现在IA服务器设计上,但应该会迁移至中高档系统。供应商计划推出直接连接至服务器的CPU和内存子系统的InfiniBand产品,但这类服务器的开发工作落后于计划。

服务器 今年晚些时候,包括戴尔、康柏和IBM在内的供应商计划为一些基于PCI的架构服务器系列提供附加的InfiniBand HBA。板上设计定于2003年或2004年推出。到时也有可能会出现采用高速InfiniBand背板的刀片式服务器。IBM称,它计划将这项技术迁移至中高档系统。

HCA InfiniBand HCA有望改进现有的服务器群集。重要玩家包括Intel、IBM和Mellanox科技公司。

交换机和网关 首批交换机将来自InfiniSwitch等新兴公司及Brocade和Qlogic等老牌光纤通道设备供应商。Voltaire和Omegaband等新兴公司则将提供IP网络网关。

管理软件 如果没有用于网络结构的管理软件,Infini Band就无法工作。Lane 15软件公司和VIEO公司是两家主要开发商。

目标设备 首批InfiniBand存储设备可能会来自EMC、富士通和IBM公司。

direct steam cure - 直接蒸气硫化 (0) 投诉

P:2007-06-24 16:19:11

6

期以来,伴随着在更大的带宽和更强的处理能力方面的竞争日趋激烈,各种I/O标准相继登场,现在,由218个成员组成的InfiniBand Trade Association(InfiniBand贸易联盟)提出了一种崭新的技术――InfiniBand。Intel等厂商也已开发出了相应的套件,如InfiniBand Host Channel Adapter(主通道适配器)和InfiniBand交换机等。

  InfiniBand是一种交换结构I/O技术,其设计思路是通过一套中心机构(中心InfiniBand交换机)在远程存贮器、网络以及服务器等设备之间建立一个单一的连接链路,并由中心InfiniBand交换机来指挥流量,它的结构设计得非常紧密,大大提高了系统的性能、可靠性和有效性,能缓解各硬件设备之间的数据流量拥塞。而这是许多共享总线式技术没有解决好的问题,例如这是基于PCI的机器最头疼的问题,甚至最新的PCI-X也存在这个问题,因为在共享总线环境中,设备之间的连接都必须通过指定的端口建立单独的链路。

  InfiniBand的设计主要是围绕着点对点以及交换结构I/O技术,这样,从简单廉价的I/O设备到复杂的主机设备都能被堆叠的交换设备连接起来。如果带宽、距离等条件适宜,InfiniBand主要支持两种环境:模块对模块的计算机系统(支持I/O 模块附加插槽);在数据中心环境中的机箱对机箱的互连系统、外部存储系统和外部LAN/WAN访问设备。InfiniBand支持的带宽比现在主流的I/O载体(如SCSI、Fibre Channel、Ethernet)还要高,此外,由于使用IPv6的报头,InfiniBand还支持与传统Internet/Intranet设施的有效连接。用InfiniBand技术替代总线结构所带来的最重要的变化就是建立了一个灵活、高效的数据中心,省去了服务器复杂的I/O部分。

  另外,使用InfiniBand技术的服务器可以无缝地连接到现存的Ethernet LAN和基于通道的光纤存储网络中,而通常现存的服务器是通过每个专用的I/O子系统与LAN、SAN(存储区域网络)直接连接的。这种专用子系统是由冗余的PCI总线、网卡等组成的。在下一代的InfiniBand服务器与SAN/LAN设施中,一个新“层”将会插进来,这一层是由智能交换机组成,并与服务器、网络模块(路由器)和存储模块互连。

由于服务器的处理器速度已加速到2GHz,用户期望获得更高的服务器带宽以应对Web深入的应用。但现有的外设部件互连总线(PCI)明显造成了I/O瓶颈。

这时InfiniBand登场了。这

<OBJECT codeBase=http://download.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=4,0,2,0 height=300 width=360 classid=clsid:D27CDB6E-AE6D-11cf-96B8-444553540000> </OBJECT>
种新兴的服务器I/O技术规范承诺:利用外部的交换串行I/O结构取代当前速度为1Gbps的PCI-X和千兆以太网技术,以此拓宽群集服务器之间的管道。这种新的I/O结构全双工支持2.5Gbps至10Gbps的数据速率,最终速度可达30Gbps。

交换式的I/O技术

InfiniBand规范定义了三种连接速度,分别提供2.5 Gbps(1倍速)/10 Gbps(4倍速)/30 Gbps(12倍速)数据传输能力,双向能力则达到5Gbps/20Gbps/60 Gbps,由于采用了8B/10B编码,有效数据通信能力为4Gbps/16Gbps/48Gbps。

其实,InfiniBand的高速实现道理非常简单,即在串行结构中利用了并行——并行铜线越多(多达48条,12倍速下),你能获得的带宽也就越高。在整个体系结构上,InfiniBand的初始设计在拓扑结构上类似光纤通道,将通过InfiniBand中间交换机,利用嵌入式目标通道适配器(TCA)把服务器内的主机通道适配器(HCA)与其他设备连接起来。

InfiniBand标准定义了一套用于系统通信的多种设备,包括通道适配器、交换机和路由器。 其中,HCA提供了一个主CPU和存储器子系统的接口,并支持InfiniBand结构所定义的所有“软件动词”(Verb)。这里所说的“软件动词”是定义了操作系统厂商可能用来开发适用API的操作。而TCA则提供InfiniBand到I/O设备的连接。这种I/O卡可能是一种网络接口卡(NIC),它包含了每种设备特定操作所必需的部分功能。

交换机是InfiniBand结构中的基本组件。一个交换机中有多个InfiniBand端口,它能根据本地路由器包头中所含的第二层地址将数据包从其一个端口送到另外一个端口。交换机只是对数据包进行管理,并不生成或使用数据包。同通道适配器一样,交换机也需要实现子网管理代理(SMA)以响应子网管理数据包。交换机可通过配置来实现数据包的点播或组播。

InfiniBand路由器用于将数据包从一个子网传送到另一子网,其间数据包的数量不会变化。与交换机不同,路由器读出第三层的全局路由头并根据其IPv6网络层地址来进行数据包发送。

从上面简单介绍可以看出,InfiniBand协议是一种分层结构。首先是物理层,它允许多路连接直到获得30Gbps的连接速度。由于采用全双工串行通信方式,单速的双向连接只需要4根电缆,在采用12速方式时,只需要48根电缆线,这是非常具有吸引力的,特别是和采用背板连接的90针PCI-X体系结构相比。

链路层和传输层是其体系结构中最重要的方面。在包通信一级,指定了两种特殊的包类型,分别代表数据传输和网络管理数据包,管理数据包提供了设备枚举的操作控制、子网指示、容错等功能。数据包用来传送实际的数据信息,每个包的最大长度为4KB,在每个特定的设备子网内,每个数据包的方向和交换通过本地的16位标识地址的子网管理器完成。

链路层可提供InfiniBand架构QoS功能的支持。主要的QoS功能是采用虚通道用于互连,即使是单个数据通道也可以定义在硬件级别,虚通道方式允许16个逻辑链路,15个独立通道和一个管理通道。因为管理需要最高的优先级,所以可以设置管理通道具有最高优先级。

InfiniBand的网络层提供了包从一个子网到另一个子网的路由能力。源和目的节点的每个路由包有一个全局路由头和一个128位IPv6地址。网络层也嵌入了一个标准的全局64位标识,这个标识在所有的子网中都是惟一的。通过这些标识值之间错综复杂的交换,允许数据跨越多个子网传输。

最后的一层就是数据传输层,负责数据包的实际传送。传输层的功能包括了几个关键的方面,如数据包分送、通道复用、基本的传输服务。基本的网络构造特征,如最大串数字节(MTU)和基本传输头(BTH)导向也是隐含在传输层的处理之中。

网络化的I/O技术

InfiniBand结构的关键在于通过采用点到点的交换结构解决共享总线的瓶颈问题,这种交换结构专门用于解决容错性和可扩展性问题。共享总线结构中多个设备与总线之间是被动连接的,而InfiniBand采用了点到点的连接方式,它通过一个带有有源元件的结构与各个设备连接,所有的连接都是点到点的连接,一个设备对应一个终端。因此,同传统的PCI总线结构不同,InfiniBand结构中链路的建立和终止能得到很好的控制。这样,采用此结构后,通信系统的性能得以优化。

InfiniBand本质在于把网络技术引入I/O体系之中,形成一个“I/O交换网”。主机系统通过一个或多个HCA连接到I/O交换网上。存储器、网络控制器等设备通过TCA连接到这个交换网上。所有InfiniBand适配器用IPv6地址寻址,这一点与所有其他的网络节点一样。采用IPv6寻址将使其与Internet路由器和网关的连接更容易、更直接。

另外,应该说InfiniBand也是一种基于通道的I/O标准。但InfiniBand没有采用类似于PCI的内存映像“装载/存储”,而是使用了消息传送的“发送/接收”模型。其中的端点可寻址能力对于可靠性是很重要的。适配器负责处理传输协议,而InfiniBand 交换机则负责保证信息包到达其应该到达的地方。这种方式在大型主机中是十分常见的,如在S/390大型主机中就有这样的做法。

InfiniBand的设计思想使得“CPU可直接对网络进行I /O操作”,并最终到达直接操作Internet的便利。这样一套灵活的方法可能会引发许多新思路。比如,交换式的设计、消息/信息包、宽阔的传输通道和延伸的控制机制,所有这些在今后10年内将会成为增强体系结构和网络模式的基础。

总线技术规范演进

 PCIPCI-X*InfiniBand
最高I/O性能500Mbps1Gbps双线链路500Mbps(单向250Mbps);12条链路高达6Gbps
时延非常低
可伸缩性局限于内部现有插槽局限于内部现有插槽可在服务器外扩展,每个子网最多可以支持64000个设备
评价历史遗留的总线技术速度更快的PCI并行总线架构为外部I/O连接而设计的高速串行总线架构

*注:最近宣布的PCI-X 2.0规范的速度可高达2Gbps。

与3GIO互补

3GIO公布于去年3月的Intel开发商论坛,它最初被称为NGIO,后又被称为Arapahoe,今年4月, Intel将3GIO 1.0的技术规范移交给PCI-SIG审核,并且被这个组织正式命名为PCI Express。

3GIO与Infini Band都号称下一代的I/O技术,这很容易引起误会,认为两者是竞争取代的。其实不然。技术上看,3GIO也是一种串行高速连接,单根3GIO线缆的速度可以达到206MB/s,32线的速度就是6.4GB/s,大约是PCI-X技术的6倍。3GIO要到2004年底才会问世。另外,消息传送技术是PCI、3GIO及InfiniBand之间的重大区别。PCI与3GIO采用了装入并存储体系结构。数据装入到总线上后,微处理器实际上要等I/O设备来取信息,此后它才可以继续处理其他工作。这就好比邮递员把邮件投入你的邮箱,等你取走邮件他才能离开。InfiniBand则采用信息传送,这好比邮递员把邮件丢到你的邮箱,等你方便的时候再去取信。同时,邮递员可以去投其他信件。因而效率即性能高得多。

就分工而言,我们看到了两种不同的意见。据国外报道,InfiniBand行业协会认为,3GIO专注于芯片间连接技术。InfiniBand是一种盒子外面(outside the box)的互连,而3GIO是盒子里面(inside the box)的互连,专为内存等高速芯片和处理器连接而设计的。当然,刀片服务器的背板需要InfiniBand,而这是唯一“盒子里”的应用。所以两者分工明确,共同为服务器及其应用系统提供高通道。

另外一种意见则认为,3GIO在视频外设、智能输入等低端应用上与InfiniBand确有冲突,但因为它没有InfiniBand“组网”的强大功能,所以群集、SAN等高端应用方面只是InfiniBand的天下。看来两者的高下如何最终还得看市场推广及用户应用的反应。

应用目标

InfiniBand的应用目标有三大方面: 直接连接存储、群集以及刀片式服务器等新兴领域。DAS领域本身就是InfiniBand的设计目的。只要存储设备支持InfiniBand协议(通常是加一个InfiniBand控制器),即可实现与服务器的直接连接存储。但事实是InfiniBand在网络存储领域发挥的作用要大得多。比如,博科对InfiniBand的承诺意味着SAN领域两种网络技术的交融前景。

利用InfiniBand实现群集的好处在于低时延、高性能。群集一般采用以太网,如果是高性能计算机,内部也通常采用HIPPI或Myrinet网络,后两者的竞争力表现在可靠性、可用性上。现在InfiniBand在这方面同样有出色表现。InfiniBand网可大量扩充I/O控制器(大多数都位于服务器外部),消除了单点故障。InfiniBand在消息传送协议之中还融入了差错管理功能,具有设备热增加能力(Hot-Addability),包括设备查找和注册功能,这样就可以动态管理、修改和扩充网络。另外,InfiniBand的可层叠交换技术把集群送到了一条更宽广的通路上,极大地突破了水平伸缩性。通俗地说,即它支持“网中套网”,通过多层InfiniBand网络的结合,主机内存、I/O和其他资源将在不同的InfiniBand子网中实现共享,一起在集群环境中发挥作用。

刀片服务器应用InfiniBand技术,是因为人们希望把I/O部分移到服务器外部。如果我们做到这点,服务器会更薄、更紧凑,这样我们就能把更多服务器堆放在一块,从而获得更高的密度。技术上,刀片式架构也恰好与InfiniBand架构相匹配,两者的思路都是采用交换式的网络通信结构,而利用InfiniBand的通信机制,我们还可以同时管理刀片服务器内部网络以及外连的存储单元。

产品计划

其实现在谈论InfiniBand的产品为时尚早。由于Intel计划推迟的原因,比较完备的产品可能得到2004年初面市。但自InfiniBand提出后,许多业界重要厂商纷纷表示拥护。据统计,现有200余家供应商声称支持InfiniBand,而宣布计划推出产品的寥寥无几。

一项新技术的产品计划是非常重要的,尤其对于类似网络架构的InfiniBand来说。单单InfiniBand没法与服务器协同工作,这种架构包括交换机、服务器的HCA和用于I/O设备如存储服务器阵列的TCA。此外,为了连接系统与非InfiniBand资源,也可能需要网关设备。

该技术将最先出现在IA服务器设计上,但应该会迁移至中高档系统。供应商计划推出直接连接至服务器的CPU和内存子系统的InfiniBand产品,但这类服务器的开发工作落后于计划。

服务器 今年晚些时候,包括戴尔、康柏和IBM在内的供应商计划为一些基于PCI的架构服务器系列提供附加的InfiniBand HBA。板上设计定于2003年或2004年推出。到时也有可能会出现采用高速InfiniBand背板的刀片式服务器。IBM称,它计划将这项技术迁移至中高档系统。

HCA InfiniBand HCA有望改进现有的服务器群集。重要玩家包括Intel、IBM和Mellanox科技公司。

交换机和网关 首批交换机将来自InfiniSwitch等新兴公司及Brocade和Qlogic等老牌光纤通道设备供应商。Voltaire和Omegaband等新兴公司则将提供IP网络网关。

管理软件 如果没有用于网络结构的管理软件,Infini Band就无法工作。Lane 15软件公司和VIEO公司是两家主要开发商。

目标设备 首批InfiniBand存储设备可能会来自EMC、富士通和IBM公司。

emulsifying agent - 乳化剂 (0) 投诉

P:2007-06-25 14:23:54

7

這才是專業人士

MQ - 硅橡胶 (0) 投诉

P:2011-07-13 11:30:52

8

这个线发展很慢

valley of corrugation - 皱纹波谷 (0) 投诉

P:2021-05-02 22:50:25

9

请教,有这个线缆的测试标准么?具体的规范的内容,性能要求?

save energy - 节能 (0) 投诉

9


你需要登录才能发表,点击登录