iThome

目前Broadcom、Brocade、Cisco、IBM、Intel等廠商正參與一項網路新標準的制定,這種稱為聚合增強型乙太網路(Convergence Enhanced Ethernet,CEE)或資料中心乙太網路(Data Center Ethernet,DCE)的新協定,預定在2009下半年到2010年初通過IEEE審定,正式進入企業市場。

CEE/DCE的目標非常宏大,預定一舉替代掉當前資料中心最常用的3種網路—區域網路用的GbE乙太網路、儲存設備用的光纖通道(Fibre Channel),以及承擔高效能叢集網路的InfiniBand,因此當CEE/DCE實用化後,將可能大幅改變現有資料中心網路架構的風貌。

今日的資料中心網路架構

CEE的出現是為了解決資料中心既有的網路架構問題。由於企業資料中心同時存在多種不同型態的連線需求,有的資料流對封包很敏感,有的則是對封包遺失很敏感。為滿足這些需求,今日的資料中心通常同時建置了多種不同規格的網路,其中最廣泛的自然是承擔區域網路工作、用於伺服器與伺服器之間連接的GbE,其次是用於連接儲存設備與伺服器的光纖通道儲存區域網路(FC SAN),再來就是一些高效能運算叢集系統使用的InfiniBand或Myrinet等低延遲高頻寬網路。

不同的網路規格雖然各司其職、各有用途,但由於這些網路從底層的物理規格,到上層的連接、流量控制機制等都完全不同,需要的建置與管理技能也不同,迫使企業必須為此購置3套不同的網路設備(含網路卡、交換器、線材等),並為GbE、FC SAN與InfiniBand等3種網路系統分別配置管理人員,無論資產還是人力的利用都相當沒有效率。

舉例來說,資料中心必須讓每1臺伺服器都透過標準的GbE網路卡接上LAN,以供基本的網路存取功能使用。若有高效能叢集系統的需求,則得為叢集中的每臺伺服器安裝InfiniBand HBA,並透過InfiniBand交換器彼此連接。最後若該資料中心是以FC SAN來提供各伺服器的儲存空間,還需為每臺伺服器安裝FC HBA,以便經由FC交換機存取後端的FC儲存設備。

由於乙太網路、FC SAN與InfiniBand的硬體與管理知識都完全不同,因此企業必須尋找能同時提供這3類服務的廠商來建置系統,或是找3個分別負責不同系統的廠商合作建置。另外還得要求MIS同時接受這3種網路架構的管理訓練,或者是由3名具備不同專長的MIS來管理這套系統。如果資料中心的規模很大,則管理不同類型的網路連線技術,就會成為一大負擔。

整合網路架構的必要條件

過去不是沒有人想解決資料中心網路的疊床架屋問題,但要統合區域網路、儲存網路與高效能運算叢集的需求,並不是那麼簡單,1種資料中心整合網路必須要滿足幾個條件:

● 需提供足夠的原生(raw)效能

新的整合網路協定,必須能提供與當前個別網路規格同等級的頻寬,如要整合8Gb FC與10Gb乙太網路,就必須提供至少10Gbp的頻寬,若頻寬不足,將會限制網路的應用範圍。

● 需儘可能保障既有IT投資

新的整合網路架構,必須允許用戶繼續使用既有網路中的設備。同時還能在新舊架構併存的混合環境中,提供方便的遷移途徑,以及不同架構間的相互溝通能力,盡量讓用戶感受不到老架構與新架構之間存在升級瓶頸。

由於企業都已對資料中心既有的網路架構做了大量投資,因此新的整合網路協定若要推廣開來,就必須盡可能保障用戶在IT基礎建設上的既有投資,至少要能允許在架構中繼續使用舊的軟體—包含硬體驅動程式與管理工具等,也就是舊驅動程式與管理工具無須更新即可整合到新協定中,以降低升級的困難度,讓用戶過去累積的管理技術與經驗,不致於毫無用武之地。

● 需具備完善的服務等級管理機制

由於整合網路架構中同時存在多種不同類型的資料流,所以必須要能對不同型態的每種資料流類別(traffic class),提供效能與管理方面的隔離性,為不同類型資料流進行分級。如果1種資料流會干擾到另1種,則這種協定的可靠性就無法滿足關鍵應用的需要。

現行3大網路協定的限制

由前述的需求看來,當前流行的InfiniBand、FC與GbE/iSCSI等協定,都無法滿足整合網路架構的需求。

InfiniBand

InfiniBand是當前可用頻寬最高的一種網路連結技術,在12倍並行與4倍傳輸下可有120Gb的原生頻寬,並具備低延遲特性。

但最大弱點在於與企業過去的網路建設完全不具備延續性,InfiniBand需要建置全新的網路設備,從底層的網路卡、交換器與線材到上層的middleware API都是全新的,還須透過複雜的橋接,才能與其他更普遍使用的網路協定互通(如FC SAN或乙太網路等),用戶過去在SAN或LAN上的管理經驗完全派不上用場,也缺乏與既有架構的遷移能力,以致InfiniBand的用途被侷限在獨立的高效能運算環境中。

GbE/iSCSI

當前以GbE為基礎的iSCSI雖是一種理想的乙太網路儲存協定,擁有乙太網路廣大的安裝基礎優勢,但若要應用到資料中心的網路整合上,便會遭遇效能不足、無法保障既有投資,以及無法隔離不同資料流服務等級等問題。

在效能方面,當前流行的GbE只有1Gb頻寬,與4Gb、8Gb的光纖通道或10Gb的行程間通信(IPC)網路完全不能匹配。更麻煩的是,GbE/iSCSI與FC網路間必須透過複雜的橋接才能溝通,這會帶來額外的資源開銷,而且兩種網路各自擁有不同的管理工具與管理知識,彼此不能互通。對多數已導入2Gb或4Gb光纖通道儲存網路的資料中心來說,納入GbE/iSCSI只是另起爐灶建立另一套不同的SAN,而非與原來的FC SAN整合。

另外乙太網路理論上雖然擁有服務品質(Quality of Service,QoS)機制,以及作為防止封包遺失的流量控制手段,但問題是QoS無法與資料流等級隔離同時併用,以致管理者只能在啟用流量控制的無損失傳輸與QoS間擇一使用,連線品質與流量控制機制不足。

FC

FC的優缺點介於GbE與InfiniBand之間,具有不錯的頻寬表現,並擁有良好的流量控制與高可用性機制,在資料中心的儲存網路中也已得到大量應用,但FC的物理層與資料鏈結層,與最普遍的乙太網路完全不同,具有獨自的網路設備,安裝數量雖遠高於InfiniBand,但仍遠遜於乙太網路,建置成本比乙太網路高出許多,而且管理技能也與乙太網路大不相同。

以10GbE為基礎建立整合網路架構

歷史經驗顯示,任何意圖拋開乙太網路的網路協定規劃,即便擁有更好的規範與控制機制,也不可能成功。但過去的乙太網路,又受到傳輸效能、流量控制機制與可靠性的限制,在資料中心的用途僅限於連接伺服器與伺服器的區域網路,不足已承擔儲存網路或高效能運算網路的需求。而這樣的情況,自10GbE推出後便有了根本性的變化。

10GbE有光纖與銅線兩大類,目前實用化的是光纖版本(802.3ae)。當10GbE投入使用後,乙太網路的物理層已具備可媲美甚至超越光纖通道的原生頻寬。

然而10GbE只是定義了1個效率更高的物理層,乙太網路在資料鏈結層的缺陷仍然存在,若要以10GbE替代光纖通道,則乙太網路也必須提供與光纖通道同等級的可靠性,冗餘路徑與故障切換機制,而這就是新一代的聚合增強型乙太網路所欲達到的目的。

 資料中心網路環境整合前後的比較 

資料來源:iThome整理,2009年1月

 3種不同連線類型的差異 

資料來源:《Proposal for Traffic Differentiation in Ethernet Networks》,2005年3月

【相關報導請參考「打破區域網路與儲存網路藩籬的新一代網路架構:聚合增強型乙太網路預覽」專題】

熱門新聞

Advertisement