本站小編為你精心準備了數據中心網絡技術論文參考范文,愿這些范文能點燃您思維的火花,激發您的寫作靈感。歡迎深入閱讀并收藏。
隨著以虛擬化技術和云計算的發展和成熟,數據中心的應用數據急劇增長,數據中心與外部網絡之間將承載大規模的數據交流,并且數據中心流量是高動態和突發的,據AlbertGreenberg等對數據中心的流量分析[3],約80%的流量都是內部流量[4],這就要求數據中心內部網絡必須具有高性能、高穩定性、高擴展性以及資源的高利用率。另一方面,虛擬機動態遷移技術在數據中心也得到了廣泛的應用,它可以使得邏輯服務器在網絡服務異常的情況下,自動將網絡服務動態遷移到另外一臺邏輯服務器上,并保證前后的IP和MAC地址不變,這就要求邏輯服務器遷移前后的網絡處于同一個二層域中。由于客戶要求虛擬機遷移的范圍越來越大,大型的數據中心甚至會在不同機房、不同地域之間動態遷移,傳統網絡的三層結構及其使用的網絡技術已經不能滿足其要求。新的數據中心要求減少網絡層次、實現網絡扁平化管理,數據中心的大二層網絡及支撐其運行的網絡技術隨之誕生了。傳統數據中心網絡中二層網絡技術主要使用xSTP(如生成樹協議STP、多生成樹協議MSTP、快速生成樹協議RSTP等)。用戶構建網絡時,為了保證其可靠性,通常會采用冗余鏈路和冗余設備,這樣避讓就會形成網絡環路。而同一個二層網絡處于同一個廣播域下,廣播報文在環路中會反復持續傳送,形成廣播風暴,瞬間即可導致端口阻塞和設備癱瘓。為了防止廣播風暴,就必須防止網絡環路的形成,但又要保證其可靠性,就只能將冗余設備和冗余鏈路變成備份設備和備份鏈路。即冗余的設備端口和鏈路在正常情況下被阻塞,不參與數據報文的轉發,只有在當前轉發的設備、端口、鏈路出現故障時,冗余的設備端口和鏈路才會被激活,使網絡能夠恢復正常。自動控制這些功能的就是xSTP。由于基于xSTP的網絡具有收斂時間長、部署復雜、資源使用率低等缺點,不適合用于構建大型的數據中心網絡。為了解決xSTP技術帶來的問題,一些新的、適用于大型數據中心組網的二層網絡技術正逐步被標準化并付諸實施。所謂“大二層”是指所有VLAN都可以延展到所有匯聚層、接入層交換機的VLAN結構,這與傳統數據中心VLAN往往終結在接入層交換機的做法不同[5]。目前,常用于數據中心的網絡技術主要有交換機虛擬化技術、TRILL(TransparentInterconnectionoflotsoflinks,多鏈路透明互聯)技術、SPB(ShortestPathBridging,最短路徑橋接)技術及其中幾種技術的融合。
1.1交換機虛擬化技術二層網絡的核心是環路問題,而環路問題是隨著冗余設備和鏈路產生的,那么如果將相互冗余的兩臺或多臺設備、兩條或多條鏈路合并成一臺設備和一條鏈路,從邏輯上形成單設備、單鏈路的網絡結構,網絡環路也就隨之消失。尤其是交換機技術的發展,虛擬交換機從低端盒式設備到高端框式設備都已經廣泛應用,已經具備了相當的成熟度和穩定度。交換機虛擬技術已經成為目前應用于數據中心網絡解決方案的主要技術之一。交換機虛擬化技術又分為交換機橫向虛擬化技術和交換機縱向虛擬化技術。1)交換機橫向虛擬化技術。交換機橫向虛擬化技術是將同一層次的多臺設備虛擬成1臺邏輯設備,作為1個網元設備進行管理配置,保證突發流量不丟包,物理/虛擬服務器在1個大二層域下,即插即用,避免部署復雜的STP,支持大容量MAC地址,消除二層網絡環路,提高二層鏈路利用率;實現跨交換機的負載均衡,交換平臺易于擴展。交換機橫向虛擬技術的代表是VSS(Cisco)、IRF(H3C)、CSS(華為)、VSU(銳捷),其特點是應用成本低,部署簡單。但這些技術都是各自廠商獨立實現和完成的,只能在同一廠商的相同系列產品之間才能實現虛擬化。同時,由于高端框式交換機的性能和端口密度越來越高,對虛擬交換機的技術要求也越來越高,目前交換機的虛擬化密度最高為4:1,即將4臺物理設備虛擬為1臺邏輯設備。2)交換機縱向虛擬化技術。縱向虛擬化是將下游交換機虛擬成上游交換機的端口,以達到擴展交換機端口能力并且對交換機進行集中控制管理。縱向虛擬化結合傳輸技術的運用可以實現跨數據中心的互聯,實現網絡最大化的簡化配置,其距離僅受限于所選的萬兆以太網光纖長度。目前,較為成熟的縱向虛擬化技術是Cisco的FEX(FabricExten-der,交換矩陣擴展器)和H3C的VCF(VerticalCon-vergedFramework,縱向融合框架)[6]。
1.2隧道技術
隧道技術實際上是數據中心網絡在數據平面上的虛擬化技術,就是在二層以太網報文外面再封裝一層標識用于尋址轉發。這樣基于外層標識就可以做到多路徑負載均衡和避免環路等。當前隧道技術的代表是TRILL[7]和SPB[8],都是通過借用IS-IS[9](IntermediateSystemtoIntermediateSystemRoutingProtocol,中間系統到中間系統路由選擇協議)的計算和轉發模式來實現二層網絡的大規模擴展。這些技術的特點是可以構建比虛擬交換機技術更大的超大規模二層網絡。
1.2.1TRILL技術分析TRILL是IETF為實現數據中心大二層擴展制定的一個標準。其核心思想是將成熟的三層路由的控制算法引入到二層交換中,對原先的二層報文重新進行隧道封裝后轉換到新的地址空間上進行轉發。封裝后的地址具有與IP類似的路由屬性,具備大規模組網、最短路徑轉發、等價多路徑、快速收斂、易擴展等諸多優勢,從而規避xSTP等技術的缺陷,實現健壯的大規模二層網絡。1)TRILL協議的幾個重要概念RBridges[7、10]:路由橋(RoutingBridge,簡稱RB)。運行TRILL協議的設備均稱為RB。根據RB在TRILL網絡中的位置,又可將其分為IngressRB[10](報文進入TRILL網絡的入節點)、TransitRB[10](報文在TRILL網絡中經過的中間節點)和EgressRB[10](報文離開TRILL網絡的出節點)。Nickname:RB在TRILL網絡中的地址,也是其在TRILL網絡中的唯一標識。Nickname由系統自動分配,不需配置。VLANX轉發器:對源報文封裝TRILL頭后送入TRILL網絡進行轉發或者將TRILL網絡的報文解封裝還原報文后發送給目的用戶。2)TRILL的封裝格式TRILL封裝是MAC-in-MAC方式,TRILL數據報文在原始以太網報文之前添加了TRILL頭和外層以太網頭。因此,在TRILL公共區域數據報文可以經過傳統Bridge和Hub依靠外部Ethernet報頭轉發[11]。TRILL幀封裝格式及報頭格式如圖1所示。3)TRILL工作原理TRILL協議在各RB之間通過周期性通告Hello報文以建立并維持鄰居關系,在形成鄰居關系的RB之間擴散鏈路狀態包(Link-StatePacket,LSP),最終在全網RB上形成相同的鏈路狀態數據庫(LSDB)。各RB在LSDB的基礎上使用最短路徑優先(ShortestPathFirst,SPF)算法生成從自己到其他RB的路由轉發表項,用以指導數據報文的轉發。4)TRILL轉發流程TRILL協議通過在各個RB之間相互發送Hello報文建立鄰居,通過LSP擴散方式同步LSDB,此時,網絡中每臺RB擁有相同的LSDB,即整網拓撲。然后各RB以LSDB為基礎,利用SPF算法計算本地到全網所有RB之間的最短路徑以及出接口、下一跳等信息,結合LSDB中各RB的nickname信息,最終生成nickname轉發表。TRILL網絡接收到用戶報文時,根據報文中包含的目的MAC地址,按照不同的轉發流程進行轉發:如果MAC地址為單播地址,按照單播報文轉發流程進行轉發;如果MAC地址為組播或廣播地址,按照組播報文轉發流程進行轉發。單播報文的轉發過程如圖2所示。(1)當單播數據報文進入TRILL網絡時,IngressRB為原始以太網報文先打上TRILL頭,再打上外層以太網頭(類似于IP報文前的MAC頭),由此完成TRILL報文的封裝。(2)此后,類似于IP報文在網絡內或網絡間的轉發過程,各RB根據TRILL頭中的EgressRBNickname將TRILL報文進行逐跳轉發,直至送達EgressRB。在此過程中,外層以太網頭在每一跳都要被修改,而TRILL頭中只有HopCount值逐跳遞減。(3)當TRILL報文到達EgressRB后被解封裝還原成原始以太網報文,離開TRILL網絡。當組播流量進入TRILL網絡時,IngressRB負責選取一棵組播分發樹進行流量轉發,當TRILL網絡中的RB設備存在不止一個下一跳時,則將組播報文復制多份,根據組播轉發表轉發到所有出接口。組播轉發流程如圖3所示。IngressRB(RB1)收到終端A發送的二層報文后,發現報文中攜帶的目的MAC地址是組播MAC地址,首先根據此報文所屬VLAN選定一棵組播分發樹(RB3)進行TRILL封裝,將TRILL頭部M位置1,即說明該報文為組播報文,然后根據RootRB的nickname查詢TRILL組播轉發表,獲取出端口列表進行分發;TransitRB4接收到TRILL數據報文后,解析TRILL頭部,發現M=1即判斷該報文為組播報文,再根據Egressnickname查詢對應的組播轉發表,進行轉發;RootRB接收到TRILL數據報文后,向所有出接口分發該報文;EgressRB對TRILL報文進行解封裝,獲取原始二層數據報文,然后在本地對應接口轉發出去。由于TRILL網絡中數據報文轉發可以實現等價多路徑(EqualCostMultipath,ECMP)和最短路徑(shortestpaths),因此,采用TRILL組網方式可以極大提高數據中心數據轉發效率,提高數據中心網絡吞吐量。
1.2.2SPB技術分析SPB是IEEE組織針對數據中心大規模二層網絡應用模型定義的一組協議(IEEE802.1aq),是多生成樹協議(MSTP)的進一步延伸,旨在構建大型扁平的無阻塞二層網絡。與TRILL一樣,也使用IS-IS協議來共享交換機間的多個學習的拓撲,并迅速學習以太網連接中各端點之間的最短路徑,避免了使用STP帶來的收斂速度慢和部分鏈路利用效率低下的不足。相對于TRILL,SPB最大的優勢在于能夠方便地支持VLAN擴展功能。1)SPB協議族的結構SPB協議包括SPBV(VLANQinQ模式,Q指IEEE802.1Q)和SPBM(MacinMac模式),無論是SPBV還是SPBM,在控制平面都是基于L2IS-IS實現拓撲發現、管理。在協議的具體實現思路方面兩者是一致的[12]。目前主要應用的模式是SPBM。SPBM基于PBB(ProviderBackboneBridge,運營商骨干網橋)協議。PBB定義了二層網絡中的數據轉發流程,但是PBB本身沒有定義控制流程,其二層網絡的拓撲控制、二層環路管理必須依賴于傳統的STP等技術。因此,PBB需要定義一套控制流程,使其能夠有效地替代STP協議管理大規模二層網絡的拓撲和環路,SPBM就成為PBB的控制流程協議。SPBM+PBB構成了完整的二層網絡技術,其中SPBM是控制平面協議,而PBB是數據轉發層面協議。2)SPBM網絡結構模型SPBM網絡模型與IEEE802.1ah定義的MAC-in-MAC網絡模型基本一致。由SPB核心網絡SPBN(ShortestPathBridg-ingNetwork,最短路徑橋接網)和用戶網絡(Cus-tomerNetwork)兩部分組成。SPBN由BEB(Back-boneEdgeBridge,骨干網邊緣網橋)和BCB(Back-boneCoreBridge,骨干網核心網橋)設備組成,通過IS-IS協議完成最短路徑的計算,以保證SPBN無環路。用戶網絡是通過一臺或者多臺邊緣設備連接到SPBN網絡且具有獨立業務功能的二層網絡,主要由主機和交換設備組成。3)SPBM報文格式SPBM報文分為兩種:控制報文和數據報文。控制報文采用802.1Q格式封裝,包括Hello、LSPDU(LinkStatePDU,鏈路狀態協議數據單元)、SNP,直接封裝在數據鏈路層的幀結構中。數據報文采用IEEE802.1ah(MAC-in-MAC)定義的封裝格式。其格式如圖4所示。4)SPBM工作原理SPBM由SPBIS-IS協議和MAC-in-MAC協議共同完成。其中MAC-in-MAC協議為數據協議,負責數據的封裝及發送;SPBIS-IS協議為控制協議,負責計算數據的路由轉發路徑。SPBIS-IS協議在各BEB、BCB設備之間通過周期性通告Hello報文以建立并維持鄰居關系,在形成鄰居關系的設備之間擴散LSPDU,最終在SPBN中的所有設備上形成相同的LSDB。各SPBM設備在LSDB的基礎上使用SPF算法生成從自己到其他設備的最短路徑,其基本思路如下:首先計算任意兩節點間的最短路徑,并判斷是否存在等價路徑;如存在,則計算各條等價路徑的Key值;然后比較所有等價路徑的Key值,取最小的Key值對應的路徑作為轉發路徑。Key值計算公式為:Key=min{BridgeIDXORMASK[i-1]}其中BridgeID是交換機ID,由用戶直接配置的一個唯一的編號或名字。MASK[i]是一個標準協議中定義的數組,其大小為16。由協議為該數組指定具體數據,對應16個不同的實例。當前協議中定義的數組是。5)SPBM轉發機制SPBIS-IS協議僅負責計算SPBN的最短路徑,生成對應的轉發表項。數據報文在SPBN中轉發過程如下:(1)入隧道:BEB設備從用戶網絡收到數據報文后,學習該報文的源MAC,并為其封裝上MAC-in-MAC頭后將該報文發送進入SPBN中。(2)隧道中轉發:MAC-in-MAC報文在SPBN中傳輸時,BCB設備根據報文中B-DA,B-VLAN查找轉發表,如果無對應的轉發表則丟棄該報文;有對應的轉發表則按照轉發表進行轉發。報文在轉發過程中,中間設備不會對其源MAC進行學習。(3)出隧道:MAC-in-MAC報文到達隧道終點時,BEB會解封裝MAC-in-MAC報文還原成數據報文。BEB學習數據報文中的源MAC后,把數據報文發送到用戶網絡。為防止產生環路,數據報文在SPBN中禁止廣播發送,只支持單播、組播發送。數據報文進入隧道時BEB設備根據報文中的目的MAC來確定后續報文在SPBN中以何各方式進行傳輸:若目的MAC為廣播MAC、未知單播MAC或未知組播MAC,則封裝后的報文在SPBN中進行SPBM組播發送;若目的MAC為已知單播MAC,則封裝后的報文在SPBN中進行SPBM單播發送。SPBM組播支持兩種模式:頭端復制和核心復制,用戶可根據實際組網選擇不同的組播模式。SPBM單播轉發過程如圖5所示。首先用戶數據由用戶網絡1進入BEB1后,BEB1對報文進行封裝,寫入B-MAC、B-VLAN、I-SID等信息;然后,按照計算出的轉發路徑,路徑上的交換機按照報文中的B-MAC和B-VLAN等信息進行轉發;當報文到達BEB2后,由BEB2進行解封裝,去掉報文中的B-MAC、B-VLAN、I-SID等信息,進入用戶網絡2。SPBM組播轉發流程SPBM的組播與傳統的三層網絡組播管理基本類似,都是基于單播管理。在單播管理形成的轉發路徑上計算組播路徑。SPBM在不同的實例中,定義不同層次的組播樹,相互獨立;每個實例中,每個節點都有以自己為根的獨立組播樹。
1.2.3TRILL與SPB技術對比(見表1)SPB是純軟件的解決方案,不需要更新轉發芯片去支持,與現有的MSTP兼容,但也造成了目前SPB應用中的最大困擾。由于轉發路徑靠軟件算法保障,在多路徑負載分擔時,對CPU計算能力的要求也就遠遠超過TRILL。
1.3存儲網絡技術-FCoE
在傳統的數據中心里,存儲網絡與數據網絡是各自獨立的。在大部分數據中心都部署了專門的存儲區域網絡(FCSAN),這種基于FC協議的SAN雖然在性能、可靠性等方面能夠充分滿足用戶的需求,但作為目前SAN的光纖通道協議FC,它的底層發展受到很大的限制,FCoE(FibreChanneloverEth-ernet,以太網光纖通道)可將光纖通道(FibreChan-nel,FC)信息封裝到以太網信息內,光纖通道請求和數據可以通過以太網絡傳輸,是專門為低延遲性、高性能、二層數據中心網絡所設計的網絡協議,是一種利用以太網實現高效塊存儲的技術。FCoE技術融合了現有的傳統局域網(LocalAreaNetwork,LAN)和存儲區域網(StorageAreaNetwork,SAN),擴展了SAN的傳輸帶寬,減少了數據中心的I/O接口,可以在高速以太網鏈路上同時傳輸IP和FCoE數據分組。
1.3.1FCoE協議棧FCoE保留了FC協議棧中FC-2以上的協議棧,把FC中的FC-0和FC-1用以太網的鏈路層取代。FC協議中,FC-0定義承載介質類型,FC-1定義幀編解碼方式,這兩層是在FCSAN網絡傳輸時需要定義的方式。由于FCoE運行在以太網中,所以不需要這兩層處理,而是用以太網的鏈路層取代這兩層處理。
1.3.2FCoE報文封裝如圖6所示,FCoE報文是在以太幀內增加4字節的802.1Q報頭、2字節的以太網類型(FCoE對應0X8906)。在普通以太網絡中,幀最大為1518字節,但FC幀最大約大為2112字節,為了保證FCoE端到端傳輸的流暢性,使用"巨型幀"來進行數據封裝,它允許以太網幀在長度上最大可以達到9000字節,最大的巨型幀可以實現在一個以太網幀下封裝4個光纖通道幀。但要保證巨型幀在以太網絡中能正常傳遞,網絡內所有以太網交換機和終端設備必須支持一個公共的巨型幀格式。隨著FCoE技術應用的普及,除接入層交換機、服務器外,匯聚核心層交換機、存儲設備也逐漸支持FCoE接口,磁盤陣列可直接連接到數據中心交換機上,從而實現了數據中心內端到端的FCoE網絡。
2大二層技術在數據中心的應用
通過對交換機虛擬化(VSS/IRF/CSS/VSU)、TRILL和SPB等大二層網絡技術的分析,各種技術都有其優勢和適用的范圍。一個數據中心的建設也不可能只使用一種技術來實現,通常是兩種或多種技術的融合。下面就通過IRF+TRILL技術給出一個具有較為適用的中型數據中心的基本網絡架構。如圖7所示。核心層:2臺核心設備通過兩條40G鏈路連接,運用IRF虛擬化技術對核心設備橫向整合,將2臺核心物理設備虛擬成1臺邏輯設備,整合后的虛擬化設備具備跨設備鏈路聚合功能,所有鏈路都參與以太幀轉發,這樣2臺核心既能負載均衡,又能實現“雙活”。TRILL網絡:又分為TRILL網絡核心層和TRILL網絡接入層。核心層RB只負責TRILL幀的高速轉發,不提供主機接入。每個接入層RB通過2個萬兆端口分別接入到2臺核心層RB上,此時服務器接入交換機的上聯網絡帶寬就可達20G。存儲網絡:通過FCoE技術直接將存儲設備接入核心網絡的2臺核心交換機。使用FCoE技術,可以突破傳統FC網絡的距離限制,將存儲網絡延展到任何地點,為以后的容災備份中心的建立打下基礎。同時融合后的數據中心只存在一個網絡,存儲網絡和以太網絡統一管理、統一維護,大幅減少了管理人員的工作量。通過IRF+TRILL技術以及FCoE技術部署的數據中心,具有以下幾方面的優點:1)高可用性:虛擬化技術通過核心交換機N:1的橫向整合,既實現了核心設備的負載均衡,又使2臺核心保持“雙活”,保證了核心網絡的高可用性。2)高擴展性:服務器通過該種方式接入TRILL網絡可跨越交換機,不存在二層環路,使得網絡接入層具有良好的擴展能力。3)高效性:由于TRILL網絡中數據報文轉發可以實現ECMP和最短路徑,因此,采用TRILL技術可以極大提高數據的轉發效率,提高數據中心網絡吞吐量。4)更高的靈活性和可靠性:統一的架構是實現下一代虛擬化數據中心架構的關鍵因素,在這種架構中,服務器、存儲和其他資源都可以動態分配,以適應變化中的工作負荷和新的應用程序,而且無需進行頻繁的物理設備變動。對于數據中心虛擬化和自動化來說,這中架構是非常好的。
3總結
隨著數據中心應用及規模的不斷擴張,各種數據行為也在不斷發生改變,這也要求數據中心的基礎架構必須適應其發展,不僅需要高密度、大容量網絡設備,還需要合適的技術來支撐。目前,虛擬化、TRILL、SPB、FCoE等技術會將數據中心帶向大二層網絡架構,數十萬臺設備都可能會在一個大二層網絡中。不管采用哪種新二層技術,未來的數據中心網絡結構必然會更為簡化、更為高效、更易于管理。
作者:胡法紅闞惠強單位:蘭州交通大學現代信息技術與教育中心甘肅省高等學校招生辦公室信息科