虛擬流量引發(fā)數(shù)據(jù)中心網(wǎng)絡矛盾 |
發(fā)布時間: 2012/8/12 13:06:10 |
先來看看網(wǎng)絡與存儲的融合,傳統(tǒng)的數(shù)據(jù)中心中存在三張網(wǎng),數(shù)據(jù)中心的前端訪問接口通常采用以太網(wǎng)進行互聯(lián)而成,構成了一張高速運轉的數(shù)據(jù)網(wǎng)絡。數(shù)據(jù)中心后端的存儲更多的是采用NAS、FCSAN,服務器的并行計算則大多采用Infiniband和以太網(wǎng),多張網(wǎng)絡的并存提高了建設和運行管理的成本,為了適應云計算成本的需要,網(wǎng)絡的三網(wǎng)融合就成為了必然趨勢。在數(shù)據(jù)中心網(wǎng)絡融合方面相關的技術標準,廠商也業(yè)界也基本達成了共識,比如確定的40G/100G技術標準,F(xiàn)CoE以太網(wǎng)光纖通道協(xié)議和DCB數(shù)據(jù)中心橋接(DataCenterBridging),雖然這些重要的網(wǎng)絡融合標準和協(xié)議已經(jīng)被廣泛的使用在現(xiàn)有的產品中,但產品的成熟和大規(guī)模商用,市場還要等待一段時間。 在數(shù)據(jù)中心內部橫向流量的承載方面。數(shù)據(jù)中心網(wǎng)絡中原本分為三層:核心層,匯聚層和接入層,萬兆及以上的以太網(wǎng)交換機有較高的無阻塞吞吐量,允許用戶把服務器機架和柜頂式交換機直接連接到核心網(wǎng)絡,從而不再需要匯聚層。再者在云計算數(shù)據(jù)中心中,出于虛擬機熱遷移的需求,如果匯聚層仍然采用二層網(wǎng)絡組網(wǎng),二層網(wǎng)絡的規(guī)模將大大增加,原有的STP生成樹協(xié)議將造成網(wǎng)絡鏈路的大量浪費,這就是為什么傳統(tǒng)的三層網(wǎng)絡一直運行良好,但在今天面臨服務器整合、虛擬機時則顯得有些過時的原因。根據(jù)這樣的需求,主流的網(wǎng)絡設備廠商都提出了針對大規(guī)模二層組網(wǎng)的方案。兩大標準組織IETF和IEEE分別提出了TRILL和SPB標準技術,主流的網(wǎng)絡廠商,也根據(jù)自身技術的發(fā)展路線加入了不同的陣營,以推動相關標準的制定和商業(yè)化進程。而它們的總體思路相近,即通過對IS-IS協(xié)議的拓展,在二層轉發(fā)中進入路由技術,實現(xiàn)對網(wǎng)絡鏈路的有效利用,以簡化網(wǎng)絡,支持虛擬機的移動性,降低運營成本。目前大二層網(wǎng)絡技術標準的博弈逐漸明朗,業(yè)界已經(jīng)對通過TRILL標準實現(xiàn)大二層組網(wǎng)逐漸達成了共識。 最后,我們一起看看虛擬機流量的接入與控制的問題。由于虛擬機的引入,虛擬機間流量的交換深入到了網(wǎng)卡內部進行,使得原來服務器與網(wǎng)絡設備之間清晰的網(wǎng)絡界限被打破,于是在數(shù)據(jù)中心的服務器的網(wǎng)絡接入層出現(xiàn)了新的虛擬網(wǎng)絡橋接層,通過軟件的VSwitch實現(xiàn)。雖然實現(xiàn)簡單,但其占用CPU資源導致了一系列的問題;此外也可以借助SR-IOV特性的網(wǎng)絡來實現(xiàn)硬件的虛擬網(wǎng)絡橋接,CPU開銷得到了改善,但虛擬機的流量管理等問題仍然存在。于是爭論又來了,針對虛擬網(wǎng)絡交換出現(xiàn)出現(xiàn)了眾多的技術體系,有的目前仍然在不斷的進化過程中,但有的已經(jīng)被叫停,它們包括802.1Qbg,802.1Qbh,802.1BR和思科VN-Tag.目前802.1Qbg標準已經(jīng)獲得了主流廠商的支持,并可提供基于草案標準的解決方案,802.1Qbh目前已被叫停,802.1BR處于起步階段,思科VN-Tag是其私有的技術標準。 本文出自:億恩科技【mszdt.com】 |