OFweek光通訊網,不言而喻,是數據中心布線在承載著計算機網絡。還有許多帶外連接要考慮,雖然它們與網絡相連,傳送計算數據,但并非網絡固有的特征。輔助的帶外連接也可能需要監控電源,溫度,濕度,空調和不間斷供電的性能,還要能監控攝像機,服務器自動關閉,漏水以及其他并不總是基于IP的許多功能。
不同于服務器,存儲和網絡交換機,這些輔助設備通常是低帶寬占用并處于相對非關鍵地位。這是否意味著可以針對不同設備采用不同類型的網絡布線呢?這在一定程度上取決于布線拓撲,拓撲實際上決定了銅纜和光纖的最佳部署。但是對于銅纜來說,如果針對不同系統用不同的TIA(電信工業協會)類別網線,幾乎從來都達不到成本效果。同源電纜安裝更快,而且全部采用相同終端硬件,可以保證電纜可適用所有目的。而且因為這種安裝方式使用的是相同轉接線,不可能在高級連接處使用低級轉接。
網線類型:光纖的來龍去脈
光纖是另一種概念。單模光纖和多模光纖有很大區別。伴隨著1988年實用型垂直腔面發射激光器(VCSEL)的出現,再后來激光優化多模光纖(LOMMF)的發展,以及最新采用的OM4光纖標準,高速光纖連接已經兼具了經濟性和實用性,不再需要通過單模光纖的方式,尤其對于數據中心很常見的短距離情況。目前,沒有跡象顯示數據中心內部出現了超出LOMMF和VCSELs能夠支持的帶寬要求。但盡管高級多模光纖可以處理數據中心的任何要求,我們始終擔心帶寬需求可能會超過目前的能力界限,尤其對于網絡主干。
因此,普遍認為至少安裝一條單模光纖比較保險。畢竟,光纖不貴;但是接口電子元件卻不便宜。許多人認為,即使你從來不使用這根單模光纖,它也不失為廉價的保險策略,在不必要情況下不用投入一大筆錢在電子元件上。然而,還是跟錢有關。我們越往光纖基礎設施方向邁進,我們就需要越多備用的光纖來配置一定比例單模光纖。
單模光纖主要用于維護遠距離帶寬。因此,對于數據中心常見的相對短距離,可能更需要的是直接插入的光學衰減器或是足夠長的網線卷以使接收器不至于被高功率激光發射器信號所包圍。激光耗電更大,從而導致大型數據中心不必要的能耗。在主通道路徑上鋪設單模光纖,或是為了網絡連接在數據中心之外鋪設,都會有助于未來的管理。但是除非接口電子元件價格大幅下跌,單模光纖的成本將會很高。在位于不同建筑物的數據中心之間,或是同一棟樓里較遠的兩個地方,使用單模光纖。在高帶寬服務器和主干連接地方,使用高級多模光纖。
質量的重要性
由于我們仍需要銅纜連接許多獨立服務器,只有用最好的銅纜去延長使用壽命才能行得通。這不僅適用于網線——配線架,連接器,終端裝置和轉接線也都要進行同樣嚴格選擇。安裝必須經過適當的測試檢驗,結果要遵循指定的性能標準。如果安裝過程草率,那么購買高級網線根本沒意義。選擇了最好的網線類型,就應該要求達到最理想的效果,這意味著只能用可兼容的轉接線,從而保證你的投入不會降級。令人驚訝地,使用不兼容轉接線是常犯的一個錯誤。老化,低效的轉接線處處可見,只是因為它們還能用,但是同時也妨礙了昂貴新硬件的性能發揮。
另一個逐步受到關注的問題是銅纜和高級光纖的制作工藝問題。容差變得非常重要,一個小誤差都會使性能降低,而且光纖連接器密度太高也使得實地裝配這些網線成為不可能,不論距離遠近。如果從維護網線基礎設施質量和現今的性能要求角度來考慮,任何人都不應該自己制作轉接器。現在出現了越來越多的整套電纜組件在工廠根據定長就已經制作好了,銅纜和光纖兩種網絡類型都有。這樣可以確保質量,方便將來添加纜線,而且也解決了對纜線數量估計不足的擔憂——任何時候需要添加都很容易。
不管是用銅纜還是光纖,數據中心必須能夠又快又好的布線。不應因為樓里其他地方的布線類型而受影響;數據中心是特殊場所,造價很高。即使第一天不需要發揮性能最大化,在其設備的生命周期中也很可能會需要。這也解釋了為什么在新數據中心設計里,光纖的使用比重高于銅纜;還有,為什么不論銅纜還是光纖,出于省錢考慮而沒有采取最佳安裝方案將會是一個不良的經濟決策。更新布線代價高昂,還存在潛在破壞性,所以需要盡可能避免。下表顯示網線性能發展的快速性:
年份 | 標準 | 型號 | 網線 | 速度 |
1990 | IEEE 802.3i | 10Base-T | Cat. 3 UTP | 10MBit/Sec. |
1991 | ANSI/EIA/TIA 568 | Cat. 3 UTP | ||
1992 | TSB 36 | Cat 4 & 5 UTP | ||
1993 | IEEE 802.3j | 10Base-F | MM Fiber | 10MBit/Sec |
1995 | IEEE 802.3u | 100Base-TX | 2 Pair Cat. 5 | 100MBit/Sec. |
1995 | IEEE 802.3u | 100Base-T4 | 4 Pair Cat. 5 | 100MBit/Sec. |
1995 | IEEE 802.3u | 100Base FX | MM Fiber | 100MBit/Sec. |
1998 | IEEE 802.3ab | 1000Base-T | Cat.5 UTP | |
2001 | ANSI/EIA/TIA 568-B.2 | Cat. 5e | 1 GBit/Sec. | |
2002 | ANSI/EIA/TIA 568-B.2-1 | Cat. 6 | 10 GBit/Sec. | |
2002 | ISO/IEC 11801 | OM1 | MM Fiber | |
2003 | IEEE 802.3ae | 10GBase-SR, -LR, -ER, -SW, -LW -EW | LOMM Fiber | 10 GBit/Sec. |
2008 | ANSI/EIA/TIA 568-B.2-10 | Cat. 6A | ||
2009/2010 | IEEE 803.3ba TIA-492-AAAD | OM4 | LOMM or SM Fiber | 40 GBit/Sec 100 GBit/Sec. |
2010 | IEEE 803.3ba | 4 Pair Cat. 6A UTP | 40 GBit/Sec. | |
2010 | IEEE 803.3ba | 10 Pair Cat. 6A UTP | 100 GBit/Sec. |
圖表1:主要網線技術發展時間表
物理設計與數量
主要有以下四個因素對當今數據中心布線提出了挑戰難題:
1.每臺服務器的多網絡連接要求——有些要用銅纜,有些要用光纖
2.網絡交換機更高端口密度要求
3.不同廠商和協議對存儲拓撲的要求
4.為滿足更高速度需求而不斷變化的網線標準
機柜底部整合方案滿足了多數需求,但有兩處欠缺——要事先確定在每個機柜里安裝多少網線;以及服務器接入整合交換機的尺寸和價格。
標準機柜可以容納42臺1U服務器,每臺服務器能有3個或更多連接。機柜里還可以有電源和溫度監控器,以及安全密碼鎖。是否每個機柜里還應該安裝6個24口的配線架以支持數量最大化的連接呢?未必需要,但也沒其他方法可以準確預測每個機柜最終需要多少個連接。而且每個機柜派什么用場,如何布線是有限定的。
人們通常都選擇一個切合實際的“中間值”,導致往往安裝了比實際要求數量更多的網線。雖然這種情況費用較高而且很難證明是不是完全正確,但是這仍比在每個機柜行安裝冗余機箱類型的接入交換機并預留足夠端口以匹配網線數量要省錢。虛擬化和整合甚至會加劇服務器和網線密度增長的局面。
機柜頂部整合方案比底部方案更靈活和經濟,因為可以預先部署空的光纖盒在需要時才接入光纖。不論現有設備是LT光纖連接,本地交換機,還是多芯拉式(MPO)預置光纖連接器,預置光纖都能快速方便地添加,而不會造成混亂的現場安裝或中斷其他單光纖。由于一個連接器里就有12芯,所以能快速增加大容量。一旦廠商了解了數據中心的規模需求,就能確定光纖長度,增訂光纖變得十分方便。
歸根到底,確定數據中心的布線方法和密度總是很復雜的。布線太少,難以滿足要求,導致臨時布線增加,而且一直不會消除。布線過多,成本太高,難以評估。現代手段可以簡化這個問題,但仍需要有想法,有計劃。靈活性是數據中心規劃設計時要考慮的一個重要因素,意味著勢必要仔細思量如何布線。
(審核編輯: 智匯李)
分享