允許使用單一10G 鏈路連接融合存儲設備,則可以解決10G 的成本問題。我們可以把這種單一流量管道稱為“Unified Wire”。
現狀
根據要求的存儲類型,聯網存儲可能包含幾種技術。最常見的是光纖通道存儲局域網絡 (SAN),大多數大型企業都部署了這種經過良好驗證的、可靠的高性能數據塊級存儲網絡。多年以來,光纖通道技術經歷了幾次演變,鏈路速度從 1 Gbps 提高到了 2G;現在,有些首次推出的測試版產品可以支持 4G 鏈路。除了用做存儲設備、交換機和服務器間的連接之外,光纖通道鏈路還可用來將刀片服務器系統中的刀片服務器連在一起并連接到存儲設備。在這些刀片服務器系統中,有第二套鏈路,它們使用以太網,承載非數據塊級的傳輸量,如文件級傳輸量和系統管理傳輸量。采用兩種連接技術以及系統冗余要求意味著刀片系統內有兩個冗余交換結構。在 1G 到 4G 的鏈路速度范圍內,從經濟的角度出發,HBA 或控制器芯片以及光纖交換機端口的成本可以支持這種體系結構。當然,與采用一種連接技術相比,這種體系結構并不能簡化多結構系統的管理工作。
另一種采用多種技術的存儲方案使用了網絡附加存儲 (NAS) 設備,亦稱 外存貯器;這些設備(更適合)處理文件級存儲傳輸量,而非數據塊級。直到一年前,所有外存貯器還只是在前端配置了以太網連接。外存貯器的內部磁盤存儲可通過后端的光纖通道端口進行擴展。與外存貯器的所有內部存儲一樣,所有擴展都是數據塊級的(外存貯器展現出來的存儲數據是文件級視圖),所以外存貯器廠商通過前端光纖通道端口增加了前端數據塊級接入功能,或通過外存貯器前端以太網端口支持的 iSCSI 目標模式軟件增加了 iSCSI 接入功能。如同刀片服務器一樣,當鏈路速度在 1G 到 4G 的范圍內時,外存貯器能夠通過多個 HBA 支持集成的數據塊/文件存儲。
下一代鏈路速度會有多高?10G?還是8G?
光纖通道10G 端口首次出現在 2002 年的主機總線適配器原型演示中;2003 年 9 月,演示了第一個光纖通道 10G 交換機端口。在演示中,交換機端口可在兩種模式下運行 - 充當大型光纖通道交換機之間的 ISL (交換機間鏈路),或者與 FC HBA 一起在主機連接模式下實現交換互操作性。當時的設想是,2G FC 之后的下一次遷移將達到 10G。但發現了幾個問題,使這種假設降到了兩倍,即 4G。首先是 FC 驅動器側發生了變化,驅動器接口遷移到了 4G。開發出了 4G SERDES 芯片內核,使交換機和 HBA 的其他 4G 基礎設施的功能組件達到了 4G。第二個問題是,10G 無法向后兼容 1G 和 2G。在從 1G 到 2G 和 4G 的遷移過程中,光基礎設施保持不變,利用現已安裝的 50/125 和 62.5/125 微米多模光纜實施短距離應用(最長 550 米)。但是,當速度達到 10G 時,這種光纜的距離不能超過 100 米,最短只有 33 米。為了達到最佳的 10G 多模性能,人們制定了新的光纜規范, 850 nm、激光優化、50/125 微米光纖,有效模式帶寬為 2000 MHz*km。這種光纖可使用 10Gbase-S 接口達到 300 米的距離。更加詳細的討論,請參見 10G 以太網聯盟網站 (www.10gea.org)。這個網站上討論了用傳統 1G 和 100M 鏈路部署 10G 時的一些非常重要的光纜基礎設施注意事項。
因此,盡管 10G 光線通道技術可成功運行,但是 10G 鏈路的高成本(10G 光收發器目前的價格在 1000 美元左右)加之現在很少有人需要這種帶寬,使得 FC SAN 10G 應用近期只能限制在 ISL 中;這種情況甚至可能持續很多年。
10G 以太網的情況如何?在以太網方面,10GbE 端口已經上市兩年了,大多用作 ISL。如果 FC SAN 近期不需要 10G 帶寬,以太網/ IP 存儲領域的發展趨勢會推動 10G 主機連接的應用嗎?是的,肯定會。如我們討論過的,在過去的幾年中,“融合存儲”得到了初步部署 - 主要包括結合數據塊級和文件級存儲的設備。考慮到 10G 光口的成本,很難為一種流量類型(數據塊或文件)采用一條 10G 鏈路。但是,如果可以在單一HBA上支持多種流量類型,允許使用單一10G 鏈路連接融合存儲設備,則可以解決10G 的成本問題。我們可以把這種單一流量管道稱為“Unified Wire”。第一個可能使用這種管道的設備可能就是擁有額外的數據塊存儲支持功能的 NAS Filer。這種方法的一個明顯優勢就是,它消除了獨立的文件和數據塊存儲網絡。如果采用了 iSCSI 數據塊連接,則它可消除獨立的光纖通道和以太網基礎設施。為什么融合存儲采用以太網,而不使用光纖通道?因為光纖通道只能支持數據塊流量。光纖通道可以支持 TCP/IP 流量的隧道技術,但是不能加速 HAB 中的 IP 堆棧。
為什么必須以 10G 的鏈路速度、在硬件中處理 TCP/IP 流量?如果我們注意目前實施的 iSCSI,其中的軟件 iSCSI 堆棧可用于大多數操作系統以及在卡中實施了所有 iSCSI 功能的硬件 HBA。如果鏈路速度為 1G,則軟件和硬件實施的性能會很接近 - 區別在于運行堆棧消耗的主機 CPU。如果使用硬件,運行堆棧只需 5% 的 CPU,而軟件則可能消耗 40% 左右,甚至會更高 - 取決于數據塊大小。大多數情況下,采用軟件就已經足夠了。
目前,開發用來處理數據塊和文件加速流量的驅動程序堆棧并不像說的那么容易。處理多中流量類型的驅動程序問題非常復雜。但是,有些新興企業已經在著手開發芯片,并開始設計適用于這種 HAB 的驅動程序。各標準機構也在探索幾種模型,以尋找能夠最好地實現這一目的的模型。下面是各種方法的示意圖:
以太網單一線路 HBA 和 SW 架構
今天,有幾家廠商可以提供 iSCSI HBA。2005 年初,市場上將出現第一款組合的一體化線路 HBA 和 ASIC。這種情況下,隨著不同方法的討論和測試,解決方案的靈活性將變得至關重要。上面的體系結構圖中引入了 RDMA。利用 RDMA(遠程數據存儲器存取),可直接將數據放入應用的緩沖器中,從而消除 RDMA 數據傳輸要求的多個數據復本。IETF 正在討論的、在 RDMA 上處理所有流量的方法會引起人們的興趣嗎?或者,用于文件流量(非數據塊流量)的 RDMA 會勝出?只有時間才能回答這個問題。這里還有一個頗具爭議的說法 - 只有傳統的大型光纖通道 SAN 才會將 10G 光纖通道將 轉移到 ISL。8G 光纖通道鏈路可能是最后一個光纖通道高速主機連接。10G 主機連接可能只用于以太網領域。
無論結果如何,最近幾年都將令人激動;所有這些新技術都將出臺,爭取得到采納。存儲聯網領域不會寂寞的!
10G 以太網超越了銅纜 sidebar?
市場上有多種技術可以實現基于銅纜進行10G信號的傳輸。其中一種是Infiniband 開發出來的,它叫做 CX4。
1.該項技術使用了相同的10G比特MAC、XGMII接口和802.3中指定的XAUI編碼器/解碼器,以3.125g的波特率將信號分解為4個不同的路徑。
2.傳輸的預加重著重于高頻成分以補償PC組件的損耗。連接器和電纜組件。
3.雖然連接器和電纜組件是設計用于infinBand,但卻是802.3ak為了適應平衡器的要求而規定使用的。
4.被電纜組件減弱的信號由接收均衡器進行最后一次升壓。
CX4 可能適用于機架間系統;因為它支持的距離太短,而不能用于更加廣泛的數據中心。另一個缺點是,CX4 屏蔽電纜的體積太大,使得布線難度加大。由于許多交換機廠商還沒有做出廣泛的承諾,因此在 10G 以太網交換機中支持 CX4 尚在探討中。
在無屏蔽雙絞線 (UTP) 電纜上實現 10G 的前景如何?迄今為止,每個以太網 10X 都受到了速度的影響,廣泛采用此項技術的關鍵在于 UTP 的支持能力。有些新興企業已經在著手研發 UTP 10G 技術,并演示了幾種原型機。就目前情況看,似乎不可能在 5 類 UTP 上支持 10G;但人們普遍認為,在 35 米的距離內、在 6E 類或 7 類電纜上支持 10G 是可能的。
10G 光sidebar
目前的 10G 解決方案使用 XPAK 或 X2 光組件。這些設備支持 XAUI 4 窄接口,可將 10G 信號發送到有良好屏蔽的光組件內部。但是這些組件非常昂貴。將來,我們將看到更小的 XFP 組件中會采用 10G 光口;這種組件待用 LC 大小的連接器,與今天的 2G 和 4G 光組件類似。這些光口的輸入設備是 XFI接口 - PC 板上的單一 10G 串行信號。是的,這樣做是可能的,而且已經有了相關的演示。根據預計,XFP 光口的成本將大大下降。
