2012年11月25日 星期日

Google機房與SDN


Google機房與SDN

Google從2010年開始將機房與機房之間的網路連線(G-scale),轉換成SDN架構,並自行設計交換器,而Google的全力投入,也讓其他人相信,SDN可能就是網路的未來。 

本期兩個封面故事的主題,剛好都跟Google有關係。其中一個封面故事的主題是新一代網路革命──SDN(Software Defined Network,軟體定義網路),而另一個主題是Google如何設計資料中心,這兩個主題合起來看,其中還頗有一些關連。

Google的機房一直很神秘,就連Google自己的員工也不見得看過,甚至,即使Google在一些地區必須租用他人的機房,委由機房代管業者維護系統,維運人員也無法了解Google的系統。據了解,這些維護工作都很簡單,就是在設備故障時換上備品,系統自己就會自動更新,無須維運人員操作。

不過神秘的Google機房終於在日前解密了,Google街景車開進了位於北卡羅來納州的Google雷諾資料中心,現在全世界都可以在網路上逛起Google機房。

跟著街景車逛Google機房,是一個頗為新鮮的經驗,然而我看來看去也不過是覺得機房很大,整齊美觀,有些地方確實與其他的機房不同,其中有什麼玄機倒看不太出來,真是所謂的內行看門道,外行看熱鬧。

Google機房如此神秘,一定有很多地方值得學習,於是我們特別請機房專家翟本喬來當導遊,帶大家一起逛Google機房。翟本喬在Google任職時,為人津津樂道的就是設計Google專用的伺服器,當你進到Google機房,就可以看到這些與眾不同的伺服器。

看了Google機房的設計,你就會知道Google要設計自己的伺服器是有道理的。過去大家都知道Google伺服器有一個很重要的特性,就是省電,畢竟當你擁有數十萬甚至上百萬臺伺服器大軍時,每臺伺服器只要省下一點點電力,整體效益就很可觀。不過,進Google機房一看,你會發現這臺伺服器還有其他的巧思。

Google伺服器有一個截然不同的設計,所有的連接埠都在伺服器的前面板,電源線、網路線等等都從伺服器前面板接入,而伺服器的背後就只有散熱風扇,其他什麼插孔都沒有。這麼設計其實是要搭配熱通道的設計,一般機房的熱通道是預設人員會進出,因為伺服器的連接埠在背後,要維護或調整線路時,維修人員必須進熱通道;但Google機房熱通道的設計是整個封閉,人員不須要進出熱通道,因為在伺服器前端就能完成所有維護工作。熱通道能完全封閉,對於機房的散熱來說當然是更好。

接著,當你走到Google機房的網路室,一定也會發現Google連網路交換器都自己設計,這就與本期的第二個封面故事──SDN有關係了。

Google從2010年開始將機房與機房之間的網路連線(G-scale),轉換成SDN架構,到了今年,Google所有機房之間的網路連線,全數轉為SDN架構了,並以OpenFlow協定傳輸資料。

SDN與傳統三層式網路架構迥然不同,SDN的架構主要分成控制層(Control Plane)與資料層(Data Plane),由控制層的軟體來管理封包的傳送,而資料層就依照指令傳送封包。

傳統的網路架構,是由路由器各自決定最佳封包傳送路徑,所以每一層路由器都要花時間來演算封包路徑,就整個系統來看,管理者也無法掌握封包的傳送路徑;而SDN則是由控制層的軟體來演算最佳封包傳送路徑,資料層的設備完全依照指令來傳送資料。

SDN這種新的架構,提供許多好處,管理者可以控制整體網路的傳輸路徑,若要修改網路政策,也只需要調整控制層的設備,而不需逐一更新所有的網路設備。

SDN的諸多好處,讓Google在2010年決定開始採用,但當時市面上沒有可支援OpenFlow的網路設備,Google因而自行設計交換器。現在Google可說是全世界最大的OpenFlow使用案例,Google的全力投入,也讓其他人相信,SDN可能就是網路的未來。

轉載自《iThome》

沒有留言:

張貼留言