2011年8月31日 星期三

台灣網路普及率達7成 亞洲第四


我國網路普及率持續上升!經建會昨天表示,台灣使用網路人口由2000年的626萬人,擴增至2011年的1,615萬人;若以普及率來看,已達到7成,位居亞洲第4,台灣正快速邁向E化典範國家。

經建會指出,根據國際行銷組織Miniwatts今年6月底的調查,我國網路普及率達70.0%,若以區域別的平均上網率來看,台灣已經超過整體亞洲(23.8%)、歐洲(58.3%)、非洲(11.4%)、大洋洲(60.1%),僅次於北美洲的78.3%。在12個亞洲主要國家當中,我國上網路普及率排名第4,僅次於南韓80.9%、日本78.4%及新加坡77.2%。

若從成長幅度來看,經建會指出,自2000年以來,台灣使用網路人口逐年攀升,由2000年的626萬人,擴增至2011年的1,615萬人,成長約1.6倍;顯見多年來,政府在推動資通訊科技發展的努力已現成效。

此外,經濟部2010年度國內B2C電子商務調查研究報告亦指出,我國2010年電子商務市場規模為2,596億元,預估2011年將成長約26.5%,達3,256億元;至2012年可達4,070億元。

經建會官員指出,我國整體網路普及率持續上升、企業使用網路快速成長,帶動了電子商務蓬勃發展,未來在政府積極推動「雲端運算產業」及「數位匯流」發展下,將建立與國際接軌之良好電子商務環境,成為全球典範之E化國家。〔自由時報記者王孟倫/台北報導〕

2011年8月25日 星期四

聯合信用卡中心打造500坪新機房,冬天可用外氣冷卻來散熱

聯合信用卡中心資訊服務部資深協理王曉蕙表示,新機房除了採用冷熱通道設計外,也將採用外氣冷卻機制,搭配濕度處理和空氣過濾後可用來冷卻機房設備

聯合信用卡中心正在建置的500坪新機房,位於土城頂埔高科技園區的「嵿埔之星科技廣場」大樓中,預定2012年6月啟用。
聯合信用卡中心正在打造一座500坪的新資料中心,預定2012年6月啟用。機房位於土城頂埔高科技園區的「嵿埔之星科技廣場」大樓。

聯合信用卡中心負責臺灣9成以上信用卡交換業務,2010年就要處理五億六千萬餘筆信用卡簽帳資料,聯合信用卡中心資訊服務部資深協理王曉蕙表示,現有機房面積只有1百多坪,雖然原地擴充3次,但仍不敷使用。

所以,聯合信用卡中心從2年多前開始規畫新資料中心。不過,臺北市多數建築無法滿足機房高架地板和機電設施的需求,聯合信用卡中心花了2年才找到可租用的合適建築。

王曉蕙表示,新機房除了採用冷熱通道設計外,也將採用外氣冷卻機制,在冬天氣溫較低時可引進外氣,搭配濕度處理和空氣過濾後可用來冷卻機房設備,以節省空調用電。文⊙王宏仁

從冷機房到熱機房

從冷機房到熱機房,這代表的是機房冷卻空調不再只是盲目追求極冷。未來機房甚至可以允許更高的溫度,因為英特爾、戴爾計畫發展高耐熱的機箱設計,機房空調可望再進化

機房一般給人的印象,就是冷。以前要看一座機房是否專業,就看打開機房迎面而來的那陣風,若是涼爽的冷風,那應該就不會差太多,因為能夠保持恒溫恒濕的冷房,就代表著專業的機房。

機房若不夠冷,可能就會出事情,因為太熱會導致資訊設備不穩定。也因此,有些機房為了解決溫度過高的問題,就只好把室溫調得更低,機房就冷到讓人想加件外套。

這個判斷方式現在已經不成立了。幾年前,我到惠普美國實驗室參觀機房,當地負責人一打開機房大門,我卻沒感受到隨之而來的那股冷風。一走進機房,我感受到的溫度與在辦公區沒什麼差別,然後再走進去一些,在伺服器之間的通道穿梭,則絲毫沒有涼爽這回事,甚至還感覺有點熱,沒有人會想在那裏逗留很久。

當我走在這座機房時,還感覺到每一排通道的溫度不太一樣:有一排熱,下一排就稍微涼一些,再下一排則又變熱了,其中有個規律的循環。後來才理解,原來這是冷熱通道隔離的設計。當時,這座機房還負責一個好萊塢動畫大片的運算工作,可見其負載並不輕,而透過冷熱通道的設計,機房的溫度則不須調低。

惠普機房負責人還展示了停在角落的一臺遙控車,這臺車插著一根幾乎與機櫃同高的溫度感測棒,定點時間一到,這臺遙控車會自動在機房巡邏,記錄下每個通道的溫度,而惠普的管理軟體則會根據溫度來調動伺服器的運算量,避免伺服器因為運算量突然過大而產生高溫,如果形成了機房裏的熱點,那麼空調就得加大風量來消除這個熱點,如此就會增加空調的耗電量。

惠普機房的做法,就是讓機房保持在不過熱,但也不冷的狀態,因為這樣空調系統就可以大大節省耗電量,就如同現在推動辦公室冷氣溫度應該設定在攝氏26度至28度之間,是同樣的道理。

幾年後,我在臺灣一些企業的機房也看到了類似的設計。去年我們曾經報導過臺灣世曦工程的新機房,他們就採用了冷熱通道進一步的做法──熱通道封閉,在封閉的熱通道裏,溫度更是逼近攝氏30度。無獨有偶,他們也在機房裏裝設了遙控車,可由遠端指派遙控車到特定的位置或自動巡邏,透過遙控車的攝影機,管理人員就能監看機房裏的一舉一動。
在本期的封面故事,我們就報導了3種冷熱通道的做法,從最基本的冷熱通道隔離,以及近年來許多企業進一步採用的「冷通道封閉」與「熱通道封閉」做法,把冷卻的效率控制得更精準。此外,有些企業甚至也開始採用外氣冷卻法,利用臺灣冬季寒流來襲的機會,引進室外冷空氣做為機房冷卻,盡量減少空調系統的使用。去年我們報導臺灣世曦工程成功運用外氣冷卻法時,有人認為這在臺灣的可行性不高,噱頭成分居多,但最近聯合信用卡中心對外公布的臺北新機房,就計畫採用外氣冷卻法

從冷機房到熱機房,這代表的是機房冷卻空調不再只是盲目追求極冷。未來機房甚至可以允許更高的溫度,因為英特爾、戴爾計畫發展高耐熱的機箱設計,機房空調可望再進化

吳其勳/iThome電腦報周刊總編輯

機房空調改造術


機房空調改造術
撰文⊙王宏仁、鄭逸寧 攝影⊙楊易達、賴基能


用冷熱通道有效管理機房氣流
要改善老舊機房的冷卻問題,有3種冷熱通道的作法可以用來管理氣流,光是調整機櫃擺設位置,就能帶來明顯的改善效益

缺乏冷熱通道設計造成了混風連鎖效應,大大影響散熱效率
傳統機房沒有考量冷熱通道的擺設問題,大多是面對背的排列方式,導致越後排的機櫃,散熱效果越差

用單一機櫃搭配煙囪,來建立熱通道封閉
熱通道封閉的作法,後來發展出更進階的單一機櫃熱通道封閉,也就是煙囪式機櫃的設計(Chimney type cabinet),例如英特爾馬來西亞資料中心內為高密度運算打造的小房間

冷熱通道隔離搭配外氣交換控制,挑戰超省電機房
勤益科技大學採用冷熱通道隔離,搭配IP化遠端監控與獨立冷卻水塔來降低外氣交換的冷卻耗能,打造出PUE值1.7的綠色新機房

封閉冷通道以承載800瓩超級電腦
國網中心採用冷通道封閉設計,搭配水平式和下吹式空調系統,來冷卻耗電800瓩全球42強超級電腦產生的熱氣

小機房用煙囪式機櫃建立封閉熱通道
力登電腦在7月剛完成的新機房中,導入了煙囪式機櫃,讓9坪大的機房也能建立熱通道封閉的效果

氣象局導入水冷式冷卻背板解決高運算散熱挑戰
氣象局全面改建水冷與氣冷並用的機房冷卻設施,搭配其他水冷的基礎設施,來帶走機櫃6成熱量,同時搭配天花板上的冷氣送風機形成冷通道,帶走機櫃4成的熱量,透過更集中制冷的方式,解決熱密度過高的問題。

用冷熱通道有效管理機房氣流


走進英特爾位於馬來西亞的資料中心的白色大門,迎面而來一股涼意,這是一座從2002年就開始啟用的老機房,下吹式空調系統的2座冰水主機位於機房中央,冷空氣從高架地板吹出,通過機櫃後釋出的熱空氣則從天花板的迴風口排入到天花板通道中,送至冰水機冷卻,就像是一般企業老舊機房的傳統設計一樣。

英特爾亞太地區和中國各地據點營運所需的各式應用服務,近半數在這座機房中運作,包括辦公室、企業應用以及最重要的處理器產品設計。所在,在這座機房中,除了一般效能的伺服器以外,還有大量供英特爾研發團隊與合作廠商設計產品的高運算伺服器HPC。

但是,這座老機房原先的冷卻設計,難以滿足HPC的散熱需求,所以,後來英特爾另外在這座機房內,又打造了一個小房間,採取不一樣的冷卻設計,來解決高密度運算的需求。

英特爾用來改善機房冷卻問題的解決之道,正是導入了冷熱通道的冷卻設計。在這個機房內的小房間中,英特爾採用了煙囪式機櫃,冷空氣同樣由高架地板吹出,進入HPC機櫃後,由機櫃上方的煙囪排入天花板的通道,同樣循著原有冷熱循環管路,進入冰水機冷卻後形成冷空氣,再繼續下一個熱流循環。

不只是英特爾,隨著伺服器運算效能越來越高,企業也越來越仰賴IT以後,應用系統需要的運算量也越來越大,再加上虛擬化技術越來越興盛,單一伺服器上往往要負載好幾套應用系統,高密度的刀鋒系統和高耗能的HPC高運算伺服器讓整座機櫃的功率越來越大。

例如一座機櫃可以安裝4箱刀鋒系統,若全數插滿刀鋒伺服器,每箱14刀,一刀若用電4百瓦,整座機櫃的用電量就超過了22千瓦,非常驚人,遠高於傳統機櫃不到10千瓦的用電,對很多傳統機房的冷卻設計來說,這是非常大的挑戰。

很多企業為了抑制伺服器過熱造成的不穩定,往往會將機房空調溫度調低,甚至達到10度C以下,企圖以接近冰箱冷藏室的低溫,來解決機房散熱問題。但是,這麼一來,也造成空調系統效率不彰,耗電量大增,形成另外一筆電費的負擔。

 
 臺北科技大學能源與冷凍空調工程系助理教授李魁鵬表示,現在機房最迫切的問題是局部熱點,要建立冷熱通道才能有效改善。
臺北科技大學能源與冷凍空調工程系助理教授李魁鵬表示,這種用整間機房來冷卻的作法過於浪費,其實,現在機房最迫切的問題是「機房局部熱點的問題,但企業為了解決少數地方的問題,而將空調溫度降低,設定的溫度越低,效率就越差,也越耗電。

李魁鵬是經濟部能源局補助臺灣綠色生產力基金會編印的《電信網路機房節能應用技術手冊》主筆(後簡稱機房節能手冊)。這是他訪查過臺灣多座IT機房後的結論。

若以常見的機房能源消耗指標PUE(Power Usage Effectiveness)來看,美國電信級機房在2003年時的平均PUE值是1.95,而在2005年時更是達到1.63,但李魁鵬在這本去年出版的機房節能手冊中提出,實測臺灣電信專業機房得到的結果是1.9。兩相比較,李魁鵬認為,臺灣電信機房還有30%的節能改善空間。電信業者提供的IDC級專業機房都如此,更何況是一般企業自行打造維運的機房,多數也有很大的改善空間。

造成臺灣企業機房冷卻效果不彰的常見問題,包括了高耗能的IT設備缺乏節能管理或沒有整併;迴風設計沒有使用風管而是直接回風,造成氣流短循環,氣流無法有效率地冷卻機櫃。迴風口和出風口太接近,造成氣流短循環,氣流無法有效冷卻機櫃。

還有像機房缺乏冷熱通道的設計以及短循環的迴風,造成機房溫度場混亂,甚至進一步造成空調設備的溫控感測點不易設置,空調箱和冰機的控制失序,經常要頻繁開啟或關閉切換,導致冷卻系統不穩定運轉且有容易故障的風險。其他與冷卻設計相關的問題像是配線系統雜亂阻礙氣流、冰水主機老舊或過大設計而低效率運轉、不當高架地板開口設計造成了氣流分配不均與氣流洩漏嚴重等。

十大機房改善建議,動態PUE監控和建立冷熱通道最優先
李魁鵬在手冊中也提出了10項改善建議,其中,第一步要開始動態測量PUE值,藉由量測能源消耗及PUE監測,而且要長期監控平均計算,例如將冬天和夏天時的機房PUE值平均計算。了解機房能源性能和效率之後,接著就是要建立冷熱通道來進行機房氣流管理。

其他更細緻的改善作法還有調高冷通道溫度、使用變頻空調系統、避免空調超量設計和主機臺數規畫、將未使用的機櫃封板減少氣流短循環、採用伺服器虛擬化和整併。

若企業能進一步施工則可採用水或空氣的自然冷卻方法,使用模組化與高效率的變壓器和UPS系統,或是改用冷煤冷卻系統來提高冷卻效率。

其中,了解機房情況以後,第一個要動手進行的工作是「要建立冷熱通道,對冷卻才有幫助,才能兼顧整間機房不同散熱情況和能源的消耗。」這是李魁鵬建議企業優先採用的機房改善良方。

機房冷卻效率的關鍵:冷熱通道隔離
冷熱通道隔離,是提升機房空調冷卻效率最關鍵也是最基本的做法。透過機櫃的擺設方式,讓空調系統產生的冷空氣流動路徑與伺服器熱氣排放路徑隔離,冷空氣就不會因為混到了熱空氣而降低了冷卻效率。
無冷熱通道設計,冷熱空氣交錯造成混風
若機房裏的機櫃都是朝著同一個方向擺放,就無法形成冷熱通道隔離,由於前一排機櫃的背面就對著後一排機櫃的正面,因此前排機櫃排出的熱氣,會與由高架地板上升的冷空氣混合,如果後排機櫃吸入的冷空氣溫度就變高了,散熱的效率自然就受到影響。
冷熱通道隔離,冷熱空氣分流,避免混風
要建立冷熱通道的話,就是把機櫃以面對面、背靠背的方式擺放,並且在機櫃面對面的通道設置蜂巢板,因此冷空氣就會由蜂巢板上升,被伺服器吸入機箱內,而排出的熱氣就會聚集在機櫃背靠背的熱通道,如此即不易形成混風, 若要做得更好,就是進一步將熱通道或冷通道封閉起來,完全避免冷熱空氣混風。

缺乏冷熱通道設計造成了混風連鎖效應,大大影響散熱效率

因為傳統機房沒有考量冷熱通道的擺設問題,大多是面對背的排列方式,例如第一排機櫃的背面,正對著第二排機櫃的正面,而第二排機櫃的背面又對著第三排機櫃的正面,以此類推。

但是,當冷空氣從高架地板吹入第一排機櫃後,完成熱交換所排出的熱空氣,會和第二排機櫃前方高架地板吹出的冷空氣混合,導致吹入第二排機櫃的冷空氣溫度上升。這個溫度比原始氣流更高的冷空氣,進入第二排機櫃進行熱交換後,得到的熱空氣會比第一排機櫃排出的熱空氣更高,前排機櫃的熱氣會造成下一排的散熱效果更差,以此類推,越後排的機櫃,散熱效果越差。

為了避免最後一排機櫃的伺服器因過熱而當機,企業得將機房溫度越調越低,甚至像冰箱冷藏室一樣不到10度,才能在層層混風連鎖效應的遞減下,讓冷空氣到達最後一排機櫃時,仍有足夠的制冷力。

除了降低溫度,MIS也會採取增加高架地板出風口的方式,增加風量來提高制冷力,但這只是造成更嚴重的混風效應,讓機房內的氣流紊亂,更難將冷空氣送達要冷卻的設備。

混風也會對空調設備的效率產生影響,迴風和出風的溫差越小,代表壓縮機使用相同的電力時,產生的冷凍效果越小,等於是空調設備的運轉效率越差,電力浪費的情況越嚴重。

隔離冷熱通道讓冷熱空氣分流
若調整機櫃擺設方向,讓機櫃兩兩相對,面對面與背對背的擺設,例如第一排機櫃的正面,和第二排機櫃的正面相對,而第二排機櫃背面與第三排機櫃背面相對。如此一來,可以將冷空氣送入正面相對的兩個機櫃間通道,作為冷通道,而第二排機櫃排出的熱氣,進入第二和第三機櫃之間的背對背通道中形成熱通道,由天花板上方迴風口排出,不會影響到第三排機櫃從另一個冷通道取得的冷空氣。

這樣的作法就能避免冷空氣和熱空氣混風,能建立冷熱通道隔離的效果。理想上,每一個機櫃都能都得到溫度品質相當的冷空氣。當然,高架地板的出風口也要隨之調整,在冷通道設置出風口,而在熱通道封閉或移除出風口。李魁鵬表示,光是這樣的調整,其他設備不變,就能大大改善機房冷卻效率。

像勤益科技大學在2009年8月時完成的新機房,就採取了冷熱通道隔離的設計方式。在20多坪的機房中,調整3排機櫃的擺設方式,來區分出冷通道和熱通道。下吹式空調系統的冷空氣從高架地板的蜂巢板吹出,熱通道上方天花板則設置抽風口,將熱風排放到天花板中的通風管路中,再送至屋頂冷卻水塔中降溫。

除此之外,勤益還導入了IP KVM遠端監控機制,減少人員進出機房造成的冷空氣外洩,並設置獨立冷卻水塔,減少外氣交換的比率來節省壓縮機耗電。也採用結構化布線系統,避免網路線影響高架地板下的氣流等作法。透過冷熱通道隔離和這些作法的綜效,最後打造出PUE值1.7的省電機房,甚至未來當勤益新機房的機櫃使用率從現有的6、7成,提高到滿載時,還有可能挑戰PUE 1.4。

封閉冷通道或熱通道,更徹底隔絕冷熱空氣
不過,這種作法只是利用機櫃體積來隔離冷熱氣流,稍加控制冷熱循環的流動方向,但機房仍舊是一個可以充分對流的空間,熱空氣有各種空隙可以繞過機櫃,與冷空氣混合,仍舊會造成部分程度的混風,只是遠低於完全沒有冷熱通道時的情況。

所以,從冷熱通道隔離的觀念出發,更積極管理氣流的作法是封閉,將冷通道封閉或者是熱通道封閉,更徹底地防止熱空氣和冷空氣混風。

例如國網中心為了打造全球42強的超級電腦「御風者」,就利用冷通道封閉的方法,來解決超級電腦高密度機櫃的散熱需求。

御風者設置在國網中心臺中機房中,這套超級電腦共有6百多臺伺服器以及1PB容量的儲存系統,安裝在6排機櫃中,占地約29坪。

為了建立冷通道封閉的效果,6排機櫃每兩兩一組,進風的機櫃正面與正面相對,這兩櫃間的走道形成冷通道,機櫃走道兩端,使用半導體廠房常見的條狀PVC塑膠垂簾來封閉冷通道,上方則使用壓克力板隔絕。

空調系統包括了下吹式空調系統,從地上高架地板的蜂巢板提供冷空氣,以及安裝於機櫃間的水平式空調系統(InRow)。InRow設備使用的冷媒管線則是從機櫃上方進入天花板連結到冰水主機。

封閉冷通道出入口的方式也可以使用門板而非垂簾,但使用PVC塑膠垂簾的好處是方便維護人員進出,而且可以減少必須打開的通道缺口,減少外洩的冷空氣量,近幾年採用冷通道封閉設計的機房,多半會使用PVC垂簾,例如宏碁電子化資訊管理中心在2010年打造的新機房,單一機櫃可承受30千瓦制冷力,同樣也結合下吹式與水平式空調系統,並使用PVC塑膠垂簾來封閉冷通道。

冷通道封閉的另一個好處是可以減少必須冷卻的空間,不像傳統機房那樣,必須冷卻整間機房,而是只需要冷卻冷通道裡面的空間,機房空間較大時,可以節省空調系統的耗電。但缺點之一是整間機房就形成了熱通道,維護人員在機房作業的舒適度較差。

當然冷通道封閉不是解決高密度機櫃的唯一作法,臺灣也有企業和公家機關,導入了水冷式或冷煤的冷卻背板。這是在高密度機櫃後方,安裝一片約5吋厚度的冷卻背板,就如同冰箱後方的冷卻導管一樣,可以直接將機櫃所排放的熱空氣與冷卻水或冷煤進行熱交換,快速帶走高運算伺服器產生的熱能。例如中央氣象局用冷卻背板來冷卻氣象預報用的超級電腦,而中華開發工業銀行則是用來冷卻高運算伺服器的機櫃。

不過,冷卻背板的造價昂貴,而且必須將冰水管線或冷煤管線引進機房,為了避免漏水或冷煤外洩,機房必須進行大幅度的施工作業來建置防水工程,不是一般企業常見的作法。

10種機房冷卻改善作法
1.進行動態PUE 量測:藉由量測能源消耗及PUE 監測了解機房能源性能與效率。

2.氣流管理:良好氣流管理是機房節能的基本,建立冷熱通道減少混風避免熱點發生。

3.調整溫度設定:依據ASHRAE 建議調高冷通道溫度,降低冰水系統能源消耗。

4.變頻空調系統:變頻冰水主機、變頻泵、變頻風扇、變頻冷卻水塔之投入。

5.避免超量設計及主機臺數規畫。

6.將未使用之機櫃予以封板,以避免氣流短循環。

7.使用自然冷卻:採用水或空氣節能器可以大大改善能源效率。

8.最佳化電力系統供應:盡可能使用模組化及高效率之變壓器(98%以上)及UPS 系統(90%以上)。

9.採用冷媒冷卻系統以提昇冷卻效率。

10.伺服器虛擬化及整併。

用單一機櫃搭配煙囪,來建立熱通道封閉


另一種徹底隔絕冷熱空氣的方法是熱通道封閉,作法和冷通道封閉剛好相反。透過熱通道的導引,快速將熱空氣抽離機櫃,來達到散熱的效果。傳統熱通道封閉的作法和冷通道的作法相似,也是需要利用2排機櫃來進行封閉工程,再將熱空氣透過天花板的排風口,將熱氣導引到熱交換設備。

不過,熱通道封閉的作法,後來發展出更進階的單一機櫃熱通道封閉,而非整排機櫃的熱通道封閉,也就是煙囪式機櫃的設計(Chimney type cabinet),例如英特爾馬來西亞資料中心內為高密度運算打造的小房間,就是採用煙囪式機櫃,或像Google或Facebook也有採用煙囪式或機櫃熱風管的設計,直接將熱風帶走的熱通道封閉作法。

不過,這種專用的煙囪式機櫃售價昂貴,甚至是一般機櫃的3倍,建置成本較高。臺灣建機房大多是採用冷通道封閉的冷卻設計,只有少數企業,如力登電腦、臺泥等,開始在機房中使用煙囪式機櫃。

外氣冷卻和提高伺服器耐熱度是2大新興冷卻趨勢
冷熱通道隔離是一種機房氣流管理的作法,冷空氣來源可以是各種空調系統,但是這些空調系統還是會耗電,要更進一步節制空調耗電,近來新興作法是自然進氣冷卻法(Free Cooling),或稱為外氣冷卻法。使用外部空氣來冷卻機房設備。

不少跨國網路服務公司,如Google、Facebook、微軟等選擇在高緯度地區建置大型資料中心的目的,就是為了採用自然進氣冷卻法,導入外部自然環境中的低溫冷空氣,做為機房冷卻之用。

例如Facebook投資了1.8億美元,在美國奧瑞岡州的Prineville市打造了一座4千多坪的超省電資料中心,正是一座完全使用外氣冷卻系統的資料中心,採用了無管式的蒸氣冷卻裝置,內部沒有安裝其他冷卻設備,另外還採用了可減少電力傳遞損耗的伺服器供電設計,以及作為電力備援的共用電池櫃。

根據Facebook自行測試的數據顯示,這座資料中心運轉時的PUE值可達到1.07,換句話說,當資料中心消耗了107瓦電力時,只有7瓦是用於非IT設備的電力,這個數值比美國業界平均值1.5還要低,也遠低於臺灣企業機房的平均PUE值2.5。

這種外氣冷卻的作法,除了需要低溫冷空氣以外,直接使用外部空氣,還要考量到濕度控制,避免濕度過高造成水滴,或是濕度過低產生的靜電效應。

Facebook機房在進氣過程中,就使用了蒸發式的冷卻裝置與加濕系統,以確保空氣溫度介於18~29.4度C,以及濕度低於65%。最後,冷卻空氣須通過除霧設備後才進入送風室,然後再透過風扇加壓,將空氣注入資料中心的冷卻通道中。

為了擴大外氣冷卻的可用區域,伺服器廠商也正在想辦法改善伺服器耐熱程度,例如Dell宣布,要改善產品耐熱設計,包括像PowerEdge R610、R710和T610,未來可以保證每年能有900小時在攝氏40度的環境中運轉,讓機房可以使用更高溫度的冷卻空氣。

Dell認為,這樣的設計即使在美國南部區域的機房,例如夏天高達攝氏26、27度的亞特蘭大也可以使用外氣冷卻來減少空調消耗。

對臺灣這樣位於低緯度亞熱帶地區的國家而言,IBM全球資訊科技服務事業部資訊系統架構規畫師鄧南品表示,外氣冷卻法需要的外界環境溫度最好約十餘度C,以臺灣平地來說,每年可用的時間很短,甚至只有冬天寒流來襲期間的1個月,除非企業將機房設置在高山才會有比較長的可用時間,但卻會增加維護人力的往返交通成本。

不過,臺灣現在也開始出現搭配使用外氣冷卻的應用案例,例如聯合信用卡中心正在打造一座500坪的新資料中心,預定2012年6月啟用。機房位於新北市土城的頂埔高科技園區內。

聯合信用卡中心資訊服務部資深協理王曉蕙表示,新機房除了採用冷熱通道設計外,也將採用外氣冷卻機制,當冬天氣溫較低時就可以引進外部空氣,搭配濕度處理和空氣過濾後,來冷卻機房設備,以節省部分空調用電。這座機房的出現,也代表著臺灣使用外氣冷卻的可行性,即使是冬天時期所帶來的省電效益,已經可以開始吸引企業願意嘗試,也為臺灣企業機房的冷卻設計多了一種可以選擇的方式。文⊙王宏仁

3種冷熱通道案例比較
 

冷熱通道隔離 

冷通道封閉

煙囪式熱通道封閉
導入者
勤益科技大學
 國網中心御風者超級電腦
力登電腦
機櫃數
3排機櫃
6排機櫃
單排機櫃
建置特性
利用機櫃位置來隔離冷熱通道。
利用機櫃位置來隔離冷熱通道。搭配PVC塑膠垂簾與壓克力板封閉冷通道空間。
直接採用煙囪式機櫃,讓單一機櫃都有各自獨立的熱通道。
空調系統
下吹式空調系統
下吹式空調系統與水平式空調系統
下吹式空調系統
機房面積
不到25坪
約29坪
約9坪
建置成本來源
施工成本較低,只要調整機櫃擺設位置,以及建置出風與迴風口即可。
封閉通道的施工成本,以及冷熱通道的建置成本。
煙囪式機櫃是一般機櫃售價的3倍,另外需要對天花板施工來配合各機櫃的煙囪。
優點
施工簡單、成本低廉,能大幅度避免冷熱空氣混風,快速改善機房冷卻。
除了冷熱通道隔離的優點外,只需要冷卻冷通道,而不用冷卻整間機房,可以節省空調耗電。
小機房也可以建立熱通道,還能逐櫃擴充。整間機房形成冷通道,維護人員舒適,也能用來冷卻其他網路設備。

冷熱通道隔離搭配外氣交換控制,挑戰超省電機房


勤益科技大學從2006年開始建置校園數位學習環境,為了建置許多新的學習平臺,越來越多的IT設備進駐,老舊機房逐漸不勝負荷。趁著建置新圖資大樓時,勤益也投入3千萬元打造了一座全新的綠色機房,建置之初,勤益科技大學電算中心主任楊勝智就以打造PUE值小於2為目標來設計。

經過1年多規畫與建置,勤益在2009年8月完成這座新機房,整座機房約20多坪,位於大樓內部。為了節能,楊勝智盡可能採用了多種專業機房設計,包括像是高架地板設計,並在天花板、地面與4周牆面內均包裹了銅箔來隔絕對外或對內的電磁波干擾,也安裝了自動消防系統與遠端監控系統。

勤益原本的機房老舊,設備耗電很高,PUE值達到3、4,為了達成PUE值小於2的目標,在機房冷卻設計上,楊勝智採用冷熱氣流分離的空調設計。

新機房中有3排機櫃,透過整排機櫃的擺設來區分冷通道和熱通道,從機房旁的監控室看過去,由左而右,形成冷─熱─冷─熱的冷通道隔離設計。第一排機櫃伺服器進風的正面和牆壁相對,形成冷通道,第一排機櫃和第二排機櫃的背面相對,形成熱通道。接著第二排機櫃和第三排機櫃正面相對,形成冷通道,最後則是第三排機櫃背面,和牆壁形成熱通道。

勤益科技大學在20多坪的機房中,利用3排機櫃兩兩正面相對和牆壁,形成冷─熱─冷─熱的冷熱通道隔離,搭配下吹式空調系統,冷氣從冷通道高架地板蜂巢板中吹出,從熱通道上的抽風口排出。

空調設計上,勤益採用下吹式空調系統,冷空氣由高架地板蜂巢板向上吹進入兩排機櫃間的冷通道,再從前方進入機櫃,通過伺服器後產生的熱空氣則從機櫃後方排出。在熱通道上方天花板上則安裝了2~3部抽風口,將熱風排放到天花板中的通風管路中,送至屋頂冷卻水塔降溫。

降低外氣交換率是勤益機房省電的另一個關鍵,楊勝智表示,為了確保室內氧氣濃度,大樓需要和外氣交換,但外部空氣溫度較高,需要使用壓縮機冷卻降溫後才能使用,換言之,外氣交換率越高,壓縮機要消耗越多電力來降溫。

所以,勤益建置了獨立的冷卻水塔與通道,而不是和大樓共用。楊勝智解釋,好處是機房可以擁有獨立的排氣系統,就能自行控制來減少外氣交換。

另外勤益還導入IP KVM遠端監控機制,在控制室就能掌握機房內的各種資訊,例如像溫度、濕度、攝影機、電力、甚至是空調系統下方地板的排水狀況、氧氣濃度等資訊。人員不用進入機房就可以減少進出的冷氣消耗,機房也不需要維持一定的氧氣濃度,現在,勤益機房的外氣交換率幾乎是0。

新機房也導入了結構化布線系統,將網路線與電力線轉移到機櫃上方,以避免管線阻擾高架地板下的冷空氣氣流,而影響空調效率。

楊勝智表示,目前PUE值約1.7左右,但因導入虛擬化整併伺服器後,機房機櫃使用率只有6~7成,預估資訊設備滿載時可以達到1.4的成果。文⊙王宏仁

冷通道
熱通道
其他冷卻改善機制
遠端監控

封閉冷通道以承載800瓩超級電腦


國家高速網路與計算中心(國網中心)花了3年時間,耗資3億元,打造出超級電腦「御風者(Windrider)」,運算核心總數達到26,244個。這套由6百多臺伺服器組成的超級電腦,運算能力達到177TFlops,在2011年6月公布的全球500大超級電腦排行榜中位居第42名。

御風者設置在國網中心原有的臺中機房中,6百多臺伺服器以及高達1PB容量的儲存系統,安裝在6排機櫃中,占地約29坪,和國網中心臺中機房內的其他電腦系統共用同一個空間。

原本臺中機房內採用高架式地板設計,以及下吹式空調系統。御風者進駐以後,雖然御風者特別注重散熱設計,在全球500大綠能超級電腦排名中節能效率第25名,但是總用電量仍達到了800千瓦。

因此,國網中心也特別使用了不一樣的空調設計,採用雙迴路設計,包括下吹式空調以及水平式空調系統,以提供相互備援。另外也採用了冷通道封閉設計,來滿足超級電腦高密度機櫃的散熱需求。

為了建立冷通道封閉的效果,御風者6排機櫃,兩兩一組,進風的機櫃正面與正面相對,而出風的背面與背面相對。正面相對的走道是冷通道,機櫃走道兩端,使用半導體廠房常見的條狀PVC塑膠垂簾來形成冷通道,上方則使用壓克力板隔絕。

御風者共有6排機櫃,機櫃兩兩相對,機櫃正面和正面搭配塑膠垂簾形成封閉的冷通道,而機櫃背面和背面則形成熱通道。

冷通道中的冷空氣來源有二,一是從地上高架地板的蜂巢板進入冷通道,另一個則是從機櫃間的水平式空調系統(InRow)提供。

但是,兩列面對面的機櫃中所安裝水平式空調系統則會錯開風口,讓水平式空調系統的出風口對著伺服器而非另一列機櫃的空調系統出風口。InRow設備使用的冷媒管線則從機櫃上方進入天花板連結到冰水主機。

考量後續維護時,人員進出的便利,御風者使用的冷通道沒有完全密閉,但為了避免冷空氣從條狀垂簾間外洩,國網中心還在垂簾側邊加裝魔鬼沾強化封閉效果。不過,考慮到失火時要讓消防氣體進入,除了上方吊掛塑膠垂簾的機構使用遇熱斷落設計,魔鬼沾只使用在冷通道下半部的垂簾,而垂簾下方也加裝鐵片增加墜落拉力。

機櫃兩兩相對的背面則形成熱通道,熱通道沒有封閉,但地板上也沒有設置蜂巢板,而是在天花板設置風機,將熱空氣抽離。另外,在熱通道上方也設置了溫度監控設備和冷媒外洩監控設備。

國網中心副主任黃維誠表示,採用冷通道封閉的作法,不需要冷卻整間機房,有助於減少耗電。國網中心比較臺中機房在建置御風者之前和之後所使用的用電量,計算出御風者的PUE(Power Usage Effectiveness)值可以達到1.72,也因此而獲得全球超級電腦節能排名25名的佳績。文⊙王宏仁

冷通道封閉的外部設計
冷通道封閉的內部設計

小機房用煙囪式機櫃建立封閉熱通道


 
 力登電腦新機房的面積只有9坪,寬度約3公尺,只能擺下一座機櫃,所以,力登採用煙囪式機櫃來打造熱通道封閉的效果。
力登電腦今年7月剛完成了新機房建置,雖然只有9坪大的空間,但仍採用了熱通道封閉的方式,來設計機房冷卻架構,其中的關鍵設備就是,採用了煙囪式機櫃(Chimney type cabinet)來建立熱封閉的效果。

力登新機房的面積較小,而且形狀是狹長形,寬度只有3公尺左右,只夠擺放一排機櫃,不容易像傳統冷熱通道的作法,利用2排機櫃來隔離通道,甚至要施工建立冷通道封閉都相當困難,所以,力登改採用了導入了7座搭載了VED煙囪的CPI被動式冷卻機櫃(Passive Cooling),也就是煙囪式機櫃,來做為高密度機櫃。不過,低密度熱源設備例如網路設備、UPS則沒有使用煙囪式機櫃,而是在機房一角設置了一座開架式機櫃,直接利用機房冷通道來冷卻。

高架地板上也採用可調式蜂巢板,依據不同熱源需求而有不同的開孔率,熱量較高的機櫃前地板開孔率為50%,而低熱量機櫃則只使用25%,以避免過多開孔造成氣壓降低與冷空氣的浪費。

力登電腦應用系統程式設計師徐凡耘表示,這種設計除了煙囪外,還需要在伺服器後方預留足夠的迴風空間,所以,無法使用原有的機櫃,必須全面汰換成機櫃深度較長的專用煙囪式機櫃,而且價格比一般機櫃較高2~3倍,但是,優點是不需占用太多機房面積就能建置熱通道,而且可以逐櫃擴充。

徐凡耘表示,每一個煙囪式機櫃都是一個獨立的熱通道。下吹式空調的冷空氣,從高架地板蜂巢板吹出,從機櫃前方進入,通過伺服器後產生熱空氣。熱空氣先進入到煙囪式機櫃後方,再由機櫃上方的煙囪出口,排入天花板。每一個煙囪式機櫃都需要一個專屬的天花板迴風口和煙囪結合。

天花板的空間是熱通道,力登另外開設了一個出風口,連結到下吹式空調設備上方的進風口。當下吹式空調設備進氣時,自然會吸入天花板的熱空氣,形成冷、熱空氣的完整氣流循環,這個循環的拉力也會帶動更多熱空氣從煙囪式機櫃排入天花板。

最後,下吹式空調設備再將冷卻後空氣排到高架地板中。徐凡耘表示,熱空氣封閉在煙囪、天花板和空調系統的風口管線中,不會排放到整間機房中,整間機房也就形成了一個冷通道。

不過,因為每一個煙囪都需要專屬天花板迴風口,所以,徐凡耘表示,施工過程,必須進駐機櫃以後,才能進行天花板工程。另外還須仔細檢查整個熱通道的密閉效果,不論是機櫃門縫、網路線路進出口、伺服器機架間細縫、空調系統排風管和天花板的銜接處,都需特別注重密閉措施,例如加設擋片,或是用鋁箔密閉等,才能避免熱空氣外洩造成混風。

雖然以整間機房作為冷通道時,越大空間需要的空調消耗較大,但徐凡耘表示,因為熱空氣直接導入空調系統後,機房不需要太低的溫度也可以提供冷通道和開架式機櫃使用,所以,空調系統可以調高冷卻溫度來減少用電,大空間的消耗和提高溫度後的節省,兩相加總以後,仍舊可以有不錯的節電效果。文⊙王宏仁

煙囪式機櫃外觀
煙囪式機櫃內部
冷卻機制

氣象局導入水冷式冷卻背板解決高運算散熱挑戰


除了建立冷熱通道的作法以外,另一種直接設置在機櫃背面的冷卻背板,也能夠解決高密度機櫃的高顯熱挑戰,例如在2006年時,中央氣象局資訊中心導入168臺IBM PS 535-7超級電腦,共14座機櫃,每臺機櫃每立方公尺會製造30千瓦熱量,熱密度過高,原先的箱型冷氣從地板內送出的冷氣容易發散或遭受管線阻檔,無法帶走這些熱量。

所以氣象局全面改建水冷與氣冷並用的機房冷卻設施,機櫃採水冷式背板的設計,搭配其他水冷的基礎設施,來帶走機櫃6成熱量,同時搭配天花板上的冷氣送風機,向下吹送冷氣給個別機櫃,形成冷通道,帶走機櫃4成的熱量,透過更集中制冷的方式,解決熱密度過高的問題。

在氣象局的經驗中,1千瓦熱量需要每立方公尺120CFM的冷氣風量,才能冷卻這1千瓦熱量。但氣象局每臺超級電腦的機櫃每立方公尺產生30千瓦熱量,需要3,600CFM風量,一般空調機在沒有其他阻擋物的情況下,每立方公尺只提供約400CFM風量,制冷力還要提升9倍,才能帶走超級電腦的熱量,因此氣象局改採水冷作法。不過,交通部中央氣象局資訊中心課長林弘倉表示表示,水冷基礎設施的建置成本高昂,企業熱密度過高的運算環境要達到一定規模,建置水冷環境的效益較顯著。

氣象局共有2臺相互備援的180噸冰水主機,製造冰水來提供水冷與氣冷的運作。冰水主機會將水塔送來的溫水冷卻為攝氏8~10度的冰水,這些冰水會流經冰水管線送往冷卻分配器(Cooling Distribution Unit,CDU),該分配器當中同時包含用於冷卻機櫃的滲透純水與冰水機送來的一般冰水,藉冰水將純水冷卻到攝氏17~18度,流經特製的高壓軟管與快接頭,分別送達14座機櫃的水冷式背板。冷水流經蜂巢式背板的過程中,冷卻伺服器送出的熱風,進行熱交換後,水溫會上升為攝氏22度,再返回CDU,重新冷卻為17~18度,形成水冷卻的循環。

為了避免低於室溫的冷水流經水管會因冷凝而結成小水滴,冰水管線與高壓軟管外側都以保溫的塑膠材質包覆。在防止漏水方面,氣象局使用特製快接頭,避免在輸送冷水到背板時,發生漏水,在高架地板內還安裝了偵測漏水的線材,萬一發生漏水,會透過監控系統通知IT人員處理。

綜而言之,採用水冷的優點為制冷力高,可提升單位面積的冷卻效率,但缺點是整體建置費用高昂、受特定廠牌限制,同時不利於未來進行機房改建。氣象局建置整套水冷式環境的費用總共為700萬元,若包含水冷設施的布建,平均一臺機櫃施工造價50萬元,是一般機櫃的好幾倍,加上各家廠商的水冷作法還未標準化,企業必須選用特定廠牌的快接頭、高壓軟管與水冷式背板,無法混搭不同廠牌的水冷式機櫃,如果機櫃內要安裝其他廠牌的伺服器,還要特別請廠商客製水冷式機櫃,又會增加一筆成本。文⊙鄭逸寧

2011年8月23日 星期二

美的饗宴 - 2011年新竹市湖畔畫會會員聯展

美的饗宴~
2011年新竹市湖畔畫會會員聯展

    文建會附屬機關國立新竹生活美學館主辦的「美的饗宴~2011年新竹市湖畔畫會會員聯展」於8月20日至31日於本館美藝堂展出西畫作品約60餘幅,除展覽外並配合辦理藝術講座,邀請簡世哲老師主講「半抽象繪畫」,並訂於8月21日 上午10時舉行開幕茶會及導覽解說,歡迎大家蒞臨參與。

新竹市湖畔畫會成立於1998年,並且於2003年在新竹市立案,會員來自社會各界,具有熱情活力、溫文儒雅、恬淡沉潛與篤實精進的特質。每年皆辦理會員聯展、出版畫冊,多年來常態性地在每月辦理一場藝術講座,提供藝術交流平台,邀請國內知名職業畫家或藝術家舉辦藝文講座,開放所有的民眾免費參加,除了由畫家們教導民眾各種美的概念與技巧,也讓民眾能夠藉此機會請職業畫家講評自己的作品。無論各行各業,只要有興趣賞畫或繪畫的民眾,都能夠在此得到學習的機會,配合會員聯展8月藝術講座訂於8月20日(週六)上午9:30於二樓視聽室舉行,邀請 簡世哲 老師主講「半抽象繪畫」, 簡 老師畢業於國立台灣師範大學美術系研究所,獲2011年全國公教美展油畫類第一名,並舉辦個展無數,活躍於國內美術界。

湖畔畫會成立十餘載,在歷任理事長的帶領下,會員們默默地辛勤耕耘這塊園地。湖畔畫會名家甚多,如陳新倫、簡世哲、張培鈞、江隆芳、吳振壎、楊銀釵、梁瑞娥、彭水龍、簡麗琼等藝術家,經常舉辦個展。此次會員聯展內容有油畫、水彩、粉彩、多媒材等,如楊理事長半具象的「佳餚」,梁瑞娥「南法旅遊」「地攤市集寫生」,彭水龍1989年造訪解體前蘇聯克里姆林宮及東正教堂的超越時空表現構圖,簡麗琼捷克布拉格查里斯橋景色的描繪,馮照明「海與破船」對照的描述,林淑卿的「靜物」,黃榮華「那年夏天」的感情,王琇璋「潮起潮落的寄思」等均屬佳作,歡迎蒞臨賞。

承辦單位:推廣輔導組
標  題:美的饗宴~2011年新竹市湖畔畫會會員聯展
展出日期:100年8月20至8月31日
展出地點:本館美藝堂
藝術講座:8月20日(週六)上午 9:30
講  題:半抽象繪畫 講師:簡世哲老師
開  幕  式:8月21日(週日)上午10:00

信義房屋外洩5,000筆求職者資料 個資保留愈少愈好


又傳出內部員工作業疏失導致客戶個資外洩的事件,日前媒體報導,信義房屋因員工失誤,不慎外洩約5,000名求職者履歷資料,包括姓名、性別、出生年月日、聯絡電話等一覽無遺。

信義房屋進行徵才作業,日前針對未錄取的求職者發出E-mail通知,承辦人員卻不小心求職者履歷資料夾帶在E-mail裡寄出,範圍自2011年1月至今共5,000筆資料,總共寄出200多封,雖然事後已立即停止寄發,並緊急聯絡收到夾檔的求職者,請其刪掉相關檔案,但資料外洩事實已然造成。

目前尚未聽到主管機關對信義房屋作出懲處,但若依據新版個資法規範:每人每一事件新台幣500元以上2萬元以下來看,信義房屋可能的損害賠償金額為250萬至1億元,責任顯然不輕。而此次事件也突顯出信義房屋的兩個問題:第一、內部控管流程不夠嚴謹;第二、保留太多非必要的個資。

在E-mail寄出前若有自動檢查機制,禁止寄送含有個資的郵件,或限制個資寄送的筆數不能超過一定數量(畢竟5,000筆個資不是一個小數目),或許能避免這樣的疏失,至於第二點也是許多企業該去省思的問題,手上所擁有的個人資料真有保留必要性嗎?在5,000筆求職者資料當中一定有許多為「未錄取者」,這些沒有錄取的履歷資料為何需要保留?解決第一個問題,或許需要投入成本採購資安工具,但第二個問題卻沒有預算限制,企業只要肯花時間與人力就可以。

對企業來說,每多保留一筆個人資料,就是多一分外洩風險,在新版個資法還未正式上路之前,企業應該全盤檢視內部所擁有的個人資料,並評估保留的必要性,對於用不到、法令沒有規範必須保留的個人資料,就要儘速刪除,因應個資法方式很多,與其花大錢採購資安設備,不如先從不用成本、縮小保護範圍開始做起。(作者:廖珮君 -08/22/2011)

引用自《資安人科技網》

2011年8月21日 星期日

「2011台北3C大展」9/9-12世貿三館,首次學生免費參觀!



秋季最大電腦展 首次學生免費參觀
2011台北3C大展 9/9-12世貿三館 電腦‧電信‧家電‧影音
開學搶購祭、3C品牌降價日、家電福利品清倉、10大展場正妹
開門搶3C福袋-電視滑鼠鍵盤免費帶回家
筆電相機1元購、整點再抽平板電腦
快去下載免費參觀券 輕鬆玩樂享好康!現場〝打卡〞折門票

    秋季最大電腦展─「台北3C大展」9月9日~12日世貿三館,一連四天中秋黃金假期盛大展開!全球品牌 一次買到好─ACER、ASUS、SONY、TOSHIBA、MIS、JVC、PANASONIC、FUJIFILM、SAMSUNG、PENTAX、SANYO、CANON、OLYMPUS、CASIO、EPSON、HP、BENQ、CHIMEI、VIZIO、ESONIC、PIONEER、Viewsonic,電腦、平板、手機、家電、電視音響,品牌大集合、瘋狂下殺、價格最划算!

    本展四大展區:電腦/週邊耗材區─國外品牌PK台灣品牌,筆電、平板、桌電、營幕、MP4、隨身碟、印表機、喇叭、滑鼠、多功能事務機…等。數位相機區─單眼 消費機全面供貨,消費機種、專業機種、單眼配備、記憶卡讀卡機、數位輸出…等。通訊電信區─服務升級大回饋,電信服務、智慧型手機、無線通訊、3G、GPS、GPRS…等。家電影音區─中秋購機特賣會,冰箱、洗衣機、冷氣、小家電、液晶電視、音響、家庭劇院、卡拉OK…等。

    台北世貿三館3C大展特祭出消費大回饋!【打卡折門票】:出示打卡畫面現場即可購買優惠門票120元!【開門搶3C福袋】: 購票即可搶電視、Wii、滑鼠鍵盤、MP4、喇叭耳機百個福袋!【中秋整點抽 筆電相機1元購】:9/10-12早上11點抽出1元筆電、相機(限購票前300名)!【消費加碼送】:展場消費滿額送限量周邊好貨 購機最划算!【卡友刷卡獨家贈】:展場獨家刷卡好禮 卡友A好康 買越多賺越多!【10大展場正妹】:展場最正妹 10大Show Girls陪你輕鬆玩樂享3C!

   本展首度開放『學生免費參觀』─25歲以下憑學生證免費入場;每日進場前一千名送清涼飲料、超夯零食等好康!還有憑券即可參加【平板‧電視天天抽】─每日17:00抽電視、平板、電腦螢幕、相機、印表機、水冷扇!一般民眾可火速上網下載免費參觀券,數量有限,搶票要快喔!本展全票150元,8/20起至『7-11、全家便利商店、博客來』可購買預購票100元,現省50元!

展覽時間:100年9月9日至12日(上午十點至下午六點)
主辦單位:瑞日鏵國際企業有限公司
展覽地點:台北世貿三館(台北市松壽路六號)
發佈單位:中華民國職工福利發展協會

HP戰略大調整 退出硬體界 致力發展軟體


惠普發展戰略將做出重大調整,英國廣播公司報導,惠普已經確認,它將退出個人電腦、平板電腦、手機等硬體發展領域,重新著重於軟體開發業務。

惠普已宣佈,將以每股2.55英鎊的價格,斥資62億英鎊(約合2,965億台幣),收購一家英國軟體商(Autonomy)。這家公司是由劍橋大學研究人員創建,專長是模式識別技術。

惠普同時表示,正在考慮出售個人電腦系統部門,這個部門包括世界上最大的個人電腦生產業務。

惠普還宣佈停止WebOS操作系統的經營。而在今年三月,惠普的戰略評估報告中還說,WebOS將被融入未來所有的硬體設備中。

惠普新的戰略調整以及收購消息傳出之後,股票價值立刻攀升。

刪不死!超級cookies 網蹤全都露


華爾街日報十八日報導,新研究顯示,微軟公司旗下的MSN.com, 與線上串流影音網站Hulu.com等大型網站,最近開始運用一種威力強大的新技術,在使用者渾然不覺時,追蹤他們的線上活動。這種威力更勝傳統「cookies」、被稱為「supercookies」的新技術,不僅合法,還可在使用者定期刪除cookies之後,神不知鬼不覺地重新創造他們的瀏覽紀錄。

史丹福大學與加州大學柏克萊分校的研究人員指出,supercookies會存放在網路瀏覽器的「快取」或先前造訪過的網站內,與cookie存放的位置不一樣,就算是熟知如何刪除cookie的使用者,可能也難以找到supercookies的所在位置。

微軟:已立即停用

史丹福大學博士候選人梅爾也發現,使用者就算未直接造訪微軟旗下網站,supercookies也會自動存放到他們的電腦中,而由於微軟的廣告網絡裡就有supercookies,因此就算使用者定期刪除cookie,他們的網路瀏覽紀錄仍然可以被微軟取得。

所謂的「cookies」是一種小檔案,由網站植入使用者的電腦,以追蹤他們的網路活動。由於涉及隱私,長久下來引人詬病,因此網路與廣告商現在才會轉為使用supercookies;不過被點名的網站如微軟表示,這種追蹤並非刻意,而他們在接獲研究人員聯繫之後,也已立即停止相關作法。

形同竊取瀏覽歷史

高階追蹤技術supercookies獲大型網站青睞,凸顯了資訊追蹤公司調整技術的速度。去年媒體開始審視大型網站的追蹤工具時,這些更具侵略性的技術還未獲廣泛使用;但隨著消費者越來越懂得保護線上隱私,此類技術也越來越具立足之地。

梅爾表示,最近被時代華納併購的電影迷社群網站 Flixster.com,即使用了紐約數位行銷公司Epic這種形同「竊取瀏覽歷史」的追蹤服務。該網站不僅透過supercookies窺探使用者的瀏覽紀錄,還觀察他們是否曾造訪一千五百個以上的網站,包括有關生育問題、更年期等網站。

惠普不玩了 後PC時代來臨


全球個人電腦(PC)霸主擬出脫占營收3成的PC事業部門,意味宣布「不玩了」,拓墣產業研究所表示,這代表「後PC時代」正式來臨,蘋果(Apple)將成為新的霸主。

拓墣產研表示,PC時代後期已出現 4大徵兆,首先是低價化效應瀰漫整體PC產業。其次,從產業的最上游到最下游,每個環節的成本都壓縮到極致。

第3,Wintel不再能驅動PC成長。第4,PC每年出貨量不再以2位數字成長,而是變成常態的個位數字成長。

過去PC時代的水平分工模式,是建立在Wintel架構以及硬體規格決定一切的營運模式之上,所以PC品牌廠商可以在自己擅長的領域,尋求低成本的代工夥伴,建立與通路商的合作關係就能獲得相對的利益。

拓墣產研認為,在後PC時代,水平分工模式不再是勝利的保證,軟硬體整合成為產品滿意度的關鍵,應用程式商店與數位內容是差異化服務的重要因素,都不是水平分工能夠達成。

因此,品牌廠必須根據本身的特性建立一套新的價值鏈,除了製造與組裝之外,包括晶片設計、軟體平台、軟硬體整合以及最下游的服務都是自己建立,這將衝擊現有許多的品牌商,包括PC界的HP、戴爾(Dell)、宏碁(acer)、聯想(lenovo),或是手機界的諾基亞(Nokia)、摩托羅拉(Motorola)、行動研究公司(RIM)等,一旦無法在後PC的洪流中尋求適合的營運模式,被沖走的可能性大增。

拓墣產研認為,轉型不及的PC廠,現階段應趕緊緊抓軟體服務商機,包括應用程式商店(App Store)、社交媒體(Social Media)與雲端服務(Cloud Service)等驅動後PC時代最關鍵的3大應用趨勢;未來隨著「後PC裝置與平台」逐漸到達定位後,將讓原本PC時代以硬體規格定勝負的遊戲規則,逐步轉為這 3項服務與其他陣營之間的差異化大戰。

拓墣產研強調,「後PC」時代絕對不能以舊思維來思考企業戰略,必須要大刀闊斧的改變組織結構、創立軟體與創新服務部門為企業注入新活血,或以快速購併方式強化後PC時代下的營運缺點。(中央社記者田裕斌台北19日電)

2011年8月17日 星期三

由後端儲存統一管理的前端伺服器快取技術(2)--NetApp的Mercury計畫


NetApp在2011年2月的FAST'11技術講習會中,發布了該公司正在「Project Mercury」名義下,開發一種用於資料中心的伺服器端Flash記憶體快取技術。

「Project Mercury」的基本概念與EMC的「Project Lightning」有許多相似之處,例如它們都是ㄧ種將Flash記憶體安裝在前端伺服器、並由後端共享儲存設備管理的快取技術,不過相較之下,NetApp目前提供了更多實作的技術細節與原型測試結果說明。

按NetApp說法,「Project Mercury」可提供一種區塊導向、並與後端儲存設備維持一致性的Write-Through快取。目前測試中的原型系統是搭配虛擬化平臺運作,在部署上可構成:

● 在Hypervisor上的filter driver,提供從底層到guest OS間的透通。

● 在guest OS上的filter driver,提供從底層到應用程式間的透通。

● 針對應用程式的快取。

● 針對網路儲存協定的Proxy快取。

目前測試中的原型系統,是在虛擬平臺的QEMU堆疊層中,載入KVM/QEMU區塊(block)驅動程式(用於將儲存資源模擬為區塊儲存裝置),並搭配使用一種稱為hg的新型磁碟格式,為guest OS提供虛擬磁碟機。

所有發送給hg磁碟機的存取需求,都會由SSD快取負責處理,提供讀取快取功能。亦可關閉SSD快取功能,將存取需求直接導給原生磁碟裝置驅動程式。

NetApp提供的原型系統測試結果顯示,Mercury快取技術可減少將近40%的平均I/O服務時間,並能減少近50%的伺服器存取底層磁碟需求(幾乎所有的寫入要求都由Mercury滿足了)。

與伺服器直接連接的iSCSI磁碟區相比,透過Mercury快取可提升70%以上的隨機I/O速度,不過循序I/O只有微幅(5%左右)的改善。

NetApp Mercury計畫的部署架構
Mercury技術的測試原型是使用搭配Linux kernel虛擬機器的驅動程式,可利用後端儲存設備提供給虛擬平臺hypervisor主機的iSCSI磁碟區,向虛擬機器的guest OS提供一種hg格式的磁碟空間,並另外利用hypervisor主機內安裝的SSD磁碟空間,作為hg磁碟機的讀取快取記憶體,從而提高存取速度。

由後端儲存統一管理的前端伺服器快取技術(1)--EMC的Lightning計畫


在今年5月舉行的EMC World 2011大會中,EMC宣布了代稱「Project Lightning」的存取加速技術開發計畫,將發展一種基於伺服器端的PCIe介面Flash記憶體快取技術。整個計畫的重點有三:

(1) 安裝在伺服器端的Flash快取。

(2) FAST自動化功能。

(3) 分散式快取。

也就是在前端伺服器安裝Flash PCIe介面卡,將其作為後端儲存設備的快取與儲存裝置,並可與EMC的FAST VP自動分層軟體整合,從而在前端伺服器到後端儲存設備間建立高速傳輸通道,讓資料傳輸效率達到最佳化。

而且這種快取還具備了分散式快取一致性(Distributed Cache Coherency,DCC)技術,EMC雖未對此作出詳細說明,不過推測這個功能可讓安裝在多臺伺服器中的Flash快取,共同構成後端儲存設備的一個快取層,各伺服器Flash快取中資料可彼此共享,任一臺伺服器的讀取要求,可從本機或其他伺服器的Flash快取得到回應(命中)。

目前Lightning計畫仍有許多不明之處,如FAST軟體在這個架構中的部署方式為何?是否需在前端伺服器上安裝對應於FAST的軟體或驅動程式? Lightning計畫的Flash記憶體是只用作讀取快取、或同時用於讀取與寫入快取等等,這些細節需等到實際產品於今年稍晚正式問世後,才能得到解答。

EMC Lightning計畫概念
簡單的說,Project Lightning的概念就是利用前端伺服器上安裝的PCIe SSD介面卡,作為加速前端伺服器與後端儲存設備之間存取通道的快取,並可透過一致性分散式快取(DCC)技術,與其他伺服器內的PCIe SSD介面卡協同運作。

新概念:中央管理、分散部署的SSD I/O加速


新概念:中央管理、分散部署的SSD I/O加速
將SSD用於前端的伺服器,或後端的儲存設備上,都能達到加速I/O的效果,但由於在存取路徑中所處的位置不同,兩種應用方式具有不同的特性。

任何安裝在伺服器內部的內接式儲存裝置,都會受伺服器機箱與主機板設計的制約,在裝置安裝數量上有很大的限制,安裝在本機內的儲存裝置也難以共享使用,而且分散在多臺伺服器內的儲存裝置,亦較不易管理。

與內接式相比,安裝在外接儲存設備中可有更大的擴充彈性,外接儲存設備可安裝數量更多的儲存裝置,不僅可提供遠高於內接式儲存裝置的容量,還能透過RAID匯聚大量儲存裝置、提供更高的效能。此外,透過儲存區域網路的連接,一臺儲存設備即可同時為多臺前端主機提供服務,並在多臺主機間靈活的分派與轉移儲存資源,便於對儲存資源進行統一調配與管理。

不過從另一方面來看,內接式儲存設備也有距離處理器更近、延遲較少的優點,儲存裝置是直接透過主機板晶片組連接處理器。

而對外接儲存裝置來說,從儲存媒體到前端主機的處理器之間,便需經過磁碟陣列內部匯流排、磁碟陣列控制器、磁碟陣列端的儲存網路介面、儲存網路、伺服器端的儲存網路介面,以及伺服器主機板晶片組等多個環節——然而通過的環節越多,造成的延遲也越大。

舉例來說,儘管Flash記憶體本身是一種存取延遲時間僅數十到數百μs等級的高速儲存媒體(目前SLC Flash記憶體的隨機讀取延遲約在25μs左右,寫入延遲為250μs,刪除則需2ms),不過按固態儲存設備專業廠商德州記憶體系統(TMS)銷售工程總監Jamon Bowen說法,透過FC HBA介面卡連接的外接式Flash記憶體儲存設備,由於多了FC到PCIe的轉換,大約會給存取增加10μs的延遲,等於讓寫入與讀取延遲增加4~40%之譜。

不過FC-PCIe轉換還不是造成外接式Flash記憶體存取延遲的最主要原因,由於必須處理FC協定表頭軟體堆疊之故,透過FC SAN網路存取外接式Flash儲存設備,通常得花上1~2ms的延遲時間。這樣的延遲增加對於一般應用來說並不會造成太大困擾,但是對於I/O負載非常高的關鍵應用來說,就成了不得不面對的問題。

從減少延遲的需求來說,越靠近伺服器處理器越有利,最好安裝在伺服器內;但就擴充性、應用彈性與管理來說,利用儲存網路連接的外接式儲存設備具有明顯優勢。為兼顧這兩方面的需求,一些廠商推出了將位於前端伺服器內的SSD,以及後端儲存設備整合為一的存取加速解決方案。

前端伺服器與後端儲存共同協作的快取架構
目前EMC與NetApp兩大儲存廠商,正分別在Project Lightning與Project Mercury兩項計畫下,開發這種類型的存取加速技術,另外Dell在不久前舉行的Dell Storage Forum中,也討論了這類整合技術。

這種整合了伺服器端SSD與後端儲存設備的I/O加速解決方案,通常包括三個基本元件:

(1)安裝在前端伺服器內的PCIe——SSD介面卡;

(2)後端儲存設備;

(3)安裝在前端伺服器上、用於與後端儲存設備溝通的驅動程式軟體。

透過前端伺服器上的驅動程式,可在後端儲存設備與前端伺服器之間建立存取通道,並使用前端伺服器上安裝的SSD介面卡作為快取記憶體,從而達到加速的目的。

如此一來可有兩方面的效果,一方面,由於作為快取的SSD介面卡安裝在前端伺服器中,因此當快取命中時,前端伺服器可在最短延遲下就近從SSD中存取資料;另一方面,在驅動程式軟體運作下,安裝在多臺前端伺服器中的SSD介面卡,又可接受後端儲存設備的統一管理與調配。

換句話說,這種解決方案,就是分散部署在前端伺服器中,但由後端儲存設備統一管理的SSD快取方案。

在這樣的架構下,還可進一步衍生出分散式快取的概念——在後端伺服器統一協調下,前端伺服器可共享彼此的SSD卡中的快取資料——任一伺服器的SSD快取卡所快取的資料,不僅可供自己使用,還可提供給其他伺服器使用。

如B伺服器發出的存取要求,若B伺服器自身SSD卡快取未能命中,但若A伺服器的SSD快取中含有B伺服器所要的資料,則B伺服器便可透過網路從A伺服器的SSD快取中存取,而無需到後端儲存設備上存取。

所以不同伺服器內所安裝的SSD快取卡,便可構成一個具有一致性的分散式SSD快取層。當然這要求透過後端儲存設備,在前端各伺服器間維持一個共同的快取一致性索引,以便前端各伺服器能查詢包括其他伺服器在內的整個快取層快取資料。

對新概念的異議
並不是所有人都認同「由後端儲存設備統一管理安裝在伺服器端的SSD快取」這個概念,從效能上來看,這種將伺服器端SSD快取交由後端儲存設備管理的架構,並無法超過由前端伺服器自行管理的伺服器端SSD快取,某些情況下甚至還會更慢。

總而言之,爭議在於要把安裝在前端伺服器內的SSD快取卡,交由前端伺服器自行管理,還是交由後端儲存設備統一管理,兩種方式何者較為有利的問題?當然目前要對這個問題下定論或許仍言之過早。

網路端的儲存I/O加速設備

前文提到,I/O存取加速技術可部署在網路端,目前以加速傳輸速度為訴求的網路加速設備亦相當多,不過大多數產品都是針對廣域網路應用。至於專門針對本地端儲存網路應用、原生支援儲存傳輸協定、為儲存提供I/O加速的網路端設備,相對少了許多,其中較具代表性的產品有以下幾款:

Dataram XcelaSAN
XcelaSAN是專門針對光纖通道(FC)SAN環境加速的應用伺服器,可透過內含的ECC DRAM為SAN提供快取服務。目前銷售的XcelaSAN每臺內含128GB或256GB的DRAM,並提供8個4Gb FC埠。只要將其接上FC交換器,或直接連接上伺服器與儲存設備的FC埠,使用者便可透過管理介面,指定XcelaSAN為SAN環境中的那一個LUN進行快取,最多可支援1,024個LUN,並可選擇Write-Back模式快取、Write-Through模式快取、或無快取的透通模式。

為確保存取可靠性與安全性,XcelaSAN的部署採用2臺一組的HA架構,有熱備援、熱抽換的電源供應器,並能搭配UPS。

Alacritech ANX 1500
ANX 1500是針對NFS檔案傳輸加速的應用伺服器,在部署架構上位於NAS的前端,可利用內含的48GB DRAM與最大4TB的SSD,為NFS協定的資料傳輸提供Write-Through快取功能,可加速NFS讀取與metadata OPS作業,並減少存取回應時間。每臺ANX 1500可提供2個資料傳輸用的10GbE埠,另有管理用的GbE埠。

Avere FXT
Avere的FXT系列亦是針對NAS環境檔案傳輸加速的應用伺服器,能同時支援NFS與CIFS兩種協定。每臺FXT應用伺服器內含64GB或72GB的DRAM可用於提供讀取快取,另有1GB NVRAM用於加速寫入效能,部份型號還提供1.2TB或3.6TB的SAS硬碟空間,可支援大資料量存取作業。

為提高可靠性與吞吐量,FXT系列支援N+1的Scale-out叢集架構,可組成最大25個節點的叢集,另外還提供自動分層儲存、全域命名空間(Global Name Space,GNS)NAS虛擬化功能。每臺都可提供具備冗餘備援功能的10GbE埠與GbE埠。

針對儲存I/O加速的網路應用伺服器
廠商


產品名稱XcelaSAN Model 100ANX 1500FXT
產品外觀


支援環境SANNASNAS
支援傳輸協定光纖通道(FC)NFS v3NFS v3與CIFS
儲存傳輸埠4G FC×810GbE×210GbE×2+GbE×6(FXT2750/2550),10GbE×2+GbE×2
(FXT2300)
內含快取記憶體類型與容量128GB或256GB DRAM48GB DRAM+200GB
SSD×10或200GB SSD×20
64或72GB DRAM+1GB
N V R A M+512 GB SSD(FXT2750)或
1.2/3.6TB SAS硬碟
(FXT2550/2300)

改善線上交易資料庫的I/O效能--Oracle Exadata的I/O加速技術


線上交易處理(OLTP)資料庫是ㄧ種典型的高I/O負載應用,為承擔OLTP應用,Oracle在資料庫專用應用伺服器ExadataX2(早先稱為V2)中提供了SSD快取的功能,可讓整個系統的資料吞吐量大幅提高3∼5倍,隨機IOPS更可提高30倍。

與第一版的Exadata相同,Exadata X2也包含了資料庫伺服器與儲存伺服器兩項主要元件,在資料庫伺服器之間,以及資料庫伺服器與儲存伺服器之間均透過高速的InfiniBand匯流排連接。

一組42U全高的Exadata X2機櫃由8臺資料庫伺服器、14臺儲存伺服器,以及3臺InfiniBand交換器組成,另外還有半高與1/4高機櫃等規模較小的組態。

傳統資料庫的效能瓶頸在於從儲存設備到伺服器記憶體間的I/O,為了讓ExadataX2承擔OLTP應用,Oracle從3個方面三管齊下:

減少資料傳輸量:
利用新的SmatScan功能,當前端資料庫伺服器發出查詢要求時、由儲存伺服器預先篩選資料,減少所需傳輸的資料量,並將一部份運算負載移轉給儲存伺服器。

增加傳輸通道數量與頻寬:
InfiniBand規格從×4 DDR升級為×4QDR,頻寬拉高一倍(從20Gb/s提高到40Gb/s),另外機櫃中使用的Infi niBand交換機也從從24埠升級為36埠,雖然每個全高機櫃的交換器數量從4臺減為3臺,但傳輸埠數量與總頻寬都更高。

導入固態儲存裝置:
每臺儲存伺服器可安裝總容量384GB的Sun FlashFire PCIe Flash介面卡(每片96GB,共4片)。這些Flash記憶體可提供兩種功能,第一種是針對讀取的Smart FlashCache,所有資料都會先寫進一般硬碟中,系統會自動依存取情況將部份資料讀入Flash Cache加速存取。第二種是透過手動創建的Flash Disks,可將Flash記憶體空間模擬為磁碟機,並透過ASM(自動儲存管理)功能,掛載給資料庫使用,用戶可將存取非常頻繁的資料放到Flash Disk上加速存取。

Oracle Exadata的基本I/O架構

利用SSD加速伺服器I/O


利用SSD加速伺服器I/O
雖然NAND Flash記憶體的速度遠不如DRAM,但單位成本只及後者的1/4~1/10,因此可「以量取勝」,藉由比DRAM大上十倍、數十倍的容量,來協助傳統硬碟改善存取效能。

利用SSD的伺服器I/O加速技術同樣可分為三種類型:

伺服器端的SSD I/O加速:
也就是在伺服器內安裝SSD,構成介於DRAM與傳統硬碟之間的高速儲存層。通常可有兩種典型應用方式,一是當作高速儲存層,將高I/O負載的特定應用程式或資料存放到SSD上,藉以加速存取速度;也可透過某些作業系統或應用軟體提供的功能(如ZFS檔案系統的L2ARC功能),將SSD規畫為輔助DRAM的第二層快取記憶體,藉由單位容量成本較低的SSD,大幅擴充將系統快取記憶體的總量,從而有效提高快取命中率。

在實際應用中,伺服器內的SSD通常採用兩種硬體架構,一種是類似傳統硬碟的磁碟型式,透過SATA或SAS等儲存匯流排連接主機;另一種則是介面卡型式,將SSD介面卡安裝在PCIe匯流排插槽上,透過PCIe匯流排連接主機。

兩種應用形態相較下,採用PCIe介面卡型式的SSD,速度顯然高於硬碟型式的SSD,PCIe匯流排的頻寬高於SATA、SAS等儲存匯流排,而且與處理器之間的「距離」更短、延遲也較少——PCIe匯流排可直接透過北橋晶片連接處理器,甚至直接連接處理器(某些新處理器已整合了記憶體控制器與PCIe控制器,省略了北橋晶片的配置);相對的,採用SAS或SATA介面的SSD,則需依序經過磁碟控制器、南橋、北橋等環節,才能與處理器連接。

幾乎任何伺服器都可透過安裝PCIe介面卡型式或SATA、SAS介面型式的SSD,從而帶來I/O加速的效果。目前企業級SSD產品的選擇亦相當多。

網路端的SSD I/O加速:
在閘道器等網路設備中安裝大容量的SSD,為流經網路上的資料提供快取加速功能。

儲存設備端的SSD I/O加速:
即在外接儲存設備中使用SSD作為儲存媒體,在應用上也分為兩種型態,一是將SSD作為分層儲存中的高速存取層,可搭配自動分層儲存技術,自動將存取頻率高的資料搬移到SSD儲存層上,以便加速這些資料的存取速度;二是將SSD作為磁碟陣列控制器內含DRAM快取記憶體的輔助,構成第二層快取記憶體,藉以提高快取命中率,減少存取緩慢的機械式硬碟機率。

可搭配SSD作為高速存取層、整合在儲存設備中的自動分層儲存技術,目前已有許多選擇,其中較知名的有:Dell用於Compellent Storage Center儲存系統的Data Progression自動分層遷移技術、HDS用於搭配VSP系列儲存設備的HDT自動分層技術、EMC搭配VMAX與VNX系列儲存設備的FAST VP、HP 3PAR Inserv F系列與T系列儲存伺服器的Adaptive Optimization,以及IBM用在DS8700與Storwize V7000上的Easy Tier等等。

至於可提供以SSD作為輔助快取記憶體的儲存設備亦已不少,這類產品又有兩種類型,第一種是將SSD安裝在磁碟陣列控制器內,如搭配NetApp FAS與V系列控制器的Flash Cache模組,便是一種安裝在控制器內、內含Flash記憶體的PCIe介面卡。

第二種則是將SSD安裝在磁碟陣列控制器後端的磁碟櫃內,就和一般的硬碟一樣,磁碟陣列控制器再透過SAS或FC介面,連接磁碟櫃內的SSD,如EMC VNX系列整合儲存設備的FAST Cache,以及FalconStor NSS VS系列的HotZone與SafeCache,都是這種類型。

雖然兩種類型同樣都是把SSD當成快取記憶體使用,不過第一種架構中的SSD位於控制器之中,與控制器核心是直接透過PCIe介面連接,速度明顯快過第二種架購。

另外還有一些廠商推出配合特定應用平臺使用、整合度更高的儲存設備SSD I/O加速方案,如Oracle的Exadata資料庫專用伺服器中,安裝了Sun FlashFire PCIe Flash介面卡作為快取的儲存伺服器,便是典型的產品。

以快取為基礎的I/O存取加速技術


以快取為基礎的I/O存取加速技術
傳統上,伺服器的資料存取一般可分為兩層:

(1)伺服器內由DRAM構成的主記憶體,提供少量極關鍵資料盡可能快速的存取。

(2)透過儲存網路連接、集中於一處或分散在多處的傳統硬碟,提供大多數資料的存放。

顯然的,將資料整個搬移到伺服器內由DRAM構成的主記憶體上存放,將能得到最快速的I/O效能,但受DRAM成本所限,即使是高階伺服器的主記憶體配置量,大多也只有上百到數百GB等級,能處理的資料量有限,而且透過這種方式取得的單位效能成本也過高。

因此在實際應用中便只能退而求其次,混合使用主記憶體與傳統硬碟,透過快取機制將一部份存取頻繁的資料放進記憶體,減少對傳統硬碟的存取,至於實際能得到的存取加速效果,則需視快取記憶體容量與快取命中率而定。

當以NAND Flash記憶體為基礎的固態硬碟(SSD)技術普及後,提供了一種單位成本較DRAM低、存取速度又遠高於傳統硬碟的儲存媒體,可作為兩者間的中介,也讓伺服器I/O加速技術有了更豐富的面貌。

由使用的儲存裝置類型來看,目前的I/O存取加速技術使用的儲存媒體主要有DRAM與NAND Flash記憶體兩種;而從部署方式來看,則可分為三種典型類型:

● 伺服器端:利用安裝在伺服器內的DRAM或SSD模組來加速存取,這種類型由於資料存放位置離運算核心最近,有助於降低存取延遲。缺點則是除非整合特別的機制,否則安裝在伺服器內的資源無法與其他伺服器共享。

● 網路端:在前端伺服器與後端儲存設備之間儲存通道中,置入內含大量DRAM或SSD的應用伺服器,利用這種應用伺服器中的DRAM或SSD作為快取,提高整個儲存網路的速度。透過儲存網路,一套這種應用伺服器即可服務多臺前端伺服器與後端儲存設備,管理上亦較為方便。

● 儲存端:利用安裝在磁碟陣列控制器內的DRAM或SSD模組來加速存取。透過儲存網路,一臺儲存設備內的DRAM或SSD即可為多臺前端伺服器提供服務,資源可共享與靈活的調配,亦便於統一管理。缺點是儲存設備內的DRAM或SSD模組,與前端伺服器的運算核心相距較遠,存取時需經過的環節較多,延遲問題相對較為嚴重。

三種典型的I/O加速技術部署方式
I/O加速技術的基礎,是以DRAM或NAND Flash記憶體等高速儲存媒體,來作為資料存取的快取或高速儲存層,依部署方式不同,可分為伺服器端、網路端與儲存設備端等三種類型,各有不同的特性與優缺點。


利用伺服器主記憶體加速I/O
基於「將關鍵資料移到更接近運算資源的儲存裝置,加速資料存取」的原則,利用伺服器DRAM主記憶體來加速I/O是由來已久的作法,如將部份DRAM作為快取記憶體便是一種典型的應用。

當DRAM價格逐漸降低、伺服器DRAM配置量不斷增大後,又出現了RAM Disk的作法,可將部份的主記憶體空間模擬為磁碟空間,以便直接將應用程式與資料搬移到記憶體中加速存取。

不過若要讓這種存取加速機制達到最佳化,必須從作業平臺與應用程式端加以整合,才能讓RAM Disk發揮最大效益。因此一些廠商提出了搭配特定應用程式的「In-Memory」存取技術,藉以因應高I/O負載需求的應用。

這類技術通常是配合大型資料庫使用,典型的產品如SAP的HANA In-Memory Appliance與Business Warehouse Accelerator等。藉由將資料搬移到主機的記憶體中,這類產品可得到相當驚人的I/O效能,資料庫查詢與分析速度數倍於傳統存取技術。

不過前述這類利用主記憶體的存取加速技術成本相對較高,僅能處理相對較小量的資料(一般大約是上百到數百GB等級),而且必須搭配特定的應用程式與環境運作,並非普遍通用於一般環境,只適合特定作業環境下、需要快速存取小量資料的應用。

利用網路加速設備提高存取速度
考慮到企業儲存環境早已進入網路化,因此比起部署在前端伺服器或後端儲存設備上的I/O加速技術,將加速技術部署在儲存網路中,顯然是一種更為便利、有效的作法。

已有一些廠商推出了專門針對加速SAN或NAS環境存取的網路設備,如針對SAN區塊存取環境有Dataram的XcelaSAN應用伺服器,針對NAS檔案存取環境則有Alacritech的ANX 1500應用伺服器、Avere的FXT應用伺服器等。

這類儲存網路加速應用伺服器,可看作是一種內含大量高速儲存媒體的閘道器,如Dataram XcelaSAN Model 100內含256GB的DRAM,Alacritech的ANX 1500含有48GB的DRAM與2~4TB的SSD,Avere的FXT系列則包含64GB或72GB的DRAM、1GB的NVRAM,以及512GB Flash記憶體或1.2TB/3.6TB的SAS硬碟。

將這些設備接上儲存網路,將其設定在前端伺服器與後端儲存設備間的存取通道上,便可利用這些設備內的大量高速儲存媒體作為快取記憶體,為網路上流通的資料提供快取功能,保存那些較活躍的資料,從而加速前、後端的存取。為確保這些中間節點設備故障時不會影響到前後端的資料存取,高可用性叢集架構是這類解決方案的基本配備。

相較於更換內含大量快取記憶體、可因應更高I/O負載應用的高階儲存設備,透過在儲存網路中插入前述這類專用於提供快取加速功能的應用伺服器,亦能有效改善既有儲存環境的效能,以較低的成本達到支撐更高I/O負載應用的目的。

SSD搭起儲存設備與伺服器之間的橋梁


長久以來,伺服器I/O技術的進展一直跟不上處理器的進步速度,然而伺服器虛擬化等新型應用的普及,以及資料量的增長,卻又不斷給伺服器I/O帶來更大的壓力。

伺服器I/O效能的問題大致可分為兩個不同的面向,各自面對迥然有別的存取應用型態:

存取延遲
對應的是高IOPS需求的高交易型態存取應用,如即時的金融交易或大型訂位/訂票系統等,每個I/O的資料量都不大,但每秒可能就得處理多達數萬甚至數十萬個I/O,因此需要盡可能低的存取延遲時間,也就是盡可能高的每秒I/O處理效能。

頻寬需求
對應的是影音多媒體資料處理,或是類似Google MapReduce、Hadoop之類針對大資料量的平行架構處理應用。這類型應用並不需要很高的存取回應速度,但需要應付非常大的資料吞吐量,主要的I/O負載落在資料傳輸頻寬上。

針對不同面向的需求,採取的解決方式也有異。要減少存取延遲、加速存取時間,可採用高速儲存媒體,或減少資料存取所經過的處理環節;而要解決頻寬需求問題,則可採用更高頻寬的傳輸匯流排、增加傳輸通道數量,或透過分散平行處理架構,將資料流量分散到多條通道上。

降低存取延遲的基本原則
儲存媒體本身的存取速度,以及從處理器到儲存媒體之間的存取通道,是影響存取反應速度的兩個主要因素。顯然的,儲存媒體本身的速度越快,回應前端應用程式存取要求的反應時間便越快,延遲越少;同樣的,若處理器與儲存媒體間的傳輸通道速度越快、傳輸通道經過的環節越少,則整體的存取反應時間也越快,延遲越少。

一般來說,與處理器越接近、與處理器之間傳輸環節越少的儲存裝置,存取速度越快、傳輸通道頻寬越大,如作為處理器內部快取的SRAM,便比位於處理器外部的DRAM更快,而透過記憶體匯流排直接連接處理器、或透過北橋晶片連接處理器的DRAM,又比必須依序透過儲存匯流排、南橋晶片、PCIe匯流排等環節,再連接中央處理器的硬碟等儲存裝置更快。

所以要減少存取延遲,基本原則便是盡可能的讓資料更接近運算核心,盡量將資料放到較接近處理器的高速儲存媒體中。

但從另一方面來看,越快的儲存媒體單位成本越高,也限制了可用的配置容量,不可能把所有應用程序需要存取的資料,都放到靠近處理器的DRAM等高速儲存裝置上,因此如何將資料分派到不同層級儲存裝置上存取,便成了另一個關鍵。

從處理器到儲存設備間的傳輸延遲
決定存取效能的主要因素包括儲存媒體本身的速度,以及儲存媒體與處理器之間的傳輸通道。ㄧ般來說,越接近處理器的儲存媒體存取速度越快、頻寬越大;儲存媒體與處理器間的距離越近,經過的處理環節越少,延遲則更小,每多一個環節,就需要多一次處理與轉換,連帶也會增加少則數十ns、長則數十μs、甚至數ms的延遲 (視不同匯流排傳輸協定的型態與各控制晶片的效能而定)。所以若要降低存取延遲,基本原則便是將資料盡可能放到更接近處理器的儲存媒體中存取。

伺服器I/O加速新思維

存取延遲與傳輸頻寬不足,是伺服器的兩大I/O瓶頸所在,為因應高交易資料庫、虛擬化等應用造成伺服器I/O不斷增加的負載壓力,一些IT廠商陸續提出各式各樣基於DRAM或SSD的存取加速技術,試圖解決高負載環境下的伺服器I/O瓶頸問題。

撰文⊙張明德 攝影⊙楊易達


SSD搭起儲存設備與伺服器之間的橋梁
藉由安裝在伺服器、網路設備或儲存設備內的DRAM或Flash記憶體作為快取或儲存層,可讓關鍵資料盡可能留在高速媒體中,藉以減少I/O延遲,因應高交易型態的存取負載需求

以快取為基礎的I/O存取加速技術
在實際應用中,混合使用主記憶體與傳統硬碟,透過快取機制將一部份存取頻繁的資料放進記憶體,減少對傳統硬碟的存取,而實際能得到的存取加速效果,則需視快取記憶體容量與快取命中率而定。

利用SSD加速伺服器I/O
雖然NAND Flash記憶體的速度遠不如DRAM,但單位成本只及後者的1/4~1/10,因此可「以量取勝」,藉由比DRAM大上十倍、數十倍的容量,來協助傳統硬碟改善存取效能。

改善線上交易資料庫的I/O效能--Oracle Exadata的I/O加速技術
線上交易處理(OLTP)資料庫是ㄧ種典型的高I/O負載應用,為承擔OLTP應用,Oracle在資料庫專用應用伺服器ExadataX2(早先稱為V2)中提供了SSD快取的功能。

網路端的儲存I/O加速設備
I/O存取加速技術可部署在網路端,目前以加速傳輸速度為訴求的網路加速設備亦相當多,不過大多數產品都是針對廣域網路應用。至於專門針對本地端儲存網路應用、原生支援儲存傳輸協定、為儲存提供I/O加速的網路端設備,相對少了許多

新概念:中央管理、分散部署的SSD I/O加速
將SSD用於前端的伺服器,或後端的儲存設備上,都能達到加速I/O的效果,但由於在存取路徑中所處的位置不同,兩種應用方式具有不同的特性。

由後端儲存統一管理的前端伺服器快取技術(1)--EMC的Lightning計畫
在今年5月舉行的EMC World 2011大會中,EMC宣布了代稱「Project Lightning」的存取加速技術開發計畫,將發展一種基於伺服器端的PCIe介面Flash記憶體快取技術。

由後端儲存統一管理的前端伺服器快取技術(2)--NetApp的Mercury計畫
NetApp在2011年2月的FAST'11技術講習會中,發布了該公司正在「Project Mercury」名義下,開發一種用於資料中心的伺服器端Flash記憶體快取技術。

引用自iThome

伺服器快取新技術

SSD硬碟是以NAND Flash快閃記憶體為儲存媒體,徹底擺脫傳統硬碟機械構造的限制,其效能雖然還不及DRAM記憶體,但SSD的價格只有DRAM的四分之一,因此SSD硬碟開始取代傳統硬碟,讓硬碟不再成為效能瓶頸的眾矢之的。 

過去討論到系統的效能瓶頸時,硬碟總是成為眾矢之的。因為處理器隨著核心數持續增加,效能不斷提升,網路也從1Gb跳到10Gb,在頻寬上有了大幅度的提升,唯獨傳統硬碟仍受制於機械式構造,在馬達的轉速難以再提升,以及資料讀寫得透過讀寫臂移動的限制下,I/O速度的提升有限,導致硬碟長久以來成為系統效能的瓶頸。

然而,就在SSD硬碟問世之後,這個局勢峰迴路轉。SSD硬碟是以NAND Flash快閃記憶體為儲存媒體,徹底擺脫傳統硬碟機械構造的限制,其效能雖然還不及DRAM記憶體,但SSD的價格只有DRAM的四分之一,因此SSD硬碟開始取代傳統硬碟,讓硬碟不再成為效能瓶頸的眾矢之的。

有趣的是,當硬碟的I/O處理速度變快之後,反倒是其他設備也必須提升規格才行,例如網路若還是1GbE的規格,那麼網路的I/O處理速度可能就不及硬碟,反而會成為效能的瓶頸,因而必須以10GbE搭配,才可以一起發揮提升系統效能的功用。

在硬碟變快了之後,不僅是傳統上系統I/O瓶頸的問題被解決了,廠商更利用SSD硬碟的特性,以其做為快取裝置,建構一個分層的儲存體系,提升整個系統的運作效能。

在前幾期的封面故事,我們已經探討儲存設備如何結合SSD硬碟快取,當時,我們知道有些儲存廠商有打算將SSD快取設備推展至伺服器端,不過因為當時廠商公布的訊息不夠多,所以我們的封面故事主要就是探討儲存設備如何運用SSD硬碟,然而就在我們截稿的時候,儲存廠商陸續對外透露較多關於伺服器結合SSD快取的訊息,這些有助於提升伺服器I/O的技術,未來將會影響IT架構的發展,因此我們特別就在本期的封面故事探討這個議題:「伺服器I/O加速新思維」。

伺服器搭配SSD硬碟不足為奇,現在你隨便都可以買到PCIe介面的SSD硬碟卡,把它插上伺服器就是一個高速硬碟了。然而EMC、NetApp等廠商正在研發的技術可不只如此,他們的伺服器I/O加速技術,可說是把分層儲存架構更進一步推至伺服器端,把儲存設備的快取放到伺服器裏,並且使其成為儲存設備可管理的一部分,如此讓儲存設備的快取能更接近處理器運算核心,以獲得整體效能的提升。

以EMC的Lightning研發計畫來說,他們打算在前端伺服器安裝PCIe快取硬碟卡與特定軟體,透過EMC FAST VP自動分層軟體的控制,這張快取硬碟卡可與後端的EMC儲存設備直接高速傳輸。此外,他們還將導入一項分散式快取技術,目前這項技術的細節不明,不過推測其功能是,每臺伺服器裏的PCIe快取硬碟卡的資料可以分享,例如某一臺伺服器的快取硬碟卡裏有另一臺伺服器需要的快取資料,則可透過管理軟體控制,在伺服器之間直接傳輸,而不需要再回到後端儲存設備裏取得。

NetApp則公布了部分Mercury Project的研發成果,他們是利用在伺服器端安裝快取硬碟卡,或是以伺服器本身硬碟的儲存空間,建立一個可由後端儲存設備控制的區塊級快取。根據NetApp初步的測試數據,這項技術可讓I/O平均服務時間減少40%,伺服器存取底層磁碟的需求則減少了50%,而隨機存取的速度則可提升70%以上。

當企業開始運用虛擬化之後,運算密度會大幅提升,系統I/O的負擔就會越來越重,而SSD硬碟則成為解決這個問題的一個新方法。當上述這些新技術發展成熟之後,未來企業資料中心的架構亦會因此改變。

吳其勳/iThome電腦報周刊總編輯

NSS Labs:社交工程惡意軟體防禦力IE9居瀏覽器之冠

NSS Labs指出,IE9 SmartScreen Filter中的URL評等與應用程式評等機制發揮了極大的功效,有效攔截99.2%的社交工程惡意軟體。瀏覽器平均會在惡意程式出現9.97小時便將其加入黑名單,但IE9只花了0.56個小時。 

資訊安全測試機構NSS Labs周一(8/15)發表瀏覽器對社交工程惡意程式的防禦力報告,顯示IE9攔截社交工程惡意軟體的能力高達99.2%,遠遠超越Chrome 12的13.2%、Firefox 4與Safari 5的7.6%,以及Opera 11的6.1%。

根據歐盟統計局Eurostat去年的調查,即使大部份的歐洲用戶都安裝了安全軟體,但平均仍有接近1/3的用戶受到惡意程式的感染。當地受病毒感染比例最高的國家為保加利亞(58%)、斯洛伐克(47%)、匈牙利(46%)、義大利(45%)與愛沙尼亞(43%)。

亞太市場今年第一季的調查則顯示,該地區各國的病毒感染率最高,例如中國用戶的感染率接近70%,泰國與日本亦分別為65%與59%。

NSS Labs針對歐盟、亞太地區、北美或拉丁美洲等地的惡意程式進行瀏覽器攔截能力測試,上述數據為全球平均結果。發現IE9 SmartScreen Filter中的URL評等與應用程式評等(Application Reputation)機制發揮了極大的功效,有效攔截了99.2%的社交工程惡意軟體。

微軟於IE8開始新的SmartScreen Filter安全機制,初期僅過濾惡意URL,於IE9中再新增應用程式的過濾功能。NSS Labs測試發現,URL評等機制傑出地防堵99.2%的即時威脅,而應用程式評等機制則再防堵3.2%的即時威脅,使得IE9攔截即時社交程式惡意軟體的效率高達99.2%。

瀏覽器業者是透過雲端的黑名單機制來過濾惡意程式,調查亦發現IE在新增黑名單的速度也快於其他瀏覽器,瀏覽器平均會在惡意程式出現9.97小時便將其加入黑名單,但具有應用程式評等的IE9只花了0.56個小時。

與NSS Labs去年第三季所進行的測試相較,IE、Chrome與Opera的表現都有進步,但Firefox與Safari的保護能力則呈現下滑。(編譯/陳曉莉)

引用自iThome

2011年8月16日 星期二

Fortinet 7月威脅報告發現新型Android殭屍網路病毒


UTM解決方案與網路安全供應商Fortinet,其最新公布的2011年7月網路威脅概況月報顯示,新型的Zitmo(Zeus in the mobile)木馬程式已能感染Android作業系統,而不僅止於Windows Mobile、Symbian和BlackBerry,目前此惡意軟體已能跨多個行動平台持續擴散。
最早能感染Symbian作業系統的Zitmo,發現於2010年9月,改寫來自俄國的商業付費軟體SMS Monitor Lite,適用於Symbian第3和第5版。自此Zitmo持續演化,現在則已有能力攔截銀行用以確認登入的帳戶使用者身分的雙因素認證(two-factor authentication)資訊。意即額外的一次性密碼,透過SMS簡訊發送至帳戶使用者的行動裝置。即使遭感染的行動使用者,並未使用雙因素認證方式來從事銀行相關的活動,Zitmo亦能轉發和監聽所有的SMS簡訊,成為一潛在的威脅。

FortiGuard Labs實驗室於2011年7月24日,發現W32/Exchanger木馬下載程式的活動大幅激增,它在1天之中便下載了10個不同系列的惡意軟體,並安裝至實驗室的測試系統中。像這類巨量而快速的感染結果,可能使系統變得極為不穩定,最後造成系統當機。

Fortinet資深安全策略專家Derek Manky表示,實驗室所見的這類感染,都是地下網路世界所知悉的下載程式,其相同的目的都是為了服務W32/Exchanger。這些下載程式構成具備簡易功能的殭屍網路,它們回報各種狀態,例如運轉時間、作業系統版本、地理位置等等,同時接收來自控制者的指令。這些統計資訊有助於網路罪犯管理遭受感染的電腦,並依安裝惡意軟體的電腦數量計價,向客戶索取費用,同時猶如服務品質指標般地提供報告給客戶。(2011/08/15-黃書瑋)

引用自DigiTime 企業IT商情

ISO 20000全球認證數臺灣排名第八


根據統計,全球現有638個通過ISO 20000驗證的企業,通過數量最多的是日本,有98間企業取得該認證,其次為中國(63個)和英國(57個),臺灣則有30間企業取得ISO 20000的認證,名列全球第八名。 
國家ISO 20000 認證數
日本98
中國63
英國57
印度52
南韓44
美國40
德國36
臺灣30
企業內的IT部門若要提供其他部門一致的、良好的IT服務管理水準,根據統計,全球現有638個通過ISO 20000驗證的企業,通過數量最多的是日本,有98間企業取得該認證,其次為中國(63個)和英國(57個),臺灣則有30間企業取得ISO 20000的認證,名列全球第八名。

臺灣BSI驗證部協理謝君豪表示,相較全球企業,臺灣對於取得ISO 20000的認證相對積極。文⊙黃彥棻

引用自iThome

2011年8月15日 星期一

Cyberoam+Enterasys網路資訊安全聯合防禦研討會

活動時間:
2011年9月2日 13:00~16:10

活動地點:
高雄漢神百貨 9樓 金鶴廳(801高雄市前金區成功一路266-1號)

聯絡人:
黃小姐 06-70213021

交通資訊:
請點我

流程表:
13:00~13:40 報到&入席
13:40~14:10 提升工作效率-管好公司員工的上網行為(奕瑞科技 黃茂勳)
14:20~14:50 防護個資重點-網路行為與身份驗證整合實戰演練(登豐數位科技 黃建笙 技術總監)
14:50~15:10 Tea Time
15:10~15:50 網路安全簡單做-Switch交換器就能搞定(廣成資訊 陳信良 產品經理)
15:50~16:10 Q&+抽獎

注意事項
1.本研討會完全免費
2.本研討會不提供免費停車。
3.已報名成功,但當日不克出席者,請來電(02)2657-8027#129取消報名。
4.奕瑞科技保留研討會內容變更的權利。
5.活動洽詢電話:(06)7021-3021 黃小姐

我要報名

引用自奕瑞科技教育訓練網

系統營運管理的教本「ITIL」(二)


系統營運管理的教本「ITIL」(二)

上一章介紹了IT服務支援(Service Support),主要是支援日常的系統營運作業。接下來介紹以長期的改善、提升服務品質增加投資效益為重點的IT服務執行(Service Delivery)。

IT服務執行(Service Delivery)


IT服務執行(Service Delivery),主要為IT服務長期的計畫和改善。支援的內容,包括服務水準管理(Service Level Management)、IT服務財務管理(Financial Management For IT Service)、性能管理(Capacity Management)、IT服務持續性管理(IT Service Continuity Management)、可用性管理(Availability Management)等5種。其內容的概要如下:
IT服務執行
(Service Delivery)
長期的計畫和改善:
如何讓提供高投資效益的IT服務。
服務水準管理
(Service Level Management)
保證對顧客的服務內容的管理流程。設定目標,持續實施改善
IT服務財務管理
(Financial Management For IT Service)
提供IT服務所需的成本,以及帶來的投資效益等的管理流程。
性能/容量管理
(Capacity Management)
針對顧客所要求的服務水準,系統於現在以及未來所需的系統資源的管理流程。
IT服務持續性管理
(IT Service Continuity Management)
IT服務因災害等原因發生中止時,對顧客的影響降低至最低的管理流程。具體上為分析風險,製做災害等復原計畫,備有替代案。
可用性管理
(Availability Management)
提供IT服務所需的系統和人力的可用性的管理流程。

IT服務水準管理的最終目標即是提升服務的「品質」,滿足業務的需求。因此,應該必須從業務角度,思考提供和管理IT服務的流程。具體的做法,經常監控並且報告服務的品質,確認是否達到和使用者事前達成的協議,一一將存在問題解決。一般會聯想制定服務水準協議書(SLA)和罰則,不過這並不是最善的方式,通常會造成摩擦以及推卸責任的情形發生。最好雙方處於合作的關係,彼此在互惠下進行,區分責任關係,共同承擔風險,共同提升品質和降低成本。這也是在ITIL中為什麼要加入IT服務財務管理的目的。

圖1:ITIL的IT服務執行關聯示意圖
提升系統的可用性,一般主機會考慮耐障礙性架構(Clustering),網路採用雙重備援架構等。但是這不一定符合成本效益。ITIL的可用性管理,從使用者的角度思考,必須在必要時能夠提供必要的服務。除了穩固的IT基盤(Infrastruture)之外,維護的程序、人才適當的配置等的持續改善,也是確保系統可用性的重要工作。
「性能/容量管理」和系統的可用性有相當的密切關係,一般管理網路的頻寬、主機的性能和容量等。管理的同時,須要隨時掌握現在的使用者數量和使用狀況,發現瓶頸並適當加以調整,經常維持系統性能/容量的最適化。
「性能/容量管理」和「可用性管理」的最終目的,就是持續不間斷的提供服務。萬一發生災害或某種因素造成服務間斷,也必須將對顧客的影響程度降低至最低。這部分的流程藉由「IT服務持續性管理」,進行管理。

ITIL的導入

ITIL相關書籍可以從英國OGC(Office of Government Commerce)機關的網站(http://www.itsmfi.org/content/chapter-bookshops)購入,但是似乎尚未有中文版。書籍的內容相當的多,對於營運管理不是相當熟悉的人很難自學,建議參加ITILF(Foundation Certificate in IT Service Management)的課程,並接受認證。費用不是很便宜,必須讓企業的經營者了解其重要性,投資會有甚麼樣的效果出來等。
實際進行時,可以從公司的現狀先做分析,可以利用英國OGC提供的Self Assessment Questionnaire來進行。雖然是英文,不用花費任何成本。分析結果之後,設定公司須改善目標,製作出公司獨自的FrameWork,並檢測目標的達成度。


引用自超IT綜合情報技術網

系統營運管理的教本「ITIL」(一)

系統營運管理的教本「ITIL」(一)

系統設計、開發、測試、導入之後,接下來的系統營運管理相當重要,影響整體系統的可用性以及持續性。過去系統導入之後的工作就是系統維護,系統使用人員發現系統有問題之後,才通知系統維護人員處理,這種通常被認為「營運管理=系統維護」。較具規模的企業,將整個系統集中於機房由專人去做管理,這種通常被認為「營運管理=機房管理」。實際「營運管理」應有的職責為何?「營運管理」應具備哪些技能?接下來介紹過「ITIL」之後,應該可以更清楚的了解。
早在1980年代後半,英國政府成立專案小組,調查先進企業的做法和成功案例,整理出一套ITIL(Information Technology Infrastructure Library)方法論出來,後來成為企業系統營運管理的教本。世界的系統大廠也趁勢推出「ITIL」相關服務出來。其實民間企業、政府機關等和英國政府一樣抱持著相同的問題,大量投資在IT上,卻未得到相對的效果出來。因此,「ITIL」很快的受到矚目,做為系統營運管理部門改革的導引手冊。
「ITIL」主要分做2大體系,其中之一為支援日常系統所需的營運業務,稱之為「Service Support」。另一個則為能夠長期的改善、提升服務品質增加投資效益的「Service Delivery」。


圖1:ITIL的2大體系示意圖

如上圖所示,「ITIL」主要的2大體系之下,又細分總共11種營運管理流程。其中「Service Support」分成6種,「Service Delivery」分成5種。接下來做更詳細介紹。

IT服務支援(Service Support)


IT服務支援(Service Support),主要為維持日常系統的營運和支援作業。支援的內容,包括服務窗口(Service Desk)、事件管理(Incident Management)、問題管理(Problem Management)、組態管理(Configuration Management)、異動管理(Chang Management)、上線管理(Release Management)等6種。其內容的概要如下:
IT服務支援
(Service Support)
日常系統的營運和支援作業:
如何讓系統的使用者能夠得到適切IT服務?為重點的作業流程。
服務窗口
(Service Desk)
IT服務提供者和利用者間的唯一窗口,支援事件對應等業務。
事件管理
(Incident Management)
發生障礙事件時,能夠迅速恢復的管理流程。
問題管理
(Problem Management)
追究事件和問題發生的根本原因,以及制定防止問題再發生的對策。
組態管理
(Configuration Management)
管理提供IT服務的N/W、H/W、S/W、手冊等IT組態要素,始終維持正確的資訊。
異動管理
(Chang Management)
針對IT組態發生異動時的異動流程,制定標準化。檢驗異動時的影響性,安全的、有效率的實施。
上線管理
(Release Management)
管理軟體、硬體、IT服務等上線時的程序。

系統營運時所發生事件的來源通常有2個地方,其一為顧客服務窗口(Service Support)接受顧客的諮詢而來,另一為統合監控系統監控到系統異常而來。事件發生之後需要追蹤和解決問題發生的根源時,列入問題管理去做控管。當系統須要做異動對應時,進入異動管理。最後無論是單只做設定異動對應或需要重新上線,系統的組態若有改變時,須要經過組態管理來控管。

圖1:ITIL的IT服務支援內容
通常IT支援的服務會由客服、機房管理、系統維護等單位分層負責。較具有規模的企業,會成立專門的「系統營運管理部門」負責除了客服(Service Desk)以外所有作業,包括接下來要介紹的「Service Delivery」相關作業。


資策會100年度-科技管理系列課程


課程領域
 
課程名稱
開始日期
結束日期
時數
上課時段
科技新知
系列講座
 
100/08/19
100/08/19
3
週五 晚上
 
100/09/23
100/09/23
3
週五 晚上
 
100/10/21
100/10/21
3
週五 晚上
 
100/11/18
100/11/18
3
週五 晚上
 
100/12/16
100/12/16
3
週五 晚上
創新管理
 
100/12/17
100/12/18
12
週六日 白天
 
100/09/17
100/10/01
18
週六 白天
 
100/12/22
100/12/22
6
週日 白天
研發管理
 
100/08/13
100/08/28
36
週六日 白天
 
100/08/13
100/08/28
36
週六日 白天
 
100/10/19
100/10/20
12
週三四 白天
 
100/10/22
100/10/23
12
週六日 白天
 
100/10/20
100/10/21
12
週四五 白天
 
100/08/25
100/08/26
12
週四五 白天
 
100/09/17
100/09/18
12
週六日 白天
經營管理
 
100/12/22
100/12/22
6
週四 白天
 
100/08/31
100/08/31
7
週三 白天
行銷管理
 
100/11/12
100/11/19
18
週六日 白天
 
100/08/27
100/09/24
42
週六日 白天
 
100/11/20
100/11/27
18
週六日 白天
 
100/09/17
100/09/17
7
週六 白天
 
100/08/17
100/08/18
12
週三四 白天
 
100/08/27
100/09/17
30
週六日 白天
 
100/09/24
100/09/24
7
週六 白天
 
100/10/01
100/10/02
14
週六日 白天
 
100/12/08
100/12/08
7
週四 白天
 
100/10/14
100/10/16
18
週五六日 白天
 
100/10/21
100/10/23
18
週五六日 白天
 
100/10/28
100/10/30
18
週五六日 白天
 
100/11/05
100/11/06
14
週六日 白天
 
100/11/12
100/11/13
14
週六日 白天
 
100/10/01
100/10/02
12
週六日 白天
 
100/11/10
100/11/11
12
週四五 白天
 
100/08/27
100/09/04
18
週六日 白天
 
100/10/15
100/10/16
12
週六日 白天
 
100/11/12
100/11/13
12
週六日 白天
 
100/09/02
100/09/03
12
週五六 白天
 
100/09/22
100/09/22
7
週四 白天
 
100/08/28
100/08/28
7
週日 白天
 
100/11/16
100/11/16
6
週三 白天
 
100/11/16
100/11/16
6
週三 白天
 
100/11/16
100/11/16
6
週三 白天
 
100/11/13
100/11/13
7
週日 白天
 
100/11/05
100/11/12
18
週六日 白天
 
100/10/01
100/10/01
7
週六 白天
 
100/10/02
100/10/02
7
週日 白天
 
100/10/29
100/10/30
12
週六日 白天
人資管理
 
100/12/22
100/12/22
6
週四 白天
 
100/10/23
100/10/23
9
週日 白天
 
100/09/19
100/09/23
40
週一~五 白天
 
100/11/21
100/11/25
40
週一~五 白天
 
100/10/03
100/10/04
16
週一二 白天
 
100/09/28
100/09/28
6
週三 白天
 
100/10/26
100/10/27
12
週三四 白天
 
100/10/20
100/10/20
3
週四 晚間
 
100/10/25
100/10/25
3
週二 晚間
 
100/10/27
100/10/27
3
週四 晚間
 
100/08/12
100/08/19
18
週二五 白天
財務管理
 
100/10/12
100/10/20
18
週三四 白天
 
100/09/20
100/09/22
12
週二四 白天
 
100/11/08
100/11/09
12
週二三 白天
 
100/09/07
100/09/08
12
週三四 白天
 
100/08/13
100/08/14
12
週六日 白天
 
100/10/24
100/12/05
36
週一 白天
 
100/08/04
100/08/05
14
週四五 白天
 
100/08/29
100/08/30
14
週一二 白天
 
100/09/05
100/09/06
14
週一二 白天
 
100/09/26
100/09/27
14
週一二 白天
 
100/10/03
100/10/04
14
週一二 白天
 
100/08/30
100/08/31
12
週二三 白天
 
100/10/26
100/10/28
6
週三五 晚上


詳情請參閱資策會