近年雲端(Cloud Computing)的崛起,加上大量手持行動裝置與嵌入式系統所帶來的巨量資料(Big Data)浪潮,有許多人認為,與這些應用發展有關的是儲存、網路等硬體廠商,或是資料分析的軟體廠商,但實際上,每臺電腦、手機、伺服器或儲存裝置同時間所能處理的資料量,也和本身的執行性能是否夠強大有關。

而作為處理器製造商的Intel,今年8月在泰國曼谷舉辦的Cloud Summit 2012,也針對上述兩個趨勢,發表了看法,並藉由過去各項統計數據,分析資料中心未來將面臨的瓶頸。

資料大量的成長,未來面臨PB等級的資料運算

Intel亞太區暨中國資料中心與網路系統事業群總經理Jason Fedder表示,目前全世界包括電腦、手機與平板電腦等,共有超過10億個裝置,隨著這些裝置的增加,也帶來資料應用的爆炸性成長,例如網路傳輸的資料量劇增,儲存的需求也大幅度成長。

根據該公司的統計與預測,到了2016年,不論是網路、儲存設備、工作站,或是高效能運算等環境的處理器,都會比2011年的需求量高出一倍,並且對穩定性與效能的要求都更高。

以汽車製造商BMW為例,他們在2010年所要管理的,是9萬5千名員工的電腦,到了2012年,卻要面臨著1百萬、甚至1千萬輛車用電腦的連線,而且這些電腦都內建多種感應器,蒐集行車過程的各種資料,因此後端資料中心的分析、運算能力,以及能源的需求,都面臨著巨大的挑戰。

另外,Jason Fedder在活動中提出了Intel在2015年的雲端運算應用願景,包括可減少IT人員管理工作的自動化(Automated)、自動判別用戶端裝置的感知能力(Client Aware),以及可跨越公有雲與私有雲的聯合作業(Federated)。

其中,用戶端感應可以自動判別使使用者所使用的裝置與資料類型,包括手機、平板、筆電,以及行車電腦等;聯合作業則是將資料先在私有雲內彙整,最後才在公有雲發布供使用存取,而自動化則讓IT人員可以更專注在創新的服務上,而不會浪費在系統的管理上。

儲存與運算的資料大幅度成長,需要更高運算效能

拜儲存技術成長所賜,現階段在個人電腦上常見的儲存容量是以GB、TB為計算單位,一些企業甚至可能會有多達數千TB的硬碟容量,也就是PB等級的資料量,而資料量大幅度成長的同時,若想分析這些資料,方法也和過往不同。

就傳統的分析方式而言,常見的作法都是定期處理,而且是有特定目的或方向,因此偶爾才會面臨大量複雜資料處理的需求;而在當前巨量資料的時代下,我們要做到的是即時的資料分析。同時,因為資料類型來源不只是傳統電腦與設備,還有各種智慧型手機,以及不同的感測裝置,例如車用電腦的GPS定位資訊、駕駛行車的各種數據,或是道路影像系統的分析等。因此,目前系統可蒐集的資料來源,都與過往有很大的差異,而且資料型態往往含有大量非結構化的內容,因此在這些資料的處理上,與傳統的作法(如資料庫和資料倉儲應用)顯然有很大差異。

為了因應如此大量的資料運算,現今的處理器在運算效能的提升上,已經陸續採用相當多的技術,其中最顯而易見的作法就是內建多核心的技術。

在過去,處理器都僅內建單一核心,一切的運算都是由這個核心來執行,而Intel在2005年推出了第一款雙核心的Xeon處理器,將處理器從單核心推向多核心,而這對運算效能的改進,就好比增加人手一般。

原本單顆核心的架構,同一時間只能做一個運算,完成之後才能進行下一個,處理器若要加快運算速度,就只能仰賴時脈速度的提升。但是,在相同時脈的條件下,如果處理器可同時進行多個運算,在效能上就有機會大幅度成長。

以Intel目前新一代的伺服器等級處理器Xeon E5系列,所配備的核心數量最多可到8個之多,加上可搭配他們自己發展的超執行緒技術,從作業系統的角度來看,在一臺單路伺服器上,最多則能夠運用16個核心,如果是2路伺服器,則能夠擁有32個運算核心。

在處理器的時脈速度方面,目前普遍都在2GHz到3GHz之間,最高的基礎時脈速為3.3GHz,透過Turbo Boost技術所自動超頻的時脈則達3.5GHz,這樣的高時脈規格,也讓電腦或伺服器運算的速度提升許多。這樣的技術不只是用作自動提升時脈,還可讓閒置的處理器核心關閉運作,待有運算需求時再提升或重新啟動,以減少處理器的電力損耗。

此外,隨著處理器自身內建的核心越來越多,時脈沒有減少的情況下,,系統的耗電量並沒有因此提升,這主要是受益於處理器製程技術的提升。

以目前的技術來看,Xeon系列處理器上一代是45奈米製程,目前則是全面演進到32奈米,而且這些處理器的熱設計功耗最低僅有60瓦,最高則有135瓦,和過去相比,當時的處理器核心數較少,且熱設計功耗相當,甚至較高的情況下相比,目前的處理器等於擁有更佳的運算效率,整體耗電量又可減少許多。除此之外,新一代處理器不斷加強與周邊裝置的連接速度與頻寬,這也帶動另一層面的效能提升。

藉由核心增加、讓它們自動依照使用情況來調整運作狀態,讓單一處理器的運用,達到相當於多顆處理器的效能,再加上時脈速度的提升,以及製程技術的改進,現在我們對於處理器的使用,是足以面對如此大量運算資料的增加,而且耗電量不會因此提升。

高效能處理器在各種設備上普及

根據Intel的統計與預測,到2016年的時候,不論是網路、儲存設備、工作站或是高效能運算等環境的處理器,都會比2011年的需求量高出一倍,並且勢必對穩定性與效能的要求都更高。

最近幾年來,我們看到不只是伺服器採用x86架構的處理器,有越來越多原本搭配專屬處理器的設備開始跟進採用,例如儲存設備與網路設備。例如2007年時,Xeon系列處理器僅使用在伺服器等級產品上,但現在已經有不少儲存設備與網路設備,也都開始用這系列處理器。

另一方面,目前全球的行動裝置與個人電腦數量都呈大幅度的增加,甚至各種內建電腦的裝置數量,都快速成長,而這些裝置基本上都隨時處於連線的狀態,也就是隨時都有資料傳輸的需求,因此各個資料中心所要處理的資料量、網路頻寬越來越高。而對於一般人的日常生活而言,我們接下來所要面臨的是更無所不在的e化應用,這將會是所謂的智慧城市。我們在日本NEC Solution Fair中所看到的智慧城市應用,以及IBM過去幾年所提出的Smart City,都是基於相同的概念。

智慧城市的概念,就是生活中,隨時隨地都會存在著內建感測接收與發送,或是電腦與手機等裝置。例如具有車用電腦的汽機車、可透過攝影機分析觀眾性別年齡的資訊看板,或是能自動分析交通路況的監視器等。

隨著這些包含傳統電腦、各式行動裝置、感測與記錄裝置的電腦普遍受到應用,連帶所產生的資料量非常龐大,而這就是接下來將面臨的巨量資料趨勢。

事實上,巨量資料的衝擊並不只是挑戰後端系統的負荷能力、軟體功能和儲存空間耗用,或是只和IT人所熟悉的基礎架構虛擬化技術有關,它和上述的連網裝置大量應用也是密不可分的。因此在這樣的條件下,不論裝置是實體、虛擬,是固定位置或持續移動,在接收、發送與處理這些資料的時候,也都必須透過處理器來運算與處理,因此能否因應這些衝擊,也與處理器的能耐有關。

藉不同規模、屬性的產品,去因應運算需求

面對巨量資料、虛擬化,以及節能等趨勢,目前Intel除了透過處理器提升來提高效能、降低耗電,還企圖結合網路、安全防護、儲存裝置,以同時達到提升速度、減低資料傳輸的瓶頸,以及能源的高使用率等目標。

以伺服器平臺為例子,Intel Xeon系列的處理器,分成可適用於8路、4路、2路與單路伺服器架構的產品;同時,他們也有耗電量僅6瓦,研發代號為Centerton的Atom處理器,主打入門級伺服器、NAS與微型伺服器;另外,Intel還有17瓦的Ivy Bridge筆電等級處理器。

藉由提供不同等級的處理器,用戶或系統廠商可以使用符合環境規模與運算效能需求的產品,以減少無謂的電力消耗,並提供適當的運算效能,而非被迫搭配高效能、高功耗的產品。

此外,針對高效能運算(HPC)環境,Intel也預計在今年底推出採用MIC架構(Many Integrated Core Architecture)的新一代Xeon Phi處理器,將內建超過50組的運算核心。

為了提高安全與效率,現階段Intel也在部分處理器內,開始大量採用受信任執行技術(Trusted Execution Technology,TXT)與可信賴執行模組(Trusted Platform Module,TPM),藉由硬體內建的防護技術,提高惡意軟體的防護效果。

這幾年來,Xeon處理器所陸續支援的多種傳輸規格,在實際應用上,也可望承載雲端運算與巨量資料帶來的執行需求。

這些技術所帶來的性能提升,主要跟I/O存取相關。例如,可減低運算延遲的整合式I/O(Integrated I/O),以及較上一代規格提供2倍I/O頻寬的PCIe 3.0介面、超高速的乙太網路介面10GbE,都是為了提供更快的執行速度,並降低運算與資料傳輸瓶頸的各種規格。

其他Intel處理器內建的功能部分,也有助於巨量資料的處理與雲端運算的應用,像是Intel虛擬化技術(VT),以及相關的周邊裝置直接存取技術VT-d、VT-C,這些都是Intel在許多處理器產品上所支援的指令集,可將原本需要透過軟體執行的處理,直接由處理器來運算或協調,縮短實際執行過程。

配置I/O頻寬更大的內部傳輸介面:PCIe 3.0

處理器擁有高速運算效能的同時,還必須與周邊裝置有高速的傳輸通道,這些裝置包括網路卡、光纖介面卡,或是工作站的專業繪圖卡,而目前Intel在新一代的處理器中,都支援PCIe 3.0介面,透過最高雙向8GB/s的資料傳輸規格,在處理器與網路、磁碟或專業繪圖卡之間的I/O存取速度可提升。

除了支援PCIe 3.0的高速傳輸規格之外,目前新一代的伺服器處理器在本身與周邊裝置的傳輸介面上,都配置了5個PCIe ×8傳輸通道。

就像處理器支援的記憶體一樣,在支援高速傳輸的同時,通道數量也增加,讓採用這些處理器的伺服器,可安裝更多支援高速傳輸的裝置,不會受制於介面頻寬,而無法發揮這些裝置該有的效能。

提高記憶體時脈與通道數,增進系統存取能力

在巨量資料與雲端運算應用趨勢的衝擊下,有許多應用軟體的執行,都採用In-Memory的作法,包括In-Memory Database、In-Memory Analytic等,系統對於記憶體的速度與容量要求都越來越高。

目前Intel新一代處理器都內建4個記憶體通道,比以往的3通道還多,而記憶體通道數量較多的意義,就在於處理器和記憶體之間的存取可同時擁有多條管道可同時傳送資料。

目前最新的Intel Xeon系列處理器,所支援的DDR3記憶體時脈包括800、1066、1333與1600MHz等,以目前最高的時脈1600MHz的記憶體而言,換算起來的記憶體頻寬約為12GB/s,再加上它們支援4通道的規格,也就是讓處理器與記憶體之間擁有4條資料傳輸管線,而這種大頻寬與多通道的設計,更有效發揮高時脈與多核心處理器的潛能。

另一方面,在支援的記憶體容量方面,目前新一代的Xeon E5系列處理器可支援的記憶體容量高達768GB,比起前一代支援的最高288GB還要大,而Xeon E7系列處理器甚至可支援到2TB,這對巨量資料處理或是大量虛擬機器的應用,都相當有利。

Intel 2015年的雲端願景

在Intel Cloud Summit 2012的活動中,Intel提出了2015年的雲端願景,其中包括自動化(Automated)、用戶端感知(Client Aware)、聯合作業(Federated)等3大要素。

用處理器建立智慧城市的運算基礎

在現在的生活中,因為行動裝置普及,加上行車電腦、交通監視器與空氣品質偵測裝置等,各種充斥在生活中的感測裝置,讓我們生活中隨時都有大量的資料在傳送,而Intel認為,只要在這些不同的情境中,選擇適當的與合適的處理器,就可以兼顧效能與節能,因此他們的處理器從熱設計功耗僅有6瓦的Atom,到高達150瓦的高效能Xeon處理器都有,就是為了讓各種不同等級的應用,都有合適的處理器選擇。

開放資料中心聯盟的雲端發展成熟度模型

針對雲端發展的開放資料中心聯盟(Open Data Center Alliance,ODCA)預計,到了2013年左右,使用者與應用程式開發者都會開始將SaaS從原本單純的提供軟體服務,開始轉移到複合型態,並預計到了2015年,都會開始使用混合型態,而最終都會變成結合公有雲與私有雲的聯合作業模式。

熱門新聞

Advertisement