繼年初GPU運算雲服務推出後,Google今日在Google I/O大會揭露第2代自製機器學習專用晶片TPU時,也一併宣布正式推出Cloud TPU運算雲服務,首次將TPU搬上Google雲端平臺(Google Cloud Platform)上,來幫助開發者縮短訓練機器學習模型的時間,藉此開發更多新應用。至於收費也將可能採取和原本GPU運算服務相同的收費模式,採按分鐘來計價。
Google今日在Google I/O大會揭露第2代自製機器學習專用晶片TPU。
做為加速機器學習運算的TPU(Tensor Processing Unit)是早年Google專為機器學習所設計的專用晶片,也是針對Google開源的深度學習框架TensorFlow所量身打造的客製化ASIC,幾年前開始部署在Google資料中心伺服器內,用於各種相關的機器學習應用。
Google在今年Google I/O大會介紹新一代TPU機器學習加速器亮相時也宣布了,將正式推出Cloud TPU運算雲服務,開始將自家資料中心內部專用的機器學習加速器TPU上雲端,讓Google雲端用戶未來也能夠在Google雲端平臺上租用TPU運算雲服務。
Google表示,新推出的Cloud TPU運算雲服務,將可以讓Google雲端用戶更容易結合TensorFlow,來縮短訓練機器學習模型的時間,也特別提升了新一代TPU運算效能,將可為每臺使用的機器設備提供高達180 TFLOPs浮點運算效能,並還提供更高叢集擴充能力,來組成更龐大機器學習系統,以提供需要大量加速運算能力的機器學習或深度學習模型訓練使用。
Google表示,在單一個機器學習訓練任務中,一次最多已經能夠利用64個TPU加速器節點,來建立機器學習運算叢集,可以提供高達11.5 PFLOPs的加速運算能力。在這之前,Google曾表示,相較於傳統的GPU,機器學習晶片TPU運算效能更好,甚至高出當代GPU有15倍之多,更是CPU的30倍,並且能獲得更好的能源效率,也能大幅減少執行機器學習應用所需編寫的TensorFlow程式碼,例如僅需100到1,500行TensorFlow程式碼,就能用於執行深度學習的AI運算任務。
Google也說明,除了Cloud TPU以外,用戶也能自行依照所需的機器學習應用需求,搭配使用英特爾第六代Skylake CPU或是混用Nvidia GPU運算服務,來做為各種機器學習訓練使用。除了Cloud TPU,目前在Google雲端平臺上,總共還提供了另外3種伺服器專用的GPU加速器運算服務,包括了Nvidia Tesla P100、Tesla K80,以及AMD FirePro S9300 x2,可供用戶租用。
Google也利用了1,000個Cloud TPU節點建立運算叢集,打造了一個能用來加速機器學習的超大型TensorFlow研究雲。Google表示,未來也打算將這個研究雲免費提供給研究人員使用,藉此來幫助他們縮短用於訓練機器學習的時間,加快推出更多創新應用。
雖然Google目前還未公布Cloud TPU未來的收費方式,不過很可能將採取和現行Google的GPU運算服務相同的收費模式,未來將採按分鐘來計價。
熱門新聞
2024-11-15
2024-11-15
2024-06-06
2024-11-14
2024-11-02
2024-11-12