圖片來源: 

Facebook

周三在Open Compute Project (OCP)高峰會上,臉書(Facebook)公佈該公司和廣達電腦合作為深度學習應用而設計的第二代GPU伺服器Big Basin。 

臉書工程計畫經理李家豪解釋,和第一代的Big Sur相較,Big Basin機器學習模型加大30%,這是因為硬體計算速度更快,記憶體也由12GB提升為16GB,使得臉書研發工程人員得以加速複雜AI模型的開發速度,提升臉書對平台上文字、相片及影片的理解能力,並依此做出更好的預測。 

臉書指出,Big Basin設計特色之一是模組化,透過將CPU與GPU運算元件分開,以便可以整合現有臉書OCP (Open Compute Platform)元件。在部署上,Big Basin可和臉書自行設計獨立於Big Basin的第三代運算伺服器連接,以便在需要時個別地進行升級。

 

此外,臉書昨日宣佈的伺服器平台Tioga Pass也相容於Big Basin,GPU及CPU主控節點之間PCIe頻寬和效能更為提升。Big Basin還可更換GPU,以滿足來升級需求。 

Big Basin是臉書和廣達電腦的合作設計而成,採用8個NVIDIA Tesla P100 GPU加速器,這些GPU透過NVIDIA NVLink技術形成類似NVIDIA深度學習超級電腦NVIDIA DGX-1的8 GPU hybrid cube。結合NVIDIA Deep Learning SDK,新的架構可提升所有GPU的深度學習訓練速度。 

臉書表示,和Big Sur相較,拜每顆GPU單精度(single-precision)浮點運算速度由7 teraflops提升為10.6 teraflops之賜,Big Basin每瓦效能也大為增加。此外這個新架構也支援半精度浮點運算。 

此外,由於移除了主機板,Big Basin的體積也比Big Sur更為縮小,由原來的4U減少為3U。

 

熱門新聞

Advertisement