周三在Open Compute Project (OCP)高峰會上,臉書(Facebook)公佈該公司和廣達電腦合作為深度學習應用而設計的第二代GPU伺服器Big Basin。
臉書工程計畫經理李家豪解釋,和第一代的Big Sur相較,Big Basin機器學習模型加大30%,這是因為硬體計算速度更快,記憶體也由12GB提升為16GB,使得臉書研發工程人員得以加速複雜AI模型的開發速度,提升臉書對平台上文字、相片及影片的理解能力,並依此做出更好的預測。
臉書指出,Big Basin設計特色之一是模組化,透過將CPU與GPU運算元件分開,以便可以整合現有臉書OCP (Open Compute Platform)元件。在部署上,Big Basin可和臉書自行設計獨立於Big Basin的第三代運算伺服器連接,以便在需要時個別地進行升級。
此外,臉書昨日宣佈的伺服器平台Tioga Pass也相容於Big Basin,GPU及CPU主控節點之間PCIe頻寬和效能更為提升。Big Basin還可更換GPU,以滿足來升級需求。
Big Basin是臉書和廣達電腦的合作設計而成,採用8個NVIDIA Tesla P100 GPU加速器,這些GPU透過NVIDIA NVLink技術形成類似NVIDIA深度學習超級電腦NVIDIA DGX-1的8 GPU hybrid cube。結合NVIDIA Deep Learning SDK,新的架構可提升所有GPU的深度學習訓練速度。
臉書表示,和Big Sur相較,拜每顆GPU單精度(single-precision)浮點運算速度由7 teraflops提升為10.6 teraflops之賜,Big Basin每瓦效能也大為增加。此外這個新架構也支援半精度浮點運算。
此外,由於移除了主機板,Big Basin的體積也比Big Sur更為縮小,由原來的4U減少為3U。
熱門新聞
2024-11-25
2024-11-15
2024-11-15
2024-11-29
2024-11-28
2024-11-25