圖片來源: 

Facebook

繼今年初Facebook開源釋出了AI實驗室運用在Torch上的深度學習模組,今天Facebook更宣布要將代號為Big Sur的人工智慧伺服器設計,貢獻給開放運算專案(Open Compute Project, OCP),希望藉由開放源碼尋求更多硬體業者加入生產。

Facebook指出,機器學習和AI近年在大量研究資料公開,以及GPU等為基礎的更高速運算技術推動之下有長足進步。在軟體方面,Facebook內部已經發展了能讀取故事、回答圖片問題、玩遊戲甚至經由觀察某些範例學習不明確任務。在硬體方面,則有為訓練神經網路而設計的次世代GPU系統,代號為Big Sur。

在與夥伴廠商合作下,Facebook打造出的Big Sur可安裝8張高效能GPU卡,單張GPU卡功耗最高達300瓦也能支援,並可使用多種PCIe來搭配使用不同的GPU卡。它採用NVIDIA的Tesla M40 加速運算平台(Accelerate Computing Platform),速度為前一代系統的二倍,使訓練及查詢的速度也快了一倍。

除了速度更快,Big Sur也更省電。一般高效能伺服器需要特殊冷卻及營運基礎架構,但Big Sur的散熱及省電設計,只要資料中心使用了Facebook Open Compute機櫃設計,就可以使用業界常見冷卻設計來冷卻Big Sur伺服器。Big Sur還拿掉了不常用的元件,而且硬碟及DIMM等容易壞的元件也可以在幾秒鐘內更換。其簡單標準化的零件標識也方便技師維修更換零件,不需特殊訓練。Facebook希望省電及高可用性的特性使Big Sur可用於生產及製造環境下。
OCP是Facebook主導的開放計畫,旨在藉由硬體業者的加入,以最低成本生產涵蓋伺服器、儲存、資料中心及網路設備等硬體,進而降低Facebook的運算成本。自2011以來,Facebook已經陸續公開了多項硬體設計。

熱門新聞

Advertisement