論文《持續成長的人工智慧能源足跡》(The growing energy footprint of artificial intelligence)作者Alex De Vries預估,在Google全面實施AI搜尋之後,其AI耗電量最高可能達到27.4 TWh,接近愛爾蘭一整年所使用的電力(29.3 TWh)。(上圖為Google今年5月公布以生成式AI強化的搜尋服務示意圖,圖片來源/Google)

科學家們開始注重AI的環保問題,《Cell》的姐妹期刊《Joule》本周出版了一篇名為《持續成長的人工智慧能源足跡》(The growing energy footprint of artificial intelligence)論文,指出人工智慧(AI)推論可能會消耗大量的電力,作者Alex De Vries更向《BBC》表示,到了2027年,AI的用電量可能等同於荷蘭一年的電力使用。

這是繼加州大學河濱分校電機與電腦工程系副教授Shaolei Ren今年初發表的AI「容易口渴」的論文之後,另一篇與AI環保議題相關、並吸引媒體目光的研究。當時Ren於《Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models》中指出,在微軟最先進的美國資料中心訓練GPT-3時,將直接消耗70萬公升的乾淨淡水,相當於生產370輛BMW或320輛特斯拉,若是在微軟的亞洲資料中心訓練,用水量將是3倍,若是於其它不那麼先進的資料中心訓練AI模型,用水量則會更高。

而在推論上,ChatGPT僅是回答20~50個簡單的問題就需要500ml的水,當ChatGPT擁有數十億用戶,再加上改用規模更龐大的GPT-4,AI的用水量更是難以估計。

其實目前並沒有針對AI用水或用電量的公開數據,不管是Ren或是來自Vries的最新研究都是基於多種估計。

Vries為荷蘭阿姆斯特丹自由大學商業與經濟學院的博士候選人,同時他也是數位經濟平臺Digiconomist及比特幣耗電量指數Bitcoin Energy Consumption Index的創辦人。這次他於報告中指出,外界一向認為訓練一個AI模型是AI最耗電的階段,但Vries引用了SemiAnalysis及Google的報告指出,推論所消耗的電力更多。

其中,Google的報告顯示,自2019年到2021年,與AI相關的能源消耗中有60%來自推論。至於半導體研究機構SemiAnalysis則說OpenAI的ChatGPT服務需要由3,617臺Nvidia HGX A100的伺服器來支撐,Vries計算其每日耗電量,認為它高於訓練GPT-3時所需要的電力。

另一方面,SemiAnalysis也估計,若要於Google搜尋中實現類似ChatGPT的搜尋能力,將會需要512,821臺的Nvidia HGX A100,且Alphabet董事長John Hennessy亦曾向《路透社》(Reuters)透露,與大型語言模型互動的成本可能是標準關鍵字搜尋的10倍。

這使得Vries以Google在2021年的18.3 TWh耗電量來計算,當時AI占了Google整體耗電量的10%~15%,在Google全面實施AI搜尋之後,其AI耗電量最高可能達到27.4 TWh,接近愛爾蘭一整年所使用的電力(29.3 TWh)。

就整個市場來看,隨著Nvidia合作夥伴台積電(TSMC)所投資的新CoWoS包裝廠預計於2027年量產,Vries也估計屆時Nvidia所交付的AI伺服器數量與其用電量將達85~134 TWh,相當於荷蘭一年的電力使用。

總之,Vries認為AI產業應該要考慮相關的環境衝擊,包括提高硬體效率,採用創新的模型架構及演算法,還建議開發人員不僅應專注於優化AI,也必須考慮使用AI的必要性,亦督促監管機構導入具體的環境披露要求,以讓此一新興技術的環境成本更加透明化。

除了環境之外,SemiAnalysis今年初即曾發表一篇文章,分析了大型語言模型的實際成本,指出ChatGPT每周的推論成本都超過訓練成本,倘若Google在搜尋中部署了類似ChatGPT的大型語言模型,原本擁有的300億美元利潤就會在一夜之間蒸發,轉移到其它業者手上或是用來改善TPU效能。

熱門新聞

Advertisement