大型 AI 模型越來越強勁,不過同時消耗的能源也相當多。Arm 總裁最近就警告,AI 數據中心在這個趨勢下,未來電力消耗將會成為美國的一個隱憂,不能忽視。
Arm 總裁 Rene Haas 指出,目前美國的 AI 數據中心僅佔電力消耗的 4%,但到 2030 年,這比例可能會上升到 20-25%。他應用,類似 ChatGPT 等大型語言模型服務對能源的需求甚高,在這些服務變得普及的同時,在能源消耗方面可說是「貪得無厭」,
除了美國之外,其他快速發展 AI 的國家也面對同樣的問題。據國際能源機構(IEA)預測,與 2022 年的水平相比,全球 AI 數據中心的耗電將增加十倍。與傳統搜尋引擎相比,一個 ChatGPT 請求的耗電量幾乎是 Google 搜尋的十倍。將傳統搜尋引擎轉換為 AI 輔助的替代品可能會導致能源需求大幅飆升,每年可能需要額外消耗 10 太瓦時(TWh)的電力才能滿足 Google 搜尋引擎的規模。
面對能源問題,其實大型科技企業都在探索不同的解決方案,包括改善相關技術,甚至例如 Amazon 就收購了一個核動力數據中心。提升運算效率雖然也是其中一個發展方案,不過節省的能源消耗結果如果用於擴大運算能力,則最後整體耗電量並不會減低。
來源:The Register