close
企業趨勢

訓練人才 vs 訓練 AI,誰更划算?OpenAI 行政總裁的一場成本革命


訓練人才 vs 訓練 AI,誰更划算?OpenAI 行政總裁的一場成本革命

OpenAI 行政總裁 Sam Altman 在印度新德里「Express Adda」媒體論壇上,拋出一個震撼商界類比:訓練大型 AI 模型所消耗能源,其實不比「訓練」人類多——前提是願意把人整段生命計算在內。這番話除了引爆能源與環保圈激烈論戰,亦深刻觸動全球企業主管核心命題:在 AI 時代,企業資源究竟應投入訓練員工,還是訓練 AI 模型?

Altman 面對 AI 能源消耗批評時主動出擊提出論述,時間是 2026 年 2 月 20 至 21 日,對象是質疑 AI 耗費過多能源資源各界輿論。他得出結論:若公平比較,「AI 能源效率大概已超越人類。」本文將深入剖析三個核心問題:數據是否站得住腳、這對企業人才與 AI 投資策略有何意味,以及決策者如何在「訓人」與「訓 AI」之間做出理性抉擇。

類比背後真正邏輯

Altman 論點有其嚴謹框架,關鍵在於他重新定義「比較基準」。

他在論壇上直言:「大家老是談論訓練 AI 模型需要耗費多少能源,卻把它和人類回答一次問題能耗相比,這根本不公平。」他提倡「公平比較」是:一旦 AI 模型訓練完成,回答一個問題所消耗能源,與受過教育人類回答同一問題相比孰高孰低?他給出答案:「按照這標準衡量,AI 能源效率大概已超越人類。」

更具爭議是 Altman 進一步把人類「訓練成本」延伸至演化史維度——「百億人類演化積累讓我們學會不被掠食者吃掉、學會科學」,這些都是產出今日「智慧人類」隱性能源代價。這延伸雖然富有哲學色彩,然而批評者指出此類類比會將人類生命工具化,甚至化約為能源計算危險,因而忽略人類智識情感、創造與道德維度。

數據驗算:AI 能源賬單究竟有多重?

從具體數據看 Altman 論點既有說服力,亦存在明顯破綻。

訓練 GPT-4 估計消耗約 **50,000 至 63,000 兆瓦時(MWh)**電力,相當於約 6,000 戶美國家庭整整一年用電量。相比之下一人從出生到 20 歲所攝取食物熱量換算為電能,約為 17,000 至 23,000 千瓦時(kWh),即 17 至 23 兆瓦時。粗略估算訓練一個 GPT-4 規模模型,所耗電力相當於約 2,500 至 3,000 名「人類」從出生到成年食物能量總和。這數據顯然不支持「AI 已與人類能耗持平」說法。

然而 Altman 論點精髓在於「推論成本」(inference cost)規模攤銷。目前 ChatGPT 每次查詢平均僅耗電約 0.34 瓦時,不過是一個電燈泡亮幾分鐘耗電量。在 ChatGPT 每週全球活躍用戶已達 5 億人規模下,當訓練成本被平攤至每位用戶幾乎可以忽略不計。科技社群計算進一步指出,與能接觸 GPT-4 知識用戶相比,其「人均分攤訓練能耗」遠低於培養一位博士食物能量——正是這「規模效應」才是 Altman 論點中最有力商業啟示。

科技評論人 Aakash Gupta 對此提出反駁:「GPT-4 早已退役且後繼模型不斷更新,每次都需要重新訓練,累積消耗能源遠超一次性數據。」確實 OpenAI 數據中心目前每年總耗電量高達 3.2 兆瓦時(TWh),每年排放約 180 萬噸二氧化碳,並消耗 54 億升冷卻水。這些「隱性成本」在 Altman 類比中幾乎從未出現。

企業真正命題:人才預算應往哪裡流?

Altman 這番言論對商界而言,有比能源辯論更深遠戰略意涵——它重新定義「智識投資」比較框架。

BCG 調查揭示一個令人警醒現實:雖然逾半數企業已啟動 AI 應用,目前僅有 6% 企業真正協助員工提升 AI 技能。台灣 KPMG 報告同樣顯示,約 30% 企業計劃在未來一年增加 AI 預算,但約 40% 企業同時承諾將持續進行 AI 人才培訓。這組數據揭示一個共識正在成形:「訓人」與「訓 AI」並非對立選項,而是相互依存投資組合。

Google 2026 年趨勢報告更進一步指出,顯示已有 88% 受訪企業驗證 AI 代理人(AI Agent)投資回報率。這說明 AI 商業價值已不再是概念,而是可量化現實。台灣知名創投人簡立峰則從另一角度提出警示:企業推行 AI 目標是提升營收或降低成本,「員工目標和企業目標兩者根本不一致。」這「利益錯位」才是許多企業 AI 培訓計劃難以落實根本原因——而非預算不足。

從 ROI 角度衡量,數據顯示導入 AI 輔助培訓可將員工入職時間從 42 天縮短至 21 天,直接培訓成本可降低高達 70%,而且知識內容可作為企業「知識資產」反覆使用,長尾價值遠超一次性人力培訓開支。

OpenAI 環保承諾:說到做到了嗎?

Altman 並未迴避 AI 能源挑戰,他在同一場合呼籲業界投入更多可再生能源解決方案,而 OpenAI 已公開承諾於 2030 年前實現 100% 可再生能源供電。

目前 OpenAI 數據中心約有 65% 使用可再生能源,並已投入 5 億美元(約港幣 39 億元)於太陽能和風能項目。2026 年 1 月 OpenAI 宣布「Stargate 社區計劃」,承諾為數據中心消耗能源「自付代價」,不讓地方居民電費因此上漲。這是美國特朗普政府要求科技企業為數據中心新建電廠支付費用後,OpenAI 作出積極政策回應。

然而能源效率改進速度能否追上 AI 需求增速依然存疑。分析機構預測全球 AI 數據中心電力消耗,將從 2025 年約 120 兆瓦時增至 2027 年 300 兆瓦時,到 2030 年或高達 800 兆瓦時——屆時 AI 耗電量將超越今日整個巴西全國。這「能源赤字」才是 Altman 最需要說服公眾根本課題。

智識投資選擇沒有標準答案

Sam Altman 這場能源辯論最終指向企業未來三至五年戰略佈局。員工成長週期以年計,而 AI 模型更新以月計——兩者「訓練週期」本質上不可同日而語。企業真正應該問不是「哪一個更便宜」,而是「在業務場景中哪種智識資產投資回報率更高及更持久」。

2026 年在 AI 全面滲透浪潮下,「訓人」與「訓 AI」成本辯論或許才剛剛開始。企業主管是否已準備好,用 Altman 那種「重新定義比較基準」思維框架,重新審視企業人才與技術投資?

資料來源:TechCrunch Tom’s Hardware OfficeChai Jeff Bruchado AI Insights Reuters