close
人工智能

ChatGPT 及 Claude 有「AI 中文稅」中文用戶 Token 可能最高多花 71 %

覺得 Claude 燒 Token 嗎?最快的解決方案就是轉用英文並減低處理中文。一項大型語言模型分詞效率實測,用家在美國主流 AI 模型處理中文的話,Token 成本最高可多出 1.71 倍,不知不覺間支付了高昂的「中文稅」。但反觀中國模型不單沒有這個「中文稅」而且 Token 比使用英文更省。

 

底層技術傾斜 跨國營運的隱藏成本

前 Google 機器學習專家 Aran Komatsuzaki 選用了 AI 領域極具權威性的長篇論文《The Bitter Lesson》(苦澀的教訓)作為標準商業載體。測試團隊首先將該文的英文原版輸入 OpenAI 系統,將其 Token 總消耗量設定為絕對基準值(1倍)。隨後團隊將這篇文章的高質量中文翻譯版本,輸入各大模型的分詞器(Tokenizer)進行交叉比對。實驗結果揭示,在傳遞完全相同的資訊量與商業邏輯下,系統底層的「分詞效率」存在巨大差異。

市場上主流的預訓練模型大多依賴以英語為中心的 Byte Pair Encoding(BPE)機制,令系統處理中文、日文、韓文等非英語文本時,須將字詞拆成更細碎的 Token 計算費用。這種技術傾斜,直接造成經濟上的不公平,成為企業應用無法避免的額外成本。模型對英文詞彙的資訊壓縮率極高,英文用戶享有定價優勢;大中華及亞洲其他市場的企業,卻要為冗餘運算付費。

Claude 處理中文最不化算

對比美國最先進的模型,成本差距更明顯。以 OpenAI 英文 Token 消耗量為 1 倍基準。數據顯示,使用 Anthropic Claude 處理中文,成本是英文基準的 1.71 倍;OpenAI 則為 1.15 倍。處理韓文時,Anthropic 計費倍率更高達 2.6 倍以上。西方模型因訓練語料偏重英文,使亞洲用戶為相同指令支付數倍算力費用。 AI 系統顧問 Sakura Yuki 警告,高層只盯着基本 API 價格,但劣質分詞器會悄悄讓跨國推論賬單倍增,大幅侵蝕預期節省的人力成本。

ALT:不同語言的 AI 模型語言偏好比例圖,顯示英語、西班牙語等語言的差異。.
來源 :x@arankomatsuzaki

中國模型結果相反

跨國企業面對亞太區的高昂 API 賬單之際,中國新一代原生模型卻有著相反結果。Qwen 3.6、DeepSeek V4 和 Kimi K2.6 模型,處理相同中文指令的 Token 消耗量,分別只有英文基準的 0.85 倍、0.87 倍和 0.81 倍。中國模型廠商通過擴展漢字詞彙表,並最佳化快取機制,將每個 Token 的資訊承載量推到極限,成功把以往由美國壟斷的「中文稅」,變成自己的定價優勢。分詞效率逆轉,對大中華區企業決策者來說,若將本地客服、檔案分析等繁重文字工作流,切換至這些具原生優勢的模型,便能在不犧牲智能產出的情況下,直接削減近兩成經常性算力開支。

AI模型在中文處理中的稅率比較圖.
來源 :x@arankomatsuzaki

採購策略轉向務實 多模型路由精算效益

回顧過去數年企業級 AI 商業應用,市場由技術盲從走向精算整體效益。2024 年多數企業高層追求效能,不惜投入巨額預算採美國頂尖 LLM,鮮少深究跨區域部署背後的隱藏架構費用。隨着生成式技術大規模商用,算力已成為新時代的搶手貨,降低語言稅並提升系統精確度,逐漸成為企業拉開競爭差距的關鍵。

數據對比顯示,固守單一美國供應商的跨國公司,其亞洲分支利潤率正被高昂的隱形 Token 費用嚴重蠶食。到 2026 年,精明的技術決策者不再輕信統一報價,轉而建立智能多模型路由,根據任務語言和複雜度精準分配流量。

人工智能的語言成本落差直接衝擊企業財務,已由工程問題演變成營運風險。美國與中國模型在分詞效率上的巨大差異,為跨國企業的算力採購策略提供套利空間。徹底最佳化中英文任務的智能分流,可為公司釋放可觀現金流,轉投數碼創新。部署亞太市場時,企業是否已建立具成本意識的動態路由,避免利潤在無形雲端算力中流失?

 

資料來源:
Aran Komatsuzaki (X)
Sakura Yuki (X)
AgentBuilder (X)

 

Tags : QwenToken 成本企業AI分詞效率語言稅