close
人工智能

【收費比拼】DeepSeek V4 發布後 企業如何挑選 LLM ? (更新: 75% 折扣資訊) 一文比較 GPT、Claude、Gemini 與開源 LLM 收費、智力、應用場景

[27/4/2026 更新] DeepSeek 於 x 平台上宣佈 DeepSeek-V4-Pro API 即日起提供 75% 折扣優惠,限時至 2026 年 5 月 5 日 15:59(UTC),為企業客戶大幅降低 AI 推理成本。與此同時平台同步推出多項整合更新:Claude Code 用戶可設定模型為 deepseek-v4-pro[1m] 以解鎖 100 萬 Token 超長上下文;OpenCode 需更新至 v1.14.24 或以上版本;OpenClaw 則需更新至 v2026.4.24 或以上版本方可使用新功能。

DeepSeek V4 的發布,對企業 CEO 的意義不只是「又有新 AI 模型推出」。它又一次徹底改寫了企業採用大型語言模型(LLM)的成本與選型邏輯。中國開源模型近年都火熱,價格震撼力當然未及當年 v3 但仍值得高度關注。

以往企業部署 AI,常要在「模型智慧」與「成本控制」之間掙扎;DeepSeek V4 Pro 與 DeepSeek V4 Flash 面世後,開源權重模型開始在長文件處理、程式開發、代理式工作流程與日常自動化任務上,追貼閉源旗艦模型的應用範圍。

 

a7310a5daf56446ab6c0

更新:DeepSeek V4 Pro API 限時 75% 減價至 5 月 5 日

DeepSeek 在 V4 發布後進一步以價格戰搶攻企業與開發者市場。根據 DeepSeek 官方 API pricing 資料,DeepSeek V4 Pro 原定價格為每 100 萬 input token(cache miss)1.74 美元、每 100 萬 output token 3.48 美元;DeepSeek 其後宣布 V4-Pro API 限時 75% 折扣,優惠期至 2026 年 5 月 5 日 15:59 UTC。換言之,折扣期間 V4-Pro 的 cache miss input 價格降至每 100 萬 token 約 0.435 美元,output 價格降至約 0.87 美元。

減價後收費表

以下價格按 DeepSeek 官方標準價及 75% 折扣計算,單位為每 100 萬 token。優惠期至 2026 年 5 月 5 日 15:59 UTC;實際收費仍應以 DeepSeek 官方 API pricing 頁面為準。

項目 DeepSeek V4 Pro 原價
每 100 萬 token
75% OFF 後價格
每 100 萬 token
減價幅度 企業使用意義
Input tokens(cache hit) $0.145 $0.03625 減 75% 適合重複使用長文件、政策文件、程式碼庫背景、agent memory 等固定上下文
Input tokens(cache miss) $1.74 $0.435 減 75% 大量長文件首次讀取成本大幅下降,更適合企業測試 1M context 工作流
Output tokens $3.48 $0.87 減 75% 生成長報告、程式碼修改、分析摘要、agent 執行結果的成本明顯降低

這次減價令 DeepSeek V4 Pro 的定位更進取。原本 V4 Flash 已是極低成本的大量文字處理模型,而 V4 Pro 則主打長上下文、agent 工作流與較複雜推理;在 75% 折扣期間,V4 Pro 的實際使用成本甚至接近部分中低價模型,令企業可以用更低成本測試 1M context 長文件分析、程式碼庫檢查、跨部門資料整理與 AI agent 工作流程。不過,由於優惠有時限,企業在正式部署前仍應同時評估折扣後試用成本與優惠完結後的長期成本。

DeepSeek v4 Pro 版與 Flash 如何選擇

DeepSeek V4 今次分為 Pro 與 Flash 兩個版本。DeepSeek V4 Pro 針對較複雜的推理、程式開發與代理式工作;DeepSeek V4 Flash 則主打高速與低成本,適合大量文件摘要、客服分類、內部知識庫問答等高頻場景。根據 DeepSeek V4 model card 及模型供應商資料,V4 Pro 為 1.6T 總參數、49B active,V4 Flash 為 284B 總參數、13B active,兩者均支援約 100 萬個 token 的 context,並以 MIT license 釋出。

對 CEO 來說,100 萬 token 不必理解成技術術語,可以這樣解讀:AI 一次能讀入更海量的文件、合約、會議紀錄、產品文檔、程式碼或內部知識庫。這代表企業不再只能讓 AI 回答單一問題,而是可以讓 AI 在更完整的公司背景下,協助完成研究、分析、摘要、比對與多步驟工作。

 

DeepSeek V4 最大衝擊:把「可大量使用的 AI」變便宜

DeepSeek V4 Pro 的 API 價格約為每 100 萬 input token 1.74 美元、每 100 萬 output token 3.48 美元;V4 Flash 更低,input 約為 0.14 美元、output 約為 0.28 美元。這個價格與閉源旗艦模型相比有明顯差距。OpenAI 已發布 GPT-5.5,官方 API pricing 頁列出其標準價格為每 100 萬 input token 5 美元、output token 30 美元;GPT-5.5 Pro 則高達 30 美元 input、180 美元 output。Anthropic 的 Claude Opus 4.7 則維持與 Opus 4.6 相同價格,為每 100 萬 input token 5 美元、output token 25 美元。

這意味著企業 AI 選型正由「誰最聰明」轉向「哪個模型在某類任務上最划算」。如果任務是董事會策略、法律風險、金融分析或高風險決策,Claude Opus、GPT-5.4、Gemini 3.1 Pro 這類閉源旗艦模型仍有價值;但如果任務是每日海量處理文件、客服對話、內部搜尋、簡報初稿、報告摘要或低風險自動化,DeepSeek V4 Flash 的成本結構會令很多企業重新計算 AI 投資回報。

hgozclaoaatika

 

 

 一表比較:主流 SOTA、Flash 級與開源 LLM 收費及智力

以下比較表不只看每百萬 token 收費,也加入企業選型角度。CEO 真正需要知道的,不是模型在某一個考試榜單是否第一,而是它適合處理哪類企業工作,以及成本是否能支撐大規模部署。加入 Gemini Flash 系列與 Claude Sonnet 4.6 後,企業可以更清楚看到三層模型策略:低成本大量處理、中階高性價比,以及高價值旗艦任務。

模型 類型 Context 輸入 / 輸出價格
每 100 萬 token
智力與商務定位 企業選用建議
DeepSeek V4 Flash 開源權重,MIT 1M $0.14 / $0.28 成本極低,能力明顯高於 DeepSeek V3.2,適合高頻文字任務 大量文件摘要、客服分類、內部知識庫、低風險流程的第一層模型
Gemini 3.1 Flash-Lite 閉源,多模態,Flash-Lite 級 1M 級別 $0.25 / $1.50 Google Gemini 3 系列中主打最高性價比與大量任務處理的模型 適合翻譯、內容審核、UI 生成、模擬、大量多模態低風險任務
MiniMax M2.7 開源權重,商用授權需核實 約 196K–205K $0.30 / $1.20 中高階性價比模型,agent 與文件任務均衡 成本敏感但不想只用 Flash 時,可作中階替代
Gemini 3 Flash Preview 閉源,多模態,Flash 級 1M 級別 $0.50 / $3.00 比 Flash-Lite 更接近通用型多模態工作模型,兼顧速度、搜尋與 grounding 適合需要圖片、影片、PDF、搜尋 grounding 的大量企業流程
DeepSeek V4 Pro / Pro Max 模式 開源權重,MIT 1M $1.74 / $3.48 開源權重高階模型,適合長文件、coding、agent 工作 可作企業高階開源模型主力,尤其適合成本敏感但要求能力的場景
GLM-5.1 開源權重,MIT 約 200K 約 $0.95–$1.40 / $3.15–$4.40 Code Arena open model 前列,coding agent 能力強 適合 CTO / IT 團隊測試 coding agent、工程自動化
Kimi K2.6 開源權重,Modified MIT 約 256K 約 $0.95 / $4.00 開源權重高階模型之一,agent 與生成任務表現佳 適合產品、前端、agent workflow 測試
Gemini 3.1 Pro 閉源,多模態 Pro 級 1M 約 $2 / $12;長 context 可至 $4 / $18 多模態、長文件、Google / Vertex AI 生態強 適合影片、圖片、PDF、Google Workspace 與多模態工作
Claude Sonnet 4.6 閉源,高性價比旗艦級 1M beta $3 / $15 Anthropic 中階主力,具備 coding、agent、long-context reasoning 與知識工作能力 適合企業把 Claude 用作日常高質素 agent、coding、文件分析預設模型;比 Opus 便宜
GPT-5.4 閉源,前線模型 1M 級別 $2.50 / $15 較 GPT-5.5 便宜,仍適合 coding、agentic、professional workflows 若企業要控制成本,又想留在 OpenAI 生態,可作較平衡選項
GPT-5.5 閉源旗艦 1M $5 / $30 OpenAI 最新旗艦,強調 coding、電腦操作、知識工作與長時間 agent 任務 適合高價值、高複雜度的專業工作流;不宜直接取代所有低風險日常任務
Claude Opus 4.7 / 4.6 閉源旗艦 1M $5 / $25 高階 coding、agents、複雜推理與知識工作;Opus 4.7 較 4.6 在 coding、vision、多步驟任務再提升 高風險、高價值、需要穩定與高質素輸出的企業任務才值得預設使用
GPT-5.5 Pro 閉源超高階模式 1M $30 / $180 面向更高準確度與更困難任務,成本遠高於一般旗艦模型 只應用於最高價值任務,例如關鍵研究、重大決策、深度技術分析,不適合作為預設模型

 

如果換成一宗企業工作,成本差距更明顯

單看每 100 萬 token 價格,對非技術管理層仍然抽象。若假設一宗大型企業 AI 工作包括 100 萬 input token 與 10 萬 output token,例如讀取一批合約、會議紀錄、產品文件,再生成一份管理層摘要,成本差距會更容易理解。

更新減價後價格表 :

DeepSeek V4 Pro 在折扣期間的成本會由原本約 2.09 美元,下降至約 0.522 美元。

模型 / 狀態 100 萬 input + 10 萬 output 粗略成本 計算方式 對 CEO 的意思
DeepSeek V4 Pro 原價 $2.09 $1.74 + ($3.48 × 0.1) 原價已低於多數閉源旗艦模型,適合高階開源權重工作流
DeepSeek V4 Pro 75% OFF 後 $0.522 $0.435 + ($0.87 × 0.1) 折扣期間成本接近中低價模型,可作大規模長文件與 agent 測試
DeepSeek V4 Flash 原價 $0.168 $0.14 + ($0.28 × 0.1) 仍然是最低成本大量文字任務模型,適合低風險高頻流程

減價前:

模型 100 萬 input + 10 萬 output 粗略成本 對企業建議
DeepSeek V4 Flash 約 $0.17 可以作大量文字任務的預設模型,適合高頻低風險流程
Gemini 3.1 Flash-Lite 約 $0.40 比 DeepSeek Flash 貴,但提供 Google 多模態與 Gemini 生態優勢
MiniMax M2.7 約 $0.42 中低成本,適合較複雜但仍需控成本的任務
Gemini 3 Flash Preview 約 $0.80 Flash 級多模態模型,適合大量圖片、影片、PDF、搜尋 grounding 任務
DeepSeek V4 Pro 約 $2.09 比閉源旗艦便宜很多,但可承擔高階文件與 agent 任務
Gemini 3.1 Pro 約 $3.20;長 context 可至約 $5.80 多模態與 Google 生態強,但長文件成本要計清楚
GPT-5.4 約 $4.00 OpenAI 生態內較平衡的高階模型,成本約為 GPT-5.5 一半
Claude Sonnet 4.6 約 $4.50;長 context 用量可能更高 Claude 生態中的高性價比主力,適合日常高質素 agent、coding、知識工作
Claude Opus 4.7 / 4.6 約 $7.50 與 GPT-5.5 屬同一高階成本帶,適合高價值任務
GPT-5.5 約 $8.00 OpenAI 最新旗艦,但日常大量任務成本明顯較高,應按任務價值使用
GPT-5.5 Pro 約 $48.00 成本極高,只適合最高價值、最高難度、需要極高準確度的任務

 

 

這張表正好反映 DeepSeek V4 的真正殺傷力。DeepSeek V4 Flash 未必是最聰明的模型,但它令企業可以用極低成本處理大量日常 AI 工作。DeepSeek V4 Pro 則提供另一選項:在不支付閉源旗艦模型高昂 output token 成本的情況下,處理較複雜的長文件、coding 與 agent 任務。

Benchmark 怎樣看 ? 不應只看誰第一

DeepSeek V4 的 benchmark 訊號可以分兩層理解。第一,它在開源權重模型中已進入前線競爭區。Artificial Analysis / GDPval-AA 資料顯示,DeepSeek V4 Pro 在 agentic real-world work tasks 評測中,V4 Pro Reasoning Max 得分 1554,領先 GLM-5.1、MiniMax-M2.7、Kimi K2.6 等 open weights 模型;V4 Flash 亦明顯高於 DeepSeek V3.2。第二,它不應理解成「全面打敗 GPT、Claude、Gemini」。較準確的說法是:DeepSeek V4 Pro 已進入前線競爭區,尤其在開源權重模型中非常突出,但面對 GPT-5.4、Claude Opus、Gemini 3.1 Pro 等閉源模型,仍應按實際任務比較。

換言之 DeepSeek V4 的賣點不是所有指標都第一,而是「能力接近前線、成本大幅降低、而且有開源權重部署彈性」。

hgqox9jbyaalzsm

 

hgqcebwbmaazkww

Code Arena 與 GDPval-AA:反映企業兩種不同需求

Code Arena 更接近 CTO、CIO 關心的程式開發與 agentic coding 任務。從 Artificial Analysis 的圖表顯示,DeepSeek V4 Pro 在 open model 之中升至 Code Arena 前列,相比 DeepSeek V3.2 有明顯提升。這代表 DeepSeek V4 Pro 不只是一般聊天模型,而是開始具備處理多步驟工程任務、網頁開發與工具使用的能力。

GDPval-AA 則更貼近 CEO 與營運管理層的問題:AI 能否真正完成白領工作?這類任務不只是回答知識題,而是需要讀文件、用工具、整理資料、生成可交付成果。從這角度看,DeepSeek V4 Pro 在 open weights 模型中的領先,代表開源模型不再只是研發或實驗室選項,而開始可以進入企業工作流程評估。

hgpymqtaqaatwer

 

企業選型:不要再用單一模型處理所有 AI 任務

DeepSeek V4 推出後,企業最應該改變的不是立即把所有 AI 換成 DeepSeek,而是建立「多模型分工」策略。過去不少企業試用生成式 AI 時,會把所有任務交給同一個模型,結果不是成本過高,就是簡單任務浪費旗艦模型,複雜任務又缺乏人工覆核。更成熟的做法,是按任務價值、風險與複雜度分層。

企業需求 建議模型 原因
大量文字摘要、客服分類、內部知識庫問答 DeepSeek V4 Flash 成本最低,1M context,適合大量低風險文字任務
大量多模態任務,例如圖片、PDF、影片、搜尋 grounding Gemini 3.1 Flash-Lite / Gemini 3 Flash 成本仍低,但比純文字低價模型更適合 Google 多模態與搜尋生態
複雜文件分析、跨部門流程、自動化 agent DeepSeek V4 Pro 成本低於閉源旗艦,但具備高階開源權重能力與 1M context
日常高質素 agent、coding、知識工作 Claude Sonnet 4.6 / GPT-5.4 比 Opus、GPT-5.5 便宜,但能力足以處理大量專業工作
Coding agent、工程自動化、程式碼修改 GLM-5.1 / DeepSeek V4 Pro / Claude Sonnet 4.6 / GPT-5.5 可按成本與準確度分層:開源模型控成本,閉源模型處理最高難度任務
法律、金融、董事會級策略分析 Claude Opus 4.7 / GPT-5.5 / Gemini 3.1 Pro 高風險任務仍應使用前線閉源模型並加入人工覆核
最高價值、最高難度、需要極高準確度的任務 GPT-5.5 Pro 成本極高,應限於重大決策、深度研究、複雜技術分析,不應作日常預設模型
想保留私有化部署與模型控制權 DeepSeek V4 Pro / Flash、GLM-5.1、Kimi K2.6 開源權重模型較適合企業評估私有部署、資料主權與成本控制

這種分工方式會成為企業 AI 成本控制的關鍵。DeepSeek V4 Flash 可以作為大量任務的第一層;DeepSeek V4 Pro 可處理較複雜的推理與長文件;閉源旗艦模型則留給高風險、高價值或多模態工作。這樣既不會犧牲能力,也不會令 AI 成本失控。

開源權重不等於零成本

DeepSeek V4 雖然以 MIT license 釋出,並支援長 context,但企業不應把「開源權重」理解為「免費部署」。若要自建或私有化部署,仍要考慮 GPU 或推理硬件、系統維運、安全監控、資料權限、延遲、模型更新與合規審查。

此外 DeepSeek V4 目前主要是 text input / output 模型。若企業需要處理圖片、影片、語音、PDF layout 或多模態文件,Gemini、GPT 或 Claude 仍可能更合適。若涉及客戶資料、金融資料、醫療資料或商業機密,企業亦要先審查 API 供應商條款、資料保存政策、所在地區合規要求,以及模型輸出是否需要人手覆核。

DeepSeek V4 對企業 AI 市場的真正意思

DeepSeek V4 不單純把模型做得更大,更把企業 AI 的經濟模型改變。以往 CEO 可能只會問:「哪個模型最強?」但在 DeepSeek V4 之後,更實際的問題應該是:「哪個模型能以合理成本,穩定完成最多可靠工作?」

DeepSeek V4 Flash 的低價,令大量日常流程更有機會被 AI 化;DeepSeek V4 Pro 的能力,令開源權重模型開始進入高階企業工作流;而 Claude Opus、GPT-5.4、Gemini 3.1 Pro 則仍會留在高價值、高風險、多模態或最複雜任務的位置。未來企業的 AI 架構,不會是一個模型包辦所有工作,而會是一套多模型調度系統。

對 CEO 來說,DeepSeek V4 最重要的啟示是:AI 投資回報不再只由模型智力決定,而是由「智力、成本、context、部署彈性、風險控制」共同決定。誰能把不同模型放在正確工作位置,誰就能用更低成本,把 AI 從試驗項目推進到真正營運流程。

參考資料

 

Tags : Claude OpusDeepSeek V4featureGPT-5.4企業 AI開源 LLM