DeepSeek V4 的發布,對企業 CEO 的意義不只是「又有新 AI 模型推出」。它又一次徹底改寫了企業採用大型語言模型(LLM)的成本與選型邏輯。中國開源模型近年都火熱,價格震撼力當然未及當年 v3 但仍值得高度關注。
以往企業部署 AI,常要在「模型智慧」與「成本控制」之間掙扎;DeepSeek V4 Pro 與 DeepSeek V4 Flash 面世後,開源權重模型開始在長文件處理、程式開發、代理式工作流程與日常自動化任務上,追貼閉源旗艦模型的應用範圍。

DeepSeek v4 Pro 版與 Flash 如何選擇
DeepSeek V4 今次分為 Pro 與 Flash 兩個版本。DeepSeek V4 Pro 針對較複雜的推理、程式開發與代理式工作;DeepSeek V4 Flash 則主打高速與低成本,適合大量文件摘要、客服分類、內部知識庫問答等高頻場景。根據 DeepSeek V4 model card 及模型供應商資料,V4 Pro 為 1.6T 總參數、49B active,V4 Flash 為 284B 總參數、13B active,兩者均支援約 100 萬個 token 的 context,並以 MIT license 釋出。
對 CEO 來說,100 萬 token 不必理解成技術術語,可以這樣解讀:AI 一次能讀入更海量的文件、合約、會議紀錄、產品文檔、程式碼或內部知識庫。這代表企業不再只能讓 AI 回答單一問題,而是可以讓 AI 在更完整的公司背景下,協助完成研究、分析、摘要、比對與多步驟工作。
DeepSeek V4 最大衝擊:把「可大量使用的 AI」變便宜
DeepSeek V4 Pro 的 API 價格約為每 100 萬 input token 1.74 美元、每 100 萬 output token 3.48 美元;V4 Flash 更低,input 約為 0.14 美元、output 約為 0.28 美元。這個價格與閉源旗艦模型相比有明顯差距。OpenAI 已發布 GPT-5.5,官方 API pricing 頁列出其標準價格為每 100 萬 input token 5 美元、output token 30 美元;GPT-5.5 Pro 則高達 30 美元 input、180 美元 output。Anthropic 的 Claude Opus 4.7 則維持與 Opus 4.6 相同價格,為每 100 萬 input token 5 美元、output token 25 美元。
這意味著企業 AI 選型正由「誰最聰明」轉向「哪個模型在某類任務上最划算」。如果任務是董事會策略、法律風險、金融分析或高風險決策,Claude Opus、GPT-5.4、Gemini 3.1 Pro 這類閉源旗艦模型仍有價值;但如果任務是每日海量處理文件、客服對話、內部搜尋、簡報初稿、報告摘要或低風險自動化,DeepSeek V4 Flash 的成本結構會令很多企業重新計算 AI 投資回報。

一表比較:主流 SOTA、Flash 級與開源 LLM 收費及智力
以下比較表不只看每百萬 token 收費,也加入企業選型角度。CEO 真正需要知道的,不是模型在某一個考試榜單是否第一,而是它適合處理哪類企業工作,以及成本是否能支撐大規模部署。加入 Gemini Flash 系列與 Claude Sonnet 4.6 後,企業可以更清楚看到三層模型策略:低成本大量處理、中階高性價比,以及高價值旗艦任務。
| 模型 | 類型 | Context | 輸入 / 輸出價格 每 100 萬 token |
智力與商務定位 | 企業選用建議 |
|---|---|---|---|---|---|
| DeepSeek V4 Flash | 開源權重,MIT | 1M | $0.14 / $0.28 | 成本極低,能力明顯高於 DeepSeek V3.2,適合高頻文字任務 | 大量文件摘要、客服分類、內部知識庫、低風險流程的第一層模型 |
| Gemini 3.1 Flash-Lite | 閉源,多模態,Flash-Lite 級 | 1M 級別 | $0.25 / $1.50 | Google Gemini 3 系列中主打最高性價比與大量任務處理的模型 | 適合翻譯、內容審核、UI 生成、模擬、大量多模態低風險任務 |
| MiniMax M2.7 | 開源權重,商用授權需核實 | 約 196K–205K | $0.30 / $1.20 | 中高階性價比模型,agent 與文件任務均衡 | 成本敏感但不想只用 Flash 時,可作中階替代 |
| Gemini 3 Flash Preview | 閉源,多模態,Flash 級 | 1M 級別 | $0.50 / $3.00 | 比 Flash-Lite 更接近通用型多模態工作模型,兼顧速度、搜尋與 grounding | 適合需要圖片、影片、PDF、搜尋 grounding 的大量企業流程 |
| DeepSeek V4 Pro / Pro Max 模式 | 開源權重,MIT | 1M | $1.74 / $3.48 | 開源權重高階模型,適合長文件、coding、agent 工作 | 可作企業高階開源模型主力,尤其適合成本敏感但要求能力的場景 |
| GLM-5.1 | 開源權重,MIT | 約 200K | 約 $0.95–$1.40 / $3.15–$4.40 | Code Arena open model 前列,coding agent 能力強 | 適合 CTO / IT 團隊測試 coding agent、工程自動化 |
| Kimi K2.6 | 開源權重,Modified MIT | 約 256K | 約 $0.95 / $4.00 | 開源權重高階模型之一,agent 與生成任務表現佳 | 適合產品、前端、agent workflow 測試 |
| Gemini 3.1 Pro | 閉源,多模態 Pro 級 | 1M | 約 $2 / $12;長 context 可至 $4 / $18 | 多模態、長文件、Google / Vertex AI 生態強 | 適合影片、圖片、PDF、Google Workspace 與多模態工作 |
| Claude Sonnet 4.6 | 閉源,高性價比旗艦級 | 1M beta | $3 / $15 | Anthropic 中階主力,具備 coding、agent、long-context reasoning 與知識工作能力 | 適合企業把 Claude 用作日常高質素 agent、coding、文件分析預設模型;比 Opus 便宜 |
| GPT-5.4 | 閉源,前線模型 | 1M 級別 | $2.50 / $15 | 較 GPT-5.5 便宜,仍適合 coding、agentic、professional workflows | 若企業要控制成本,又想留在 OpenAI 生態,可作較平衡選項 |
| GPT-5.5 | 閉源旗艦 | 1M | $5 / $30 | OpenAI 最新旗艦,強調 coding、電腦操作、知識工作與長時間 agent 任務 | 適合高價值、高複雜度的專業工作流;不宜直接取代所有低風險日常任務 |
| Claude Opus 4.7 / 4.6 | 閉源旗艦 | 1M | $5 / $25 | 高階 coding、agents、複雜推理與知識工作;Opus 4.7 較 4.6 在 coding、vision、多步驟任務再提升 | 高風險、高價值、需要穩定與高質素輸出的企業任務才值得預設使用 |
| GPT-5.5 Pro | 閉源超高階模式 | 1M | $30 / $180 | 面向更高準確度與更困難任務,成本遠高於一般旗艦模型 | 只應用於最高價值任務,例如關鍵研究、重大決策、深度技術分析,不適合作為預設模型 |
如果換成一宗企業工作,成本差距更明顯
單看每 100 萬 token 價格,對非技術管理層仍然抽象。若假設一宗大型企業 AI 工作包括 100 萬 input token 與 10 萬 output token,例如讀取一批合約、會議紀錄、產品文件,再生成一份管理層摘要,成本差距會更容易理解。
| 模型 | 100 萬 input + 10 萬 output 粗略成本 | 對企業建議 |
|---|---|---|
| DeepSeek V4 Flash | 約 $0.17 | 可以作大量文字任務的預設模型,適合高頻低風險流程 |
| Gemini 3.1 Flash-Lite | 約 $0.40 | 比 DeepSeek Flash 貴,但提供 Google 多模態與 Gemini 生態優勢 |
| MiniMax M2.7 | 約 $0.42 | 中低成本,適合較複雜但仍需控成本的任務 |
| Gemini 3 Flash Preview | 約 $0.80 | Flash 級多模態模型,適合大量圖片、影片、PDF、搜尋 grounding 任務 |
| DeepSeek V4 Pro | 約 $2.09 | 比閉源旗艦便宜很多,但可承擔高階文件與 agent 任務 |
| Gemini 3.1 Pro | 約 $3.20;長 context 可至約 $5.80 | 多模態與 Google 生態強,但長文件成本要計清楚 |
| GPT-5.4 | 約 $4.00 | OpenAI 生態內較平衡的高階模型,成本約為 GPT-5.5 一半 |
| Claude Sonnet 4.6 | 約 $4.50;長 context 用量可能更高 | Claude 生態中的高性價比主力,適合日常高質素 agent、coding、知識工作 |
| Claude Opus 4.7 / 4.6 | 約 $7.50 | 與 GPT-5.5 屬同一高階成本帶,適合高價值任務 |
| GPT-5.5 | 約 $8.00 | OpenAI 最新旗艦,但日常大量任務成本明顯較高,應按任務價值使用 |
| GPT-5.5 Pro | 約 $48.00 | 成本極高,只適合最高價值、最高難度、需要極高準確度的任務 |
這張表正好反映 DeepSeek V4 的真正殺傷力。DeepSeek V4 Flash 未必是最聰明的模型,但它令企業可以用極低成本處理大量日常 AI 工作。DeepSeek V4 Pro 則提供另一選項:在不支付閉源旗艦模型高昂 output token 成本的情況下,處理較複雜的長文件、coding 與 agent 任務。
Benchmark 怎樣看 ? 不應只看誰第一
DeepSeek V4 的 benchmark 訊號可以分兩層理解。第一,它在開源權重模型中已進入前線競爭區。Artificial Analysis / GDPval-AA 資料顯示,DeepSeek V4 Pro 在 agentic real-world work tasks 評測中,V4 Pro Reasoning Max 得分 1554,領先 GLM-5.1、MiniMax-M2.7、Kimi K2.6 等 open weights 模型;V4 Flash 亦明顯高於 DeepSeek V3.2。第二,它不應理解成「全面打敗 GPT、Claude、Gemini」。較準確的說法是:DeepSeek V4 Pro 已進入前線競爭區,尤其在開源權重模型中非常突出,但面對 GPT-5.4、Claude Opus、Gemini 3.1 Pro 等閉源模型,仍應按實際任務比較。
換言之 DeepSeek V4 的賣點不是所有指標都第一,而是「能力接近前線、成本大幅降低、而且有開源權重部署彈性」。


Code Arena 與 GDPval-AA:反映企業兩種不同需求
Code Arena 更接近 CTO、CIO 關心的程式開發與 agentic coding 任務。從 Artificial Analysis 的圖表顯示,DeepSeek V4 Pro 在 open model 之中升至 Code Arena 前列,相比 DeepSeek V3.2 有明顯提升。這代表 DeepSeek V4 Pro 不只是一般聊天模型,而是開始具備處理多步驟工程任務、網頁開發與工具使用的能力。
GDPval-AA 則更貼近 CEO 與營運管理層的問題:AI 能否真正完成白領工作?這類任務不只是回答知識題,而是需要讀文件、用工具、整理資料、生成可交付成果。從這角度看,DeepSeek V4 Pro 在 open weights 模型中的領先,代表開源模型不再只是研發或實驗室選項,而開始可以進入企業工作流程評估。

企業選型:不要再用單一模型處理所有 AI 任務
DeepSeek V4 推出後,企業最應該改變的不是立即把所有 AI 換成 DeepSeek,而是建立「多模型分工」策略。過去不少企業試用生成式 AI 時,會把所有任務交給同一個模型,結果不是成本過高,就是簡單任務浪費旗艦模型,複雜任務又缺乏人工覆核。更成熟的做法,是按任務價值、風險與複雜度分層。
| 企業需求 | 建議模型 | 原因 |
|---|---|---|
| 大量文字摘要、客服分類、內部知識庫問答 | DeepSeek V4 Flash | 成本最低,1M context,適合大量低風險文字任務 |
| 大量多模態任務,例如圖片、PDF、影片、搜尋 grounding | Gemini 3.1 Flash-Lite / Gemini 3 Flash | 成本仍低,但比純文字低價模型更適合 Google 多模態與搜尋生態 |
| 複雜文件分析、跨部門流程、自動化 agent | DeepSeek V4 Pro | 成本低於閉源旗艦,但具備高階開源權重能力與 1M context |
| 日常高質素 agent、coding、知識工作 | Claude Sonnet 4.6 / GPT-5.4 | 比 Opus、GPT-5.5 便宜,但能力足以處理大量專業工作 |
| Coding agent、工程自動化、程式碼修改 | GLM-5.1 / DeepSeek V4 Pro / Claude Sonnet 4.6 / GPT-5.5 | 可按成本與準確度分層:開源模型控成本,閉源模型處理最高難度任務 |
| 法律、金融、董事會級策略分析 | Claude Opus 4.7 / GPT-5.5 / Gemini 3.1 Pro | 高風險任務仍應使用前線閉源模型並加入人工覆核 |
| 最高價值、最高難度、需要極高準確度的任務 | GPT-5.5 Pro | 成本極高,應限於重大決策、深度研究、複雜技術分析,不應作日常預設模型 |
| 想保留私有化部署與模型控制權 | DeepSeek V4 Pro / Flash、GLM-5.1、Kimi K2.6 | 開源權重模型較適合企業評估私有部署、資料主權與成本控制 |
這種分工方式會成為企業 AI 成本控制的關鍵。DeepSeek V4 Flash 可以作為大量任務的第一層;DeepSeek V4 Pro 可處理較複雜的推理與長文件;閉源旗艦模型則留給高風險、高價值或多模態工作。這樣既不會犧牲能力,也不會令 AI 成本失控。
開源權重不等於零成本
DeepSeek V4 雖然以 MIT license 釋出,並支援長 context,但企業不應把「開源權重」理解為「免費部署」。若要自建或私有化部署,仍要考慮 GPU 或推理硬件、系統維運、安全監控、資料權限、延遲、模型更新與合規審查。
此外 DeepSeek V4 目前主要是 text input / output 模型。若企業需要處理圖片、影片、語音、PDF layout 或多模態文件,Gemini、GPT 或 Claude 仍可能更合適。若涉及客戶資料、金融資料、醫療資料或商業機密,企業亦要先審查 API 供應商條款、資料保存政策、所在地區合規要求,以及模型輸出是否需要人手覆核。
DeepSeek V4 對企業 AI 市場的真正意思
DeepSeek V4 不單純把模型做得更大,更把企業 AI 的經濟模型改變。以往 CEO 可能只會問:「哪個模型最強?」但在 DeepSeek V4 之後,更實際的問題應該是:「哪個模型能以合理成本,穩定完成最多可靠工作?」
DeepSeek V4 Flash 的低價,令大量日常流程更有機會被 AI 化;DeepSeek V4 Pro 的能力,令開源權重模型開始進入高階企業工作流;而 Claude Opus、GPT-5.4、Gemini 3.1 Pro 則仍會留在高價值、高風險、多模態或最複雜任務的位置。未來企業的 AI 架構,不會是一個模型包辦所有工作,而會是一套多模型調度系統。
對 CEO 來說,DeepSeek V4 最重要的啟示是:AI 投資回報不再只由模型智力決定,而是由「智力、成本、context、部署彈性、風險控制」共同決定。誰能把不同模型放在正確工作位置,誰就能用更低成本,把 AI 從試驗項目推進到真正營運流程。
參考資料
- OpenAI GPT-5.4 model page:https://developers.openai.com/api/docs/models/gpt-5.4/
- OpenAI GPT-5.4 announcement:https://openai.com/index/introducing-gpt-5-4/
- DeepSeek V4 Pro pricing on OpenRouter:https://openrouter.ai/deepseek/deepseek-v4-pro
- Anthropic Claude API pricing:https://platform.claude.com/docs/en/about-claude/pricing
- Anthropic Claude Opus 4.7:https://www.anthropic.com/claude/opus




