NVIDIA CES 2026 深度解讀: 比 Keynote 更有價值的 1 小時 黃仁勳問答大會對企業啟示

NVIDIA 行政總裁黃仁勳在 CES 2026 媒體問答中揭示 AI 工業革命新方向。本文深度解讀 Vera Rubin 晶片帶來的 10 倍效能提升、開源模型崛起對企業的影響,以及實體 AI 如何切入 100 萬億美元勞動力市場,為企業決策者提供關鍵戰略洞察。

NVIDIA 行政總裁黃仁勳在 CES 2026 Keynote 發佈 Vera Rubin 平台翌日,隨即舉行媒體問答大會。在一個多小時內,他無間斷回答來自世界各地媒體的提問——從 Bloomberg、Reuters、CNN、Wall Street Journal 到台灣、中國、以色列及澳洲的記者

unwire.pro 在現場見證了這場精彩對話。相比前一天的 Keynote,這場問答提供了更多業界洞察:全球 10 萬億美元(約港幣 78 萬億元)IT 基礎設施正加速轉向 AI、AI 首次切入 100 萬億美元(約港幣 780 萬億元)勞動力市場、Vera Rubin 承諾將推理成本降低 10 倍。黃仁勳更罕見地坦承 Huawei 是「強大的競爭對手」,並就中國市場策略與 200 億美元(約港幣 1,560 億元)Groq 收購案給出務實定調。

對於行政總裁和企業決策者來說,這是一個比產品規格更寶貴的資訊來源。以下是重點整理。

 

預算大遷移:10 萬億美元正在轉向 AI

「錢從哪裡來?就是從那裡來的。」

當有記者追問 AI 投資的資金來源時,黃仁勳的回答一針見血:企業 IT 預算不是在膨脹,而是在轉移——從傳統運算轉向 AI。

「過去 10 到 15 年,全球投入了約 10 萬億美元(約港幣 78 萬億元)的 IT 基礎設施。這 10 萬億美元正在從傳統運算轉型為 AI。」黃仁勳指出。McKinsey 預測,2030 年前全球數據中心投資將達到 7 萬億美元(約港幣 54.6 萬億元)。

但更大的市場在後面。「這是軟件、AI 技術首次不只是工具,它同時也是勞動力。將來會有人形機械人、自動駕駛汽車、軟件編碼代理人、晶片設計代理人。而勞動力產業是 100 萬億美元(約港幣 780 萬億元)。」

這解釋了為何科技巨頭們如此焦慮。Microsoft 在 2025 年第四季財報電話會議中坦承,公司正面臨算力短缺,將影響整個財年。不只是初創公司在搶算力,連全球最大的雲端服務商都供不應求。

「這是類固醇版的摩爾定律(Moore’s Law on steroids)。」黃仁勳用這句話定調整場發布會。AI 模型規模每年增長 10 倍、推理需求因思維鏈等技術增加 5 倍、再加上 Agentic AI 的崛起——三重指數疊加,意味著算力需求正以每年約 50 倍的速度成長。

這個需求曲線,解釋了 NVIDIA 市值為何能突破 4.8 萬億美元(約港幣 37.44 萬億元),也解釋了為何「去年僅 AI 原生初創就獲得 1,500 億美元(約港幣 1.17 萬億元)投資」。

被低估的市場動態:開源模型崛起

「去年的重大驚喜是開源模型的成功——DeepSeek、Qwen、Kimi、Nemotron、Cosmos。」黃仁勳透露了一個被低估的市場動態。

「今天每生成四個 token,就有一個來自開源模型——我認為這個比例被低估了。」

這對 NVIDIA 意味著什麼?更多需求。「這大幅推動了 NVIDIA 和公有雲的需求。現在 Hopper 在雲端的定價實際上正在上漲,所有 Hopper 都被消耗殆盡。」

對企業決策者的啟示:開源模型降低了 AI 採用的門檻。競爭對手可能正在用開源模型建立 AI 能力,而成本只是專有模型的一小部分。

Vera Rubin:CEO 需要知道的三個數字

Vera Rubin 的技術規格可以留給工程師。行政總裁需要知道的是三個數字:

10 倍:推理 token 成本降低的幅度。這直接影響 AI 服務的毛利率。

5 倍:推理效能的提升。同樣的硬件投資,能處理更多任務。

4 倍:訓練大型模型所需的 GPU 數量減少。資本支出直接下降。

「每一代之間,功耗增加 2 倍,但效能增加 10 倍,」黃仁勳解釋,「能效提升了 5 倍。這直接轉化為客戶的營收——在有限功率的數據中心內,我們能產出更多 token,營收就上升。」

這個邏輯很重要:在電力受限的環境下(大多數企業都是如此),能效等於營收。「每瓦 token 產出」正在成為新的業務指標。

時間線方面,Vera Rubin 已進入全面量產,2026 下半年開始供貨。首批部署的是 Microsoft、AWS、Google Cloud、Oracle,以及 CoreWeave、Lambda 等 AI 雲端初創。

值得注意的是,不只是雲端巨頭在擁抱這個平台。Dell、HPE、Lenovo 等傳統 IT 廠商也宣布將整合 Vera Rubin。這意味著 AI 基礎設施正在從「雲端專屬」走向「企業主流」。

Microsoft 的下一代 Fairwater AI 超級工廠將部署數十萬顆 Vera Rubin 超級晶片——這是迄今為止最大規模的單一部署承諾。

工程投入方面,黃仁勳透露:「Vera Rubin 已經是 15,000 工程年。從現在到年底在數據中心部署,可能還要再投入 25,000 工程年。這是一項龐大的工程。」他坦言:「我們正在做的事情極其困難。世界上只有一家公司能以這種規模和速度做到。」

Blackwell 客戶怎麼辦?軟件投資受保障

「我剛買了 Blackwell,現在你告訴我 Vera Rubin 快 5 倍?」

Yahoo Finance 記者代替眾多企業客戶提出了這個尖銳問題。黃仁勳的回應揭示了 NVIDIA 的平台策略核心。

「CUDA 相容性橫跨整個數據中心。當我們更新軟件時,客戶過去建置的所有 AI 工廠都會獲得效能提升。你不需要最佳化 17 種不同的堆疊,只需最佳化一種,就能在整個機群上運行。」

換句話說:軟件投資受到保障,硬件可以逐步升級。

但黃仁勳也坦承為何年度升級節奏是必要的:「從 Grace Blackwell 到 Vera Rubin,電晶體數量增加約 1.7 倍。如果我宣布一顆晶片快 1.7 倍,幾乎沒有人會為此建新數據中心。這不夠快到讓人去取得 1GW 電力、建造 500 億美元(約港幣 3,900 億元)的 AI 工廠。」

對決策者的意義:NVIDIA 的策略是透過軟件相容性降低轉換成本,同時透過硬件躍升創造足夠的升級誘因。企業的 AI 投資不會過時,但競爭對手的新投資可能獲得 5 至 10 倍的效能優勢。

 

營運成本革命:熱插拔、電源平滑化、5 分鐘組裝

「AI 工廠」取代「數據中心」不只是行銷術語的更新。它反映了營運模式的根本轉變——以及成本結構的重新計算。

熱插拔:在現有系統中,任何關鍵組件的故障都需要整個機架停機數小時。「現在使用 Vera Rubin,你可以直接拔出故障組件繼續運行,」黃仁勳說,「更驚人的是,你可以在運行中更新軟件。」

電源平滑化:訓練大型模型時,所有 GPU 同時運作,造成瞬間電流波動。許多數據中心因此必須預留電力緩衝,或安裝大量電池。Vera Rubin 透過系統設計解決這個問題,讓 AI 工廠能以更高負載運行。

這個改進有個有趣的連鎖反應:CES 發布後,散熱系統公司的股價下跌了 6% 至 7%(Johnson Controls、Modine Manufacturing)。更高的能效意味著更少的廢熱,也意味著更少的散熱需求。投資者已經在重新評估整個供應鏈。

供應鏈效率:Vera Rubin 採用零線纜設計、100% 液冷,大幅縮短組裝時間。「這台機器的價格相當於一輛汽車,」黃仁勳比喻,「為什麼不能像汽車一樣花幾分鐘組裝?」

實體 AI:機械人今年達到人類級別

「Physical AI 的 ChatGPT 時刻已經到來。」

這不是遙遠的未來。Mercedes-Benz 新款 CLA 將在 2026 年第一季於美國上路,搭載 NVIDIA 的完整自動駕駛堆疊。黃仁勳宣稱它是「世界上最安全的汽車」。

更令人意外的是機械人時間表。當被問及機械人何時能達到人類級別能力,黃仁勳的回答是:「今年。」

他解釋,精細動作技能(如手部操作)仍然困難,但移動能力正取得驚人進展,認知能力則隨著推理模型快速演進。

對於想進入機械人領域的企業,黃仁勳提出了「三台電腦」框架:

第一台:訓練電腦——用於模型的學習與蒸餾。

第二台:模擬電腦——創造符合物理定律的虛擬環境,讓機械人在不危及真實世界的情況下學習。

第三台:機械人大腦——負責即時推理與執行。

「為了成為一家機械人公司,你需要三台電腦,理解這三個步驟,還要建造機械人本身——這極其困難。」但他也指出,這些技術正在匯聚,門檻正在降低。

對創業者的建議:「我的偏好通常是找垂直領域——可能是 EMS 製造、汽車工廠組裝、手術機械人。領域專業可以是很大的優勢。」

關於機械人取代就業的擔憂,黃仁勳的看法恰恰相反:「我們有勞動力短缺——不是差一千、兩千人,而是數千萬人。而且會因為人口下降而惡化。我們需要更多 AI 移民來幫助我們在製造現場工作。」

Alpamayo:首款「會思考」的自動駕駛模型

NVIDIA 發布了 Alpamayo 開源模型家族——首款具備推理能力的視覺語言動作(VLA)模型。

黃仁勳解釋 NVIDIA 自動駕駛系統的獨特架構:「NVIDIA 系統是世界上唯一擁有雙重冗餘的 AV 系統。一套傳統的安全系統,加上一套進行推理的端到端 AI 模型 Alpamayo。」

「如果你的安全系統足夠優秀,無論發生什麼,你永遠不會處於危險中。也許 AI 無法執行某項能力,但它會安全地退回到保持車道或緩慢停車。」

當被問及與 Tesla FSD 的差異時,黃仁勳的回答揭示了平台策略:「Tesla 的 FSD 堆疊完全是世界級的。但 NVIDIA 不製造自動駕駛車,我們為其他所有人建造完整堆疊和技術。我們與整個汽車產業合作——Tesla 的訓練系統、Waymo 的車載電腦、Lucid、Uber、Neuro。我們把一切都開源。」

中國市場與 Groq:務實競爭策略

中國市場的問題在記者會上被多次提出。黃仁勳的回應策略:以訂單說話,低調行事。

「客戶需求很高,非常高。我們的供應鏈已啟動,H200 正在生產線上流動。我們正在與美國政府完成授權的最後細節。」

「我不期待政府會有任何聲明。我只期待訂單。當訂單到來時,訂單說明一切。」

但黃仁勳也罕見地承認競爭壓力:「Huawei 是非常強大的競爭對手,中國有很多初創公司也在做數據中心晶片。中國的創業者、工程師、技術專家和 AI 研究者是世界上最優秀的。」

「對我們來說,要在中國市場提供價值,我們必須競爭,必須持續推進技術。」

H200 的競爭力是時間窗口的問題:「H200 在市場上具有競爭力。它不會永遠具有競爭力。法規為了讓美國保持市場競爭力,也需要持續演進。」

Groq 交易:200 億美元的推理技術佈局

NVIDIA 以約 200 億美元(約港幣 1,560 億元)取得 Groq 的技術授權並招攬其核心團隊,包括行政總裁 Jonathan Ross——他被認為是 Google TPU 的創始者之一。

黃仁勳澄清這不是全資收購:「雖然我們正在招聘人才並授權 Groq 的 IP,但我們並非收購 Groq 作為一家公司。」GroqCloud 將繼續獨立營運。

「NVIDIA 和 Groq 做的事情非常不同。我不期望這會取代 Vera Rubin……但我們可能能夠以某種方式加入他們的技術,讓世界能做一些之前做不到的事。」

更多細節將在 GTC 2026 揭曉。

產業案例:Siemens、Eli Lilly 與軟件生態系統

黃仁勳點名了幾個具體的產業合作案例,值得其他產業行政總裁參考。

製造業:與 Siemens 的合作。「Siemens 是全球最大的工業軟件公司,幾乎在每個工廠、每個產業都有佈局。我們正在合作將 AI 帶入工廠自動化——從軟件加速、實體 AI、AI 物理模擬到 Omniverse 數碼孿生。」黃仁勳當天與 Siemens 行政總裁 Roland Busch 進行了聯合記者會。

製藥業:「Eli Lilly 是全球最大的藥廠,我們正在為他們建造內部超級電腦。」這代表了 AI 基礎設施從雲端向企業內部部署延伸的趨勢。

軟件生態系統:Snowflake、ServiceNow、Palantir、Cadence、Synopsis 等公司也在與 NVIDIA 合作。「我們需要確保每個人都一起前進。整個產業的韌性會更強。」

這些案例的共同點:AI 不再只是雲端服務商的遊戲。傳統產業的龍頭企業正在建立自己的 AI 基礎設施。

資本配置:投資「世界無法製造」的技術

「我們投資於世界無法製造或不願製造的技術。」

黃仁勳闡述 NVIDIA 的資本配置哲學時,這句話揭示了公司的護城河策略。

上游:NVIDIA 是首家 HBM4 量產用戶。「我們與 TSMC 合作了超過 25 年,將近 30 年。我們的規劃部門幾乎每天都在更新彼此的資訊。」

下游:投資於 CoreWeave、Lambda、Nscale 等 AI 雲端初創。「我們的下游供應鏈是地球上任何公司中最多元、規模最大的——每個雲端服務商、每個電腦製造商,還有像 Tesla 和 Eli Lilly 這樣的企業內部部署。」

這種「上下游通吃」的策略,讓 NVIDIA 不只是賣晶片,而是成為整個 AI 生態系統的關鍵節點。

AI 政策:「我不想開 50 年前的車」

在 AI 政策議題上,黃仁勳直接挑戰了「放慢腳步等於更安全」的觀點。

「很多人認為讓技術慢下來會帶來更好的安全性。我真的很慶幸汽車有進步。我真的不想開一輛 50 年前的車,因為我不認為那很安全。我也不想搭 70 年前的飛機。」

「如果在幾年前有人說『讓我們凍結 AI』的時候創新就停止了,那麼第一版的 ChatGPT 就是我們所擁有的一切。那怎麼會是更安全的 AI?」

他主張統一的聯邦法規:「擁有一套法律,將能讓產業一方面保持安全,另一方面盡可能快速創新。創新、速度與安全是並行的。」

人才啟示:六顆晶片,四顆來自以色列

記者會上一個令人印象深刻的細節:Vera Rubin 平台的六顆晶片中,有四顆來自以色列團隊。

「ConnectX-9、NVLink Switch 6、搭載共封裝光學的 Spectrum-X、BlueField-4——六顆晶片中有四顆來自以色列。相當驚人。」

這個團隊源自 2019 年 NVIDIA 以 69 億美元(約港幣 538.2 億元)收購的 Mellanox Technologies。更驚人的是留任率:「我們的流動率極低——在以色列大概是 1% 到 2%。有員工在我們的以色列辦公室待了 25 年、20 年。」

黃仁勳將此歸因於「我們已有的優秀人才、我們的文化、以及工作質素。行政總裁的職責之一,就是選擇公司應該做什麼樣的工作,不應該做什麼樣的工作。」

對其他行政總裁的啟示:在 AI 人才爭奪戰中,薪酬只是其中一個因素。工作質素和意義可能更重要。

結語:黃仁勳當 CEO 33 年的秘訣

在近兩小時的問答中,黃仁勳展現了罕見的坦率。他不迴避挑戰——承認 Vera Rubin 的開發「極其困難」、「世界上只有一家公司能以這種規模和速度做到」、Huawei 是強大的競爭對手、H200 的競爭優勢有時效性。

當被問及擔任行政總裁 33 年的秘訣時,他的回答出人意料地簡單:「一、不被解僱;二、不感到無聊。我不知道哪個先發生。」

能做多久?「只要我還值得這個位置。」

「我們是這個產業的領航者。全球的供應鏈夥伴和合作夥伴都指望我們做好自己的工作。這帶來了巨大的責任——但這也是我們花了 33 年、將近 34 年才走到這裡的原因。你做一件事做 34 年,你會搞清楚的——連我都能搞清楚。」

對競爭者的最後一句話:「我期待你們的競爭。你們得努力工作。」

給決策者的五個行動建議

重新評估 IT 預算結構。 10 萬億美元(約港幣 78 萬億元)正在從傳統運算轉向 AI。請自問:你的預算轉移速度是否跟得上競爭對手?

關注「每瓦 token 產出」這個新指標。 在電力受限的環境下,能效等於營收。AI 服務的成本結構正在被重新定義。

考慮實體 AI 的時間線。 機械人和自動駕駛汽車不再是遙遠的未來。如果你的產業涉及製造、物流、醫療,「三台電腦」框架值得認真研究。

注意開源模型的崛起。 每四個 token 就有一個來自開源模型。你的競爭對手可能正在用更低成本建立 AI 能力。

人才策略比資本更關鍵。 NVIDIA 只有 4 萬人——「可能是世界上最小的大公司」——但以色列團隊貢獻了六顆新晶片中的四顆,流動率僅 1% 至 2%。工作質素和意義可能比薪酬更重要。

AI 的工業革命正在發生。問題不是這場革命會不會到來,而是你的組織準備好了嗎?