NVIDIA 行政總裁黃仁勳在 CES 2026 Keynote 發佈 Vera Rubin 平台翌日,隨即舉行媒體問答大會。在一個多小時內,他無間斷回答來自世界各地媒體的提問——從 Bloomberg、Reuters、CNN、Wall Street Journal 到台灣、中國、以色列及澳洲的記者
unwire.pro 在現場見證了這場精彩對話。相比前一天的 Keynote,這場問答提供了更多業界洞察:全球 10 萬億美元(約港幣 78 萬億元)IT 基礎設施正加速轉向 AI、AI 首次切入 100 萬億美元(約港幣 780 萬億元)勞動力市場、Vera Rubin 承諾將推理成本降低 10 倍。黃仁勳更罕見地坦承 Huawei 是「強大的競爭對手」,並就中國市場策略與 200 億美元(約港幣 1,560 億元)Groq 收購案給出務實定調。
對於行政總裁和企業決策者來說,這是一個比產品規格更寶貴的資訊來源。以下是重點整理。

預算大遷移:10 萬億美元正在轉向 AI
「錢從哪裡來?就是從那裡來的。」
當有記者追問 AI 投資的資金來源時,黃仁勳的回答一針見血:企業 IT 預算不是在膨脹,而是在轉移——從傳統運算轉向 AI。
「過去 10 到 15 年,全球投入了約 10 萬億美元(約港幣 78 萬億元)的 IT 基礎設施。這 10 萬億美元正在從傳統運算轉型為 AI。」黃仁勳指出。McKinsey 預測,2030 年前全球數據中心投資將達到 7 萬億美元(約港幣 54.6 萬億元)。
但更大的市場在後面。「這是軟件、AI 技術首次不只是工具,它同時也是勞動力。將來會有人形機械人、自動駕駛汽車、軟件編碼代理人、晶片設計代理人。而勞動力產業是 100 萬億美元(約港幣 780 萬億元)。」
這解釋了為何科技巨頭們如此焦慮。Microsoft 在 2025 年第四季財報電話會議中坦承,公司正面臨算力短缺,將影響整個財年。不只是初創公司在搶算力,連全球最大的雲端服務商都供不應求。
「這是類固醇版的摩爾定律(Moore’s Law on steroids)。」黃仁勳用這句話定調整場發布會。AI 模型規模每年增長 10 倍、推理需求因思維鏈等技術增加 5 倍、再加上 Agentic AI 的崛起——三重指數疊加,意味著算力需求正以每年約 50 倍的速度成長。
這個需求曲線,解釋了 NVIDIA 市值為何能突破 4.8 萬億美元(約港幣 37.44 萬億元),也解釋了為何「去年僅 AI 原生初創就獲得 1,500 億美元(約港幣 1.17 萬億元)投資」。
被低估的市場動態:開源模型崛起
「去年的重大驚喜是開源模型的成功——DeepSeek、Qwen、Kimi、Nemotron、Cosmos。」黃仁勳透露了一個被低估的市場動態。
「今天每生成四個 token,就有一個來自開源模型——我認為這個比例被低估了。」
這對 NVIDIA 意味著什麼?更多需求。「這大幅推動了 NVIDIA 和公有雲的需求。現在 Hopper 在雲端的定價實際上正在上漲,所有 Hopper 都被消耗殆盡。」
對企業決策者的啟示:開源模型降低了 AI 採用的門檻。競爭對手可能正在用開源模型建立 AI 能力,而成本只是專有模型的一小部分。
Vera Rubin:CEO 需要知道的三個數字
Vera Rubin 的技術規格可以留給工程師。行政總裁需要知道的是三個數字:
10 倍:推理 token 成本降低的幅度。這直接影響 AI 服務的毛利率。
5 倍:推理效能的提升。同樣的硬件投資,能處理更多任務。
4 倍:訓練大型模型所需的 GPU 數量減少。資本支出直接下降。
「每一代之間,功耗增加 2 倍,但效能增加 10 倍,」黃仁勳解釋,「能效提升了 5 倍。這直接轉化為客戶的營收——在有限功率的數據中心內,我們能產出更多 token,營收就上升。」
這個邏輯很重要:在電力受限的環境下(大多數企業都是如此),能效等於營收。「每瓦 token 產出」正在成為新的業務指標。
時間線方面,Vera Rubin 已進入全面量產,2026 下半年開始供貨。首批部署的是 Microsoft、AWS、Google Cloud、Oracle,以及 CoreWeave、Lambda 等 AI 雲端初創。
值得注意的是,不只是雲端巨頭在擁抱這個平台。Dell、HPE、Lenovo 等傳統 IT 廠商也宣布將整合 Vera Rubin。這意味著 AI 基礎設施正在從「雲端專屬」走向「企業主流」。
Microsoft 的下一代 Fairwater AI 超級工廠將部署數十萬顆 Vera Rubin 超級晶片——這是迄今為止最大規模的單一部署承諾。
工程投入方面,黃仁勳透露:「Vera Rubin 已經是 15,000 工程年。從現在到年底在數據中心部署,可能還要再投入 25,000 工程年。這是一項龐大的工程。」他坦言:「我們正在做的事情極其困難。世界上只有一家公司能以這種規模和速度做到。」
Blackwell 客戶怎麼辦?軟件投資受保障
「我剛買了 Blackwell,現在你告訴我 Vera Rubin 快 5 倍?」
Yahoo Finance 記者代替眾多企業客戶提出了這個尖銳問題。黃仁勳的回應揭示了 NVIDIA 的平台策略核心。
「CUDA 相容性橫跨整個數據中心。當我們更新軟件時,客戶過去建置的所有 AI 工廠都會獲得效能提升。你不需要最佳化 17 種不同的堆疊,只需最佳化一種,就能在整個機群上運行。」
換句話說:軟件投資受到保障,硬件可以逐步升級。
但黃仁勳也坦承為何年度升級節奏是必要的:「從 Grace Blackwell 到 Vera Rubin,電晶體數量增加約 1.7 倍。如果我宣布一顆晶片快 1.7 倍,幾乎沒有人會為此建新數據中心。這不夠快到讓人去取得 1GW 電力、建造 500 億美元(約港幣 3,900 億元)的 AI 工廠。」
對決策者的意義:NVIDIA 的策略是透過軟件相容性降低轉換成本,同時透過硬件躍升創造足夠的升級誘因。企業的 AI 投資不會過時,但競爭對手的新投資可能獲得 5 至 10 倍的效能優勢。
營運成本革命:熱插拔、電源平滑化、5 分鐘組裝
「AI 工廠」取代「數據中心」不只是行銷術語的更新。它反映了營運模式的根本轉變——以及成本結構的重新計算。
熱插拔:在現有系統中,任何關鍵組件的故障都需要整個機架停機數小時。「現在使用 Vera Rubin,你可以直接拔出故障組件繼續運行,」黃仁勳說,「更驚人的是,你可以在運行中更新軟件。」
電源平滑化:訓練大型模型時,所有 GPU 同時運作,造成瞬間電流波動。許多數據中心因此必須預留電力緩衝,或安裝大量電池。Vera Rubin 透過系統設計解決這個問題,讓 AI 工廠能以更高負載運行。
這個改進有個有趣的連鎖反應:CES 發布後,散熱系統公司的股價下跌了 6% 至 7%(Johnson Controls、Modine Manufacturing)。更高的能效意味著更少的廢熱,也意味著更少的散熱需求。投資者已經在重新評估整個供應鏈。
供應鏈效率:Vera Rubin 採用零線纜設計、100% 液冷,大幅縮短組裝時間。「這台機器的價格相當於一輛汽車,」黃仁勳比喻,「為什麼不能像汽車一樣花幾分鐘組裝?」
實體 AI:機械人今年達到人類級別
「Physical AI 的 ChatGPT 時刻已經到來。」
這不是遙遠的未來。Mercedes-Benz 新款 CLA 將在 2026 年第一季於美國上路,搭載 NVIDIA 的完整自動駕駛堆疊。黃仁勳宣稱它是「世界上最安全的汽車」。
更令人意外的是機械人時間表。當被問及機械人何時能達到人類級別能力,黃仁勳的回答是:「今年。」
他解釋,精細動作技能(如手部操作)仍然困難,但移動能力正取得驚人進展,認知能力則隨著推理模型快速演進。
對於想進入機械人領域的企業,黃仁勳提出了「三台電腦」框架:
第一台:訓練電腦——用於模型的學習與蒸餾。
第二台:模擬電腦——創造符合物理定律的虛擬環境,讓機械人在不危及真實世界的情況下學習。
第三台:機械人大腦——負責即時推理與執行。
「為了成為一家機械人公司,你需要三台電腦,理解這三個步驟,還要建造機械人本身——這極其困難。」但他也指出,這些技術正在匯聚,門檻正在降低。
對創業者的建議:「我的偏好通常是找垂直領域——可能是 EMS 製造、汽車工廠組裝、手術機械人。領域專業可以是很大的優勢。」
關於機械人取代就業的擔憂,黃仁勳的看法恰恰相反:「我們有勞動力短缺——不是差一千、兩千人,而是數千萬人。而且會因為人口下降而惡化。我們需要更多 AI 移民來幫助我們在製造現場工作。」

Alpamayo:首款「會思考」的自動駕駛模型
NVIDIA 發布了 Alpamayo 開源模型家族——首款具備推理能力的視覺語言動作(VLA)模型。
黃仁勳解釋 NVIDIA 自動駕駛系統的獨特架構:「NVIDIA 系統是世界上唯一擁有雙重冗餘的 AV 系統。一套傳統的安全系統,加上一套進行推理的端到端 AI 模型 Alpamayo。」
「如果你的安全系統足夠優秀,無論發生什麼,你永遠不會處於危險中。也許 AI 無法執行某項能力,但它會安全地退回到保持車道或緩慢停車。」
當被問及與 Tesla FSD 的差異時,黃仁勳的回答揭示了平台策略:「Tesla 的 FSD 堆疊完全是世界級的。但 NVIDIA 不製造自動駕駛車,我們為其他所有人建造完整堆疊和技術。我們與整個汽車產業合作——Tesla 的訓練系統、Waymo 的車載電腦、Lucid、Uber、Neuro。我們把一切都開源。」

中國市場與 Groq:務實競爭策略
中國市場的問題在記者會上被多次提出。黃仁勳的回應策略:以訂單說話,低調行事。
「客戶需求很高,非常高。我們的供應鏈已啟動,H200 正在生產線上流動。我們正在與美國政府完成授權的最後細節。」
「我不期待政府會有任何聲明。我只期待訂單。當訂單到來時,訂單說明一切。」
但黃仁勳也罕見地承認競爭壓力:「Huawei 是非常強大的競爭對手,中國有很多初創公司也在做數據中心晶片。中國的創業者、工程師、技術專家和 AI 研究者是世界上最優秀的。」
「對我們來說,要在中國市場提供價值,我們必須競爭,必須持續推進技術。」
H200 的競爭力是時間窗口的問題:「H200 在市場上具有競爭力。它不會永遠具有競爭力。法規為了讓美國保持市場競爭力,也需要持續演進。」
Groq 交易:200 億美元的推理技術佈局
NVIDIA 以約 200 億美元(約港幣 1,560 億元)取得 Groq 的技術授權並招攬其核心團隊,包括行政總裁 Jonathan Ross——他被認為是 Google TPU 的創始者之一。
黃仁勳澄清這不是全資收購:「雖然我們正在招聘人才並授權 Groq 的 IP,但我們並非收購 Groq 作為一家公司。」GroqCloud 將繼續獨立營運。
「NVIDIA 和 Groq 做的事情非常不同。我不期望這會取代 Vera Rubin……但我們可能能夠以某種方式加入他們的技術,讓世界能做一些之前做不到的事。」
更多細節將在 GTC 2026 揭曉。
產業案例:Siemens、Eli Lilly 與軟件生態系統
黃仁勳點名了幾個具體的產業合作案例,值得其他產業行政總裁參考。
製造業:與 Siemens 的合作。「Siemens 是全球最大的工業軟件公司,幾乎在每個工廠、每個產業都有佈局。我們正在合作將 AI 帶入工廠自動化——從軟件加速、實體 AI、AI 物理模擬到 Omniverse 數碼孿生。」黃仁勳當天與 Siemens 行政總裁 Roland Busch 進行了聯合記者會。
製藥業:「Eli Lilly 是全球最大的藥廠,我們正在為他們建造內部超級電腦。」這代表了 AI 基礎設施從雲端向企業內部部署延伸的趨勢。
軟件生態系統:Snowflake、ServiceNow、Palantir、Cadence、Synopsis 等公司也在與 NVIDIA 合作。「我們需要確保每個人都一起前進。整個產業的韌性會更強。」
這些案例的共同點:AI 不再只是雲端服務商的遊戲。傳統產業的龍頭企業正在建立自己的 AI 基礎設施。
資本配置:投資「世界無法製造」的技術
「我們投資於世界無法製造或不願製造的技術。」
黃仁勳闡述 NVIDIA 的資本配置哲學時,這句話揭示了公司的護城河策略。
上游:NVIDIA 是首家 HBM4 量產用戶。「我們與 TSMC 合作了超過 25 年,將近 30 年。我們的規劃部門幾乎每天都在更新彼此的資訊。」
下游:投資於 CoreWeave、Lambda、Nscale 等 AI 雲端初創。「我們的下游供應鏈是地球上任何公司中最多元、規模最大的——每個雲端服務商、每個電腦製造商,還有像 Tesla 和 Eli Lilly 這樣的企業內部部署。」
這種「上下游通吃」的策略,讓 NVIDIA 不只是賣晶片,而是成為整個 AI 生態系統的關鍵節點。
AI 政策:「我不想開 50 年前的車」
在 AI 政策議題上,黃仁勳直接挑戰了「放慢腳步等於更安全」的觀點。
「很多人認為讓技術慢下來會帶來更好的安全性。我真的很慶幸汽車有進步。我真的不想開一輛 50 年前的車,因為我不認為那很安全。我也不想搭 70 年前的飛機。」
「如果在幾年前有人說『讓我們凍結 AI』的時候創新就停止了,那麼第一版的 ChatGPT 就是我們所擁有的一切。那怎麼會是更安全的 AI?」
他主張統一的聯邦法規:「擁有一套法律,將能讓產業一方面保持安全,另一方面盡可能快速創新。創新、速度與安全是並行的。」
人才啟示:六顆晶片,四顆來自以色列
記者會上一個令人印象深刻的細節:Vera Rubin 平台的六顆晶片中,有四顆來自以色列團隊。
「ConnectX-9、NVLink Switch 6、搭載共封裝光學的 Spectrum-X、BlueField-4——六顆晶片中有四顆來自以色列。相當驚人。」
這個團隊源自 2019 年 NVIDIA 以 69 億美元(約港幣 538.2 億元)收購的 Mellanox Technologies。更驚人的是留任率:「我們的流動率極低——在以色列大概是 1% 到 2%。有員工在我們的以色列辦公室待了 25 年、20 年。」
黃仁勳將此歸因於「我們已有的優秀人才、我們的文化、以及工作質素。行政總裁的職責之一,就是選擇公司應該做什麼樣的工作,不應該做什麼樣的工作。」
對其他行政總裁的啟示:在 AI 人才爭奪戰中,薪酬只是其中一個因素。工作質素和意義可能更重要。
結語:黃仁勳當 CEO 33 年的秘訣
在近兩小時的問答中,黃仁勳展現了罕見的坦率。他不迴避挑戰——承認 Vera Rubin 的開發「極其困難」、「世界上只有一家公司能以這種規模和速度做到」、Huawei 是強大的競爭對手、H200 的競爭優勢有時效性。
當被問及擔任行政總裁 33 年的秘訣時,他的回答出人意料地簡單:「一、不被解僱;二、不感到無聊。我不知道哪個先發生。」
能做多久?「只要我還值得這個位置。」
「我們是這個產業的領航者。全球的供應鏈夥伴和合作夥伴都指望我們做好自己的工作。這帶來了巨大的責任——但這也是我們花了 33 年、將近 34 年才走到這裡的原因。你做一件事做 34 年,你會搞清楚的——連我都能搞清楚。」
對競爭者的最後一句話:「我期待你們的競爭。你們得努力工作。」
給決策者的五個行動建議
重新評估 IT 預算結構。 10 萬億美元(約港幣 78 萬億元)正在從傳統運算轉向 AI。請自問:你的預算轉移速度是否跟得上競爭對手?
關注「每瓦 token 產出」這個新指標。 在電力受限的環境下,能效等於營收。AI 服務的成本結構正在被重新定義。
考慮實體 AI 的時間線。 機械人和自動駕駛汽車不再是遙遠的未來。如果你的產業涉及製造、物流、醫療,「三台電腦」框架值得認真研究。
注意開源模型的崛起。 每四個 token 就有一個來自開源模型。你的競爭對手可能正在用更低成本建立 AI 能力。
人才策略比資本更關鍵。 NVIDIA 只有 4 萬人——「可能是世界上最小的大公司」——但以色列團隊貢獻了六顆新晶片中的四顆,流動率僅 1% 至 2%。工作質素和意義可能比薪酬更重要。
AI 的工業革命正在發生。問題不是這場革命會不會到來,而是你的組織準備好了嗎?








