close
人工智能業界專訪業界消息機械人科技

NVIDIA CES 2026 深度解讀: 比 Keynote 更有價值的 1 小時 黃仁勳問答大會對企業啟示

NVIDIA 行政總裁黃仁勳在 CES 2026 Keynote 發佈 Vera Rubin 平台翌日,隨即舉行媒體問答大會。在一個多小時內,他無間斷回答來自世界各地媒體的提問——從 Bloomberg、Reuters、CNN、Wall Street Journal 到台灣、中國、以色列及澳洲的記者

unwire.pro 在現場見證了這場精彩對話。相比前一天的 Keynote,這場問答提供了更多業界洞察:全球 10 萬億美元(約港幣 78 萬億元)IT 基礎設施正加速轉向 AI、AI 首次切入 100 萬億美元(約港幣 780 萬億元)勞動力市場、Vera Rubin 承諾將推理成本降低 10 倍。黃仁勳更罕見地坦承 Huawei 是「強大的競爭對手」,並就中國市場策略與 200 億美元(約港幣 1,560 億元)Groq 收購案給出務實定調。

對於行政總裁和企業決策者來說,這是一個比產品規格更寶貴的資訊來源。以下是重點整理。

 

預算大遷移:10 萬億美元正在轉向 AI

「錢從哪裡來?就是從那裡來的。」

當有記者追問 AI 投資的資金來源時,黃仁勳的回答一針見血:企業 IT 預算不是在膨脹,而是在轉移——從傳統運算轉向 AI。

「過去 10 到 15 年,全球投入了約 10 萬億美元(約港幣 78 萬億元)的 IT 基礎設施。這 10 萬億美元正在從傳統運算轉型為 AI。」黃仁勳指出。McKinsey 預測,2030 年前全球數據中心投資將達到 7 萬億美元(約港幣 54.6 萬億元)。

但更大的市場在後面。「這是軟件、AI 技術首次不只是工具,它同時也是勞動力。將來會有人形機械人、自動駕駛汽車、軟件編碼代理人、晶片設計代理人。而勞動力產業是 100 萬億美元(約港幣 780 萬億元)。」

這解釋了為何科技巨頭們如此焦慮。Microsoft 在 2025 年第四季財報電話會議中坦承,公司正面臨算力短缺,將影響整個財年。不只是初創公司在搶算力,連全球最大的雲端服務商都供不應求。

「這是類固醇版的摩爾定律(Moore’s Law on steroids)。」黃仁勳用這句話定調整場發布會。AI 模型規模每年增長 10 倍、推理需求因思維鏈等技術增加 5 倍、再加上 Agentic AI 的崛起——三重指數疊加,意味著算力需求正以每年約 50 倍的速度成長。

這個需求曲線,解釋了 NVIDIA 市值為何能突破 4.8 萬億美元(約港幣 37.44 萬億元),也解釋了為何「去年僅 AI 原生初創就獲得 1,500 億美元(約港幣 1.17 萬億元)投資」。

被低估的市場動態:開源模型崛起

「去年的重大驚喜是開源模型的成功——DeepSeek、Qwen、Kimi、Nemotron、Cosmos。」黃仁勳透露了一個被低估的市場動態。

「今天每生成四個 token,就有一個來自開源模型——我認為這個比例被低估了。」

這對 NVIDIA 意味著什麼?更多需求。「這大幅推動了 NVIDIA 和公有雲的需求。現在 Hopper 在雲端的定價實際上正在上漲,所有 Hopper 都被消耗殆盡。」

對企業決策者的啟示:開源模型降低了 AI 採用的門檻。競爭對手可能正在用開源模型建立 AI 能力,而成本只是專有模型的一小部分。

Vera Rubin:CEO 需要知道的三個數字

Vera Rubin 的技術規格可以留給工程師。行政總裁需要知道的是三個數字:

10 倍:推理 token 成本降低的幅度。這直接影響 AI 服務的毛利率。

5 倍:推理效能的提升。同樣的硬件投資,能處理更多任務。

4 倍:訓練大型模型所需的 GPU 數量減少。資本支出直接下降。

「每一代之間,功耗增加 2 倍,但效能增加 10 倍,」黃仁勳解釋,「能效提升了 5 倍。這直接轉化為客戶的營收——在有限功率的數據中心內,我們能產出更多 token,營收就上升。」

這個邏輯很重要:在電力受限的環境下(大多數企業都是如此),能效等於營收。「每瓦 token 產出」正在成為新的業務指標。

時間線方面,Vera Rubin 已進入全面量產,2026 下半年開始供貨。首批部署的是 Microsoft、AWS、Google Cloud、Oracle,以及 CoreWeave、Lambda 等 AI 雲端初創。

值得注意的是,不只是雲端巨頭在擁抱這個平台。Dell、HPE、Lenovo 等傳統 IT 廠商也宣布將整合 Vera Rubin。這意味著 AI 基礎設施正在從「雲端專屬」走向「企業主流」。

Microsoft 的下一代 Fairwater AI 超級工廠將部署數十萬顆 Vera Rubin 超級晶片——這是迄今為止最大規模的單一部署承諾。

工程投入方面,黃仁勳透露:「Vera Rubin 已經是 15,000 工程年。從現在到年底在數據中心部署,可能還要再投入 25,000 工程年。這是一項龐大的工程。」他坦言:「我們正在做的事情極其困難。世界上只有一家公司能以這種規模和速度做到。」

Blackwell 客戶怎麼辦?軟件投資受保障

「我剛買了 Blackwell,現在你告訴我 Vera Rubin 快 5 倍?」

Yahoo Finance 記者代替眾多企業客戶提出了這個尖銳問題。黃仁勳的回應揭示了 NVIDIA 的平台策略核心。

「CUDA 相容性橫跨整個數據中心。當我們更新軟件時,客戶過去建置的所有 AI 工廠都會獲得效能提升。你不需要最佳化 17 種不同的堆疊,只需最佳化一種,就能在整個機群上運行。」

換句話說:軟件投資受到保障,硬件可以逐步升級。

但黃仁勳也坦承為何年度升級節奏是必要的:「從 Grace Blackwell 到 Vera Rubin,電晶體數量增加約 1.7 倍。如果我宣布一顆晶片快 1.7 倍,幾乎沒有人會為此建新數據中心。這不夠快到讓人去取得 1GW 電力、建造 500 億美元(約港幣 3,900 億元)的 AI 工廠。」

對決策者的意義:NVIDIA 的策略是透過軟件相容性降低轉換成本,同時透過硬件躍升創造足夠的升級誘因。企業的 AI 投資不會過時,但競爭對手的新投資可能獲得 5 至 10 倍的效能優勢。

 

營運成本革命:熱插拔、電源平滑化、5 分鐘組裝

「AI 工廠」取代「數據中心」不只是行銷術語的更新。它反映了營運模式的根本轉變——以及成本結構的重新計算。

熱插拔:在現有系統中,任何關鍵組件的故障都需要整個機架停機數小時。「現在使用 Vera Rubin,你可以直接拔出故障組件繼續運行,」黃仁勳說,「更驚人的是,你可以在運行中更新軟件。」

電源平滑化:訓練大型模型時,所有 GPU 同時運作,造成瞬間電流波動。許多數據中心因此必須預留電力緩衝,或安裝大量電池。Vera Rubin 透過系統設計解決這個問題,讓 AI 工廠能以更高負載運行。

這個改進有個有趣的連鎖反應:CES 發布後,散熱系統公司的股價下跌了 6% 至 7%(Johnson Controls、Modine Manufacturing)。更高的能效意味著更少的廢熱,也意味著更少的散熱需求。投資者已經在重新評估整個供應鏈。

供應鏈效率:Vera Rubin 採用零線纜設計、100% 液冷,大幅縮短組裝時間。「這台機器的價格相當於一輛汽車,」黃仁勳比喻,「為什麼不能像汽車一樣花幾分鐘組裝?」

實體 AI:機械人今年達到人類級別

「Physical AI 的 ChatGPT 時刻已經到來。」

這不是遙遠的未來。Mercedes-Benz 新款 CLA 將在 2026 年第一季於美國上路,搭載 NVIDIA 的完整自動駕駛堆疊。黃仁勳宣稱它是「世界上最安全的汽車」。

更令人意外的是機械人時間表。當被問及機械人何時能達到人類級別能力,黃仁勳的回答是:「今年。」

他解釋,精細動作技能(如手部操作)仍然困難,但移動能力正取得驚人進展,認知能力則隨著推理模型快速演進。

對於想進入機械人領域的企業,黃仁勳提出了「三台電腦」框架:

第一台:訓練電腦——用於模型的學習與蒸餾。

第二台:模擬電腦——創造符合物理定律的虛擬環境,讓機械人在不危及真實世界的情況下學習。

第三台:機械人大腦——負責即時推理與執行。

「為了成為一家機械人公司,你需要三台電腦,理解這三個步驟,還要建造機械人本身——這極其困難。」但他也指出,這些技術正在匯聚,門檻正在降低。

對創業者的建議:「我的偏好通常是找垂直領域——可能是 EMS 製造、汽車工廠組裝、手術機械人。領域專業可以是很大的優勢。」

關於機械人取代就業的擔憂,黃仁勳的看法恰恰相反:「我們有勞動力短缺——不是差一千、兩千人,而是數千萬人。而且會因為人口下降而惡化。我們需要更多 AI 移民來幫助我們在製造現場工作。」

Alpamayo:首款「會思考」的自動駕駛模型

NVIDIA 發布了 Alpamayo 開源模型家族——首款具備推理能力的視覺語言動作(VLA)模型。

黃仁勳解釋 NVIDIA 自動駕駛系統的獨特架構:「NVIDIA 系統是世界上唯一擁有雙重冗餘的 AV 系統。一套傳統的安全系統,加上一套進行推理的端到端 AI 模型 Alpamayo。」

「如果你的安全系統足夠優秀,無論發生什麼,你永遠不會處於危險中。也許 AI 無法執行某項能力,但它會安全地退回到保持車道或緩慢停車。」

當被問及與 Tesla FSD 的差異時,黃仁勳的回答揭示了平台策略:「Tesla 的 FSD 堆疊完全是世界級的。但 NVIDIA 不製造自動駕駛車,我們為其他所有人建造完整堆疊和技術。我們與整個汽車產業合作——Tesla 的訓練系統、Waymo 的車載電腦、Lucid、Uber、Neuro。我們把一切都開源。」

中國市場與 Groq:務實競爭策略

中國市場的問題在記者會上被多次提出。黃仁勳的回應策略:以訂單說話,低調行事。

「客戶需求很高,非常高。我們的供應鏈已啟動,H200 正在生產線上流動。我們正在與美國政府完成授權的最後細節。」

「我不期待政府會有任何聲明。我只期待訂單。當訂單到來時,訂單說明一切。」

但黃仁勳也罕見地承認競爭壓力:「Huawei 是非常強大的競爭對手,中國有很多初創公司也在做數據中心晶片。中國的創業者、工程師、技術專家和 AI 研究者是世界上最優秀的。」

「對我們來說,要在中國市場提供價值,我們必須競爭,必須持續推進技術。」

H200 的競爭力是時間窗口的問題:「H200 在市場上具有競爭力。它不會永遠具有競爭力。法規為了讓美國保持市場競爭力,也需要持續演進。」

Groq 交易:200 億美元的推理技術佈局

NVIDIA 以約 200 億美元(約港幣 1,560 億元)取得 Groq 的技術授權並招攬其核心團隊,包括行政總裁 Jonathan Ross——他被認為是 Google TPU 的創始者之一。

黃仁勳澄清這不是全資收購:「雖然我們正在招聘人才並授權 Groq 的 IP,但我們並非收購 Groq 作為一家公司。」GroqCloud 將繼續獨立營運。

「NVIDIA 和 Groq 做的事情非常不同。我不期望這會取代 Vera Rubin……但我們可能能夠以某種方式加入他們的技術,讓世界能做一些之前做不到的事。」

更多細節將在 GTC 2026 揭曉。

產業案例:Siemens、Eli Lilly 與軟件生態系統

黃仁勳點名了幾個具體的產業合作案例,值得其他產業行政總裁參考。

製造業:與 Siemens 的合作。「Siemens 是全球最大的工業軟件公司,幾乎在每個工廠、每個產業都有佈局。我們正在合作將 AI 帶入工廠自動化——從軟件加速、實體 AI、AI 物理模擬到 Omniverse 數碼孿生。」黃仁勳當天與 Siemens 行政總裁 Roland Busch 進行了聯合記者會。

製藥業:「Eli Lilly 是全球最大的藥廠,我們正在為他們建造內部超級電腦。」這代表了 AI 基礎設施從雲端向企業內部部署延伸的趨勢。

軟件生態系統:Snowflake、ServiceNow、Palantir、Cadence、Synopsis 等公司也在與 NVIDIA 合作。「我們需要確保每個人都一起前進。整個產業的韌性會更強。」

這些案例的共同點:AI 不再只是雲端服務商的遊戲。傳統產業的龍頭企業正在建立自己的 AI 基礎設施。

資本配置:投資「世界無法製造」的技術

「我們投資於世界無法製造或不願製造的技術。」

黃仁勳闡述 NVIDIA 的資本配置哲學時,這句話揭示了公司的護城河策略。

上游:NVIDIA 是首家 HBM4 量產用戶。「我們與 TSMC 合作了超過 25 年,將近 30 年。我們的規劃部門幾乎每天都在更新彼此的資訊。」

下游:投資於 CoreWeave、Lambda、Nscale 等 AI 雲端初創。「我們的下游供應鏈是地球上任何公司中最多元、規模最大的——每個雲端服務商、每個電腦製造商,還有像 Tesla 和 Eli Lilly 這樣的企業內部部署。」

這種「上下游通吃」的策略,讓 NVIDIA 不只是賣晶片,而是成為整個 AI 生態系統的關鍵節點。

AI 政策:「我不想開 50 年前的車」

在 AI 政策議題上,黃仁勳直接挑戰了「放慢腳步等於更安全」的觀點。

「很多人認為讓技術慢下來會帶來更好的安全性。我真的很慶幸汽車有進步。我真的不想開一輛 50 年前的車,因為我不認為那很安全。我也不想搭 70 年前的飛機。」

「如果在幾年前有人說『讓我們凍結 AI』的時候創新就停止了,那麼第一版的 ChatGPT 就是我們所擁有的一切。那怎麼會是更安全的 AI?」

他主張統一的聯邦法規:「擁有一套法律,將能讓產業一方面保持安全,另一方面盡可能快速創新。創新、速度與安全是並行的。」

人才啟示:六顆晶片,四顆來自以色列

記者會上一個令人印象深刻的細節:Vera Rubin 平台的六顆晶片中,有四顆來自以色列團隊。

「ConnectX-9、NVLink Switch 6、搭載共封裝光學的 Spectrum-X、BlueField-4——六顆晶片中有四顆來自以色列。相當驚人。」

這個團隊源自 2019 年 NVIDIA 以 69 億美元(約港幣 538.2 億元)收購的 Mellanox Technologies。更驚人的是留任率:「我們的流動率極低——在以色列大概是 1% 到 2%。有員工在我們的以色列辦公室待了 25 年、20 年。」

黃仁勳將此歸因於「我們已有的優秀人才、我們的文化、以及工作質素。行政總裁的職責之一,就是選擇公司應該做什麼樣的工作,不應該做什麼樣的工作。」

對其他行政總裁的啟示:在 AI 人才爭奪戰中,薪酬只是其中一個因素。工作質素和意義可能更重要。

結語:黃仁勳當 CEO 33 年的秘訣

在近兩小時的問答中,黃仁勳展現了罕見的坦率。他不迴避挑戰——承認 Vera Rubin 的開發「極其困難」、「世界上只有一家公司能以這種規模和速度做到」、Huawei 是強大的競爭對手、H200 的競爭優勢有時效性。

當被問及擔任行政總裁 33 年的秘訣時,他的回答出人意料地簡單:「一、不被解僱;二、不感到無聊。我不知道哪個先發生。」

能做多久?「只要我還值得這個位置。」

「我們是這個產業的領航者。全球的供應鏈夥伴和合作夥伴都指望我們做好自己的工作。這帶來了巨大的責任——但這也是我們花了 33 年、將近 34 年才走到這裡的原因。你做一件事做 34 年,你會搞清楚的——連我都能搞清楚。」

對競爭者的最後一句話:「我期待你們的競爭。你們得努力工作。」

給決策者的五個行動建議

重新評估 IT 預算結構。 10 萬億美元(約港幣 78 萬億元)正在從傳統運算轉向 AI。請自問:你的預算轉移速度是否跟得上競爭對手?

關注「每瓦 token 產出」這個新指標。 在電力受限的環境下,能效等於營收。AI 服務的成本結構正在被重新定義。

考慮實體 AI 的時間線。 機械人和自動駕駛汽車不再是遙遠的未來。如果你的產業涉及製造、物流、醫療,「三台電腦」框架值得認真研究。

注意開源模型的崛起。 每四個 token 就有一個來自開源模型。你的競爭對手可能正在用更低成本建立 AI 能力。

人才策略比資本更關鍵。 NVIDIA 只有 4 萬人——「可能是世界上最小的大公司」——但以色列團隊貢獻了六顆新晶片中的四顆,流動率僅 1% 至 2%。工作質素和意義可能比薪酬更重要。

AI 的工業革命正在發生。問題不是這場革命會不會到來,而是你的組織準備好了嗎?

 

Tags : AI InfrastructureCES 2026featureJensen HuangNVIDIAVera Rubin