Uber 引入 AWS Trainium3 晶片 提昇無人駕駛與配對算力

Uber 宣佈擴大與 AWS 戰略合作,全面採用 Graviton4 處理器及 Trainium3 的 AI 晶片。此舉期望能加強全球即時配對算力,並大幅減低模型訓練成本,為年底香港推出無人駕駛的士服務奠定技術基礎。



Uber 擴大與 AWS 的戰略合作,採用 AWS 自家研發的 Graviton4 處理器及 Trainium3 AI 訓練晶片。新硬件將用作處理全球每日數百萬次行程的即時配對運算,並試行利用龐大行程數據來訓練新一代 AI 模型。

雙方於 2026 年 4 月 7 日公布合作細節。Uber 是全球最大叫車及外賣平台,每月活躍用戶超過 2 億,累積行程紀錄超過 135 億次。系統需要在乘客點擊叫車到司機接單的幾百毫秒內完成運算,極度依賴龐大運算資源。這次升級即時基礎架構和擴展 AI 能力,將直接影響亞太區業務發展,包括計劃年底在香港推出的無人駕駛的士服務。

毫秒級的商業戰場

Uber 的核心業務講求高頻即時資源配對。乘客按下叫車鍵的一刻,後台系統必須在幾百毫秒內篩選司機、計算路線、估計到達時間並釐定價格。任何運算延遲都會直接流失用戶。

為應付龐大運算量,Uber 採用「行程服務區」(Trip Serving Zones)架構,按地理區域劃分全球即時配對工作,分佈到多個計算節點同時處理。今次擴充的重點,是將更多 Trip Serving Zones 轉移到 AWS Graviton4 伺服器運作。Graviton4 是 Amazon 採用 Arm 架構自家研發的第四代伺服器晶片,專為低延遲及高數據吞吐量的雲端工作而設。

Uber 工程副總裁 Kamran Zargahi 強調,對 Uber 的營運規模而言,一毫秒的差異也足以影響全局。AWS 北美區副總裁兼董事總經理 Rich Geraffo 表示,期望能協助 Uber 建立更強大的 AI 能力,處理每日數以億計用戶的叫車與物流需求。

為了追求極致反應速度,Uber 不斷在伺服器架構尋找效能與成本的最佳化方案。Graviton4 剛好取得平衡,比起傳統 x86 伺服器更省電,而且單位算力成本較低。對於 Uber 這類全球營運的平台,提升 1% 效率就等於每年節省數百萬美元(約數千萬港元)成本。

試用 Trainium3 降低 AI 訓練成本

除了升級即時基礎設施,Uber 亦開始試用 AWS Trainium3 晶片訓練部分 AI 模型。這些模型負責分析數十億次行程和外賣紀錄,以決定派單給哪位司機或外賣員、計算預計抵達時間,並向用戶推薦最合適的外賣選項。

Trainium3 採用台積電 3 納米製程生產。對比上一代 Trainium2,新晶片的基礎運算能力、能源效率及記憶體頻寬均提升近 4 倍。配備 Trainium3 的 Trn3 UltraServers 最多可容納 144 張晶片,提供高達 362 petaflops 的 FP8 總算力。AWS 首席晶片架構師 Ron Diamant 向《CNBC》透露,Trainium 的 ASIC 設計比起其他硬件供應商,性價比高出 30% 至 40%。最新版本的 Trainium3 更號稱能將雲端伺服器運行成本降低高達 50%。

Uber 累積了 135 億次歷史行程的龐大資料庫,每日新增的行程亦不斷為 AI 模型提供訓練數據。利用 Trainium3 處理這些封閉可控的訓練工作,毋須擔心如推理部署般面對複雜的 Nvidia CUDA 工具鏈相容性問題,採用其他品牌的晶片阻力較小,直接為 Uber 節省開支。AI 訓練場景順理成章成為 AWS 晶片策略的突破口。

不過目前 Trainium3 的部署仍處於試行階段,Uber 未有將所有 AI 訓練工作轉移至 AWS。早前有報告顯示,部分初創企業測試 Trainium2 時遇到效能不穩和存取受限等問題。考慮到 Uber 的營運規模對服務穩定性要求極高,先作小規模試行是控制風險的合理做法。

分散投資的多雲端策略

Uber 早於 2023 年已跟甲骨文雲端基礎設施(OCI)及 Google Cloud 簽署 7 年協議,放棄自建數據中心並轉用雙雲端架構。今次引入 AWS,反映 Uber 試圖避免被單一供應商綑綁。讓三大雲端服務商互相競爭,有助 Uber 增加議價籌碼,將不同的運算工作分配到性價比最高的平台。

在技術分工上,Uber 將對延遲極敏感的 Trip Serving Zones 轉移至 Graviton4,顯示他們認可 AWS 伺服器的性價比。至於試用 Trainium3,則是為測試 AWS AI 訓練的經濟效益,評估它能否與 OCI 及 Google Cloud 的現有 GPU 資源匹敵。

成功爭取 Uber 這個全球運算需求最嚴苛的即時處理平台成為客戶,對 AWS 而言具有強大的指標作用。這項合作讓 AWS 的自家研發晶片客戶名單,在 Anthropic、OpenAI 及 Apple 以外再添一員猛將。

配合年底香港無人駕駛的士計劃

這次後台架構升級亦直接關乎香港市場的發展。Uber 計劃於 2026 年底在香港推出無人駕駛的士服務,屆時香港將會與馬德里、休斯頓及蘇黎世同步啟動計劃,成為亞洲首個自動駕駛市場。Uber 早在今年 2 月已率先推出香港至澳門的跨境專車預約服務,固定車費已包橋隧費,進一步打通大灣區交通網絡。

管理無人駕駛車隊對 AI 模型的準確度要求極高。系統需要即時處理感應器數據、路況變化及乘客需求。AWS 的硬件升級及 Trainium3 試行計劃,正是為了應付未來更龐大的算力需求。市場調查機構 S&P Global 的汽車報告亦指出,香港已成為 Uber 2026 年亞洲自動駕駛戰略的核心。

這次 Trainium3 的試用結果,將會決定 Uber 未來會否將更多 AI 訓練工作由 Nvidia GPU 轉移至 Amazon 的自家晶片。對於每日使用 Uber 叫車和外賣服務的香港用戶來說,這場雲端晶片大戰的最終贏家是誰並不重要,最實際的影響,是我們的手機應用程式能否做到更快的司機配對、更準確的到達時間預測,以及更貼心的外賣推介。

 

資料來源:Amazon AWS官方新聞室 | The Next Web | TechCrunch | CNBC | S&P Global Automotive Insights