Microsoft 研究院劍橋團隊成功開發出全球首個商業級模擬光學電腦 (AOC) 系統,在 AI 推理和最佳化運算中展現比傳統 GPU 高出 100 倍的能效表現。這項突破性技術採用市售光學元件組裝,每次運算週期僅需 20 奈秒,並成功通過 Barclays 銀行金融最佳化及醫療影像重建的實戰驗證。
該系統解決了當前 AI 產業面臨的三大核心挑戰:GPU 供應短缺導致的運算瓶頸、能耗焦慮引發的可持續發展問題,以及傳統數碼架構在大規模 AI 推理中的效率限制。Microsoft 行政總裁 Satya Nadella 日前在《Nature》期刊發表後表示,這項技術將為複雜現實問題提供更高效的解決方案。
GPU 短缺催生運算新路徑
面對 AI 算力需求的爆炸性增長,傳統 GPU 架構已無法滿足產業發展需求。Microsoft 研究院首席研究員 Hitesh Ballani 指出,AOC 系統通過光學矩陣運算與類比電路的創新結合,成功避開了馮諾伊曼瓶頸問題。該系統採用手機相機感光元件、Micro LED 及光學透鏡等消費級零件組裝,在室溫環境下穩定運作,無需昂貴的數碼類比轉換過程。
研究團隊首席經理 Francesca Parmigiani 強調,AOC 並非通用電腦,而是針對特定應用場景設計的專業運算系統。在 Matrix-vector 乘法運算中,光線透過不同強度執行加法與乘法操作,而類比電路則處理非線性運算、減法及退火過程。這種混合架構讓每次迭代運算僅需 20 奈秒完成,直到收斂至固定點解答,較傳統 GPU 架構效率提升數個數量級。
金融醫療場景驗證突破
為證明 AOC 系統的商業可行性,Microsoft 團隊選擇金融最佳化與醫療影像處理兩大高價值應用進行實戰測試。與 Barclays 銀行的合作項目中,AOC 系統在處理縮小版金融結算最佳化問題時,僅需 7 次迭代運算即達到最佳解,展現出遠超傳統運算系統的收斂速度。
醫療應用方面,Microsoft 健康未來團隊利用 AOC 系統處理核磁共振 (MRI) 壓縮感知成像問題,成功重建 32×32 像素的腦部切片影像。透過數碼孿生技術模擬 20 萬種變數的真實 MRI 數據,研究團隊發現 AOC 系統有潛力將傳統 30 分鐘的掃描時間縮短至 5 分鐘,大幅改善患者體驗並降低醫療成本。
機器學習專家 Jannes Gladrow 進一步驗證了 AOC 在深度平衡網絡 (DEQ) 等需要反覆收斂的 AI 模型中的適用性。在 MNIST 及 Fashion-MNIST 影像分類任務中,AOC 與數碼模擬結果達到 99% 一致性,並透過時間複用技術將硬件規模擴展至等效 4096 權重規模,證明其處理大型 AI 推理模型的能力。
產業變革的歷史脈絡
光學運算概念最早可追溯至 1960 年代,但受限於當時的製程技術水準,長期停留在理論研究階段。隨著光纖通訊技術在 1980 年代的成熟發展,以及近年來消費電子元件製造工藝的大幅提升,為光學運算的商業化應用奠定了堅實基礎。
當前 AI 產業正面臨前所未有的運算資源挑戰。根據最新產業報告 2025 年 GPU 短缺問題持續惡化,雲端服務供應商大幅調升 GPU 實例價格,現貨市場價格波動劇烈。NVIDIA H100 GPU 目前能效約為每瓦 4.5 TOPS,而 Microsoft 預估成熟版 AOC 系統可達每瓦 500 TOPS,能效差距達到兩個數量級。
這項技術突破正值全球 AI 基礎設施轉型的關鍵時刻。香港特區政府在《氣候行動藍圖》中訂定 2050 年碳中和目標,計劃將商業建築用電量較 2015 年減少 30-40%,其中 AI 運算能效提升將成為重要策略。
重新定義 AI 基礎設施未來
AOC 技術的成功驗證預示著 AI 運算基礎設施即將迎來根本性變革。Microsoft 規劃透過模組化擴展將系統支援範圍提升至 0.1-20 億權重規模,使其成為 AI 推理階段的低功耗基礎設施。研究團隊已開放數碼孿生平台,吸引更多研究機構參與技術改善,加速商業化過程。
對企業而言 AOC 技術將顯著降低大規模 AI 部署的能耗成本與硬件依賴程度,特別是在金融風險建模、醫療影像診斷等對運算效率要求極高的場景。然而該技術目前仍專注於特定應用領域,距離取代通用 GPU 還需更多技術驗證與生態系統建設。