close
人工智能

AI 效能革命運算成本有望大減 專家混合架構 MoE 成企業部署關鍵

人工智能產業正掀起效能革命,專家混合(MoE)架構令企業部署大型語言模型的成本大幅下降。Microsoft、Google、Meta 等科技巨頭近月相繼推出採用 MoE 架構的開源模型,打破過去「越大越貴」的 AI 發展定律。

MoE 架構突破傳統限制

MoE 架構核心概念是將單一龐大模型分拆成多個專門處理特定任務的「專家」子模型。DeepSeek V3 模型擁有 256 個專家,但處理每個指令時只啟動其中 8 個。這設計令系統只需動用小部分運算資源便能完成任務。

Meta 曾比較旗下兩款模型的效能差異揭示 MoE 優勢,傳統架構的 Llama 3.1 需要價值 234 萬港元的 Nvidia 系統才能流暢運行,採用 MoE 的 Llama 4 Maverick 卻能在成本低一半的硬件上達到更快速度。

量化技術進一步推動成本下降,Google 最新研究顯示,透過訓練時優化可將模型體積壓縮 75% 而幾乎不影響準確度。企業現在能在普通伺服器上運行原本需要專門 AI 硬件的模型。

地緣政治因素也推動技術發展,美國限制高階晶片出口促使中國和其他地區加快開發更高效的 AI 架構。DeepSeek 等公司證明了即使硬件受限,透過架構創新仍能達到世界級 AI 效能。

硬件廠商調整策略迎合新趨勢

Nvidia 最新 RTX Pro Servers 反映市場轉變。這些系統採用遊戲顯示卡使用的 GDDR7 記憶體,取代昂貴的 HBM,令價格大幅下降同時保持足夠效能運行大型 MoE 模型。

Intel 更進一步展示 CPU 運行 AI 的可能性。其 Xeon 6 平台能同時為 24 個用戶提供即時 AI 服務,打破過去 AI 必須依賴 GPU 的觀念。這對預算有限或硬件採購受限的企業特別重要。

對企業而言,過去只有科技巨頭才負擔得起的 AI 技術,現在中型企業也能部署。一家金融科技公司技術總監透露,改用 MoE 模型後,原本需要 8 張高階顯示卡的系統現在只需 2 張便能應付日常客服查詢。

企業部署策略與未來展望

企業部署 AI 時應考慮以下策略:首先評估實際需求,避免過度投資於不必要的運算能力。其次選擇支援 MoE 和量化技術的模型,確保未來升級彈性。最後建立混合架構,結合雲端和本地部署優勢。

IBM 調查顯示四分之三 AI 項目未能達到預期回報,主要原因是硬件成本過高和技術門檻太高。MoE 和量化技術正好解決這兩大痛點,讓更多企業能實際應用 AI 創造價值。
展望未來,預料 2025 年將有更多突破性壓縮技術面世。企業現在開始採用這些新架構,將能在 AI 普及化浪潮中取得先機。隨著運算成本持續下降,AI 應用將從大企業專屬工具變成各行各業的標準配備。

來源:The Register

Tags : aiMoE