Salesforce 推出 xLAM-1B 模型 規模小但效能超越更大規模的模型

Salesforce 最近推出了一個名為 xLAM-1B 的 AI 模型,其參數只有 10 億,卻在一些場景表現比許多規模更大的模型更優秀,顯示小規模的 AI 模型仍然有很大的潛力。

這個被稱為「小巨人」的模型使用 Salesforce AI Research 創新的數據整理方式訓練。研究團隊開發了自動化管道 APIGen 來生成優質、多樣化和可驗證的數據集,用以訓練 AI 模型進行功能調用 (Function Calling) 應用。除了 1B 版本之外,也有規模稍大的 7B 和 10B 版本,效能同樣超越了同規模甚至更大規模的模型。

研究人員表示:「我們證明,即使只有 70 億參數,使用我們策展的數據集訓練的模型也能在伯克利功能調用基準測試中達到最先進的性能,超越多個 GPT-4 模型。此外,我們的 10 億參數模型表現卓越,超越了 GPT-3.5-Turbo 和 Claude-3 Haiku。」

xLAM-1B 的小規模使其適用於無法運作更大模型的裝置端應用。這可讓企業將更強大和反應迅速的 AI 助手運用在智能手機或其他運算資源有限的裝置上本機運作,也是近來相當收到注目的開發方向。

來源:VentureBeat