在雲端運作的重量級 AI 模型固然強勁,但在日常使用中,可以在終端裝置例如手機或電腦上快速作出回應的輕量級 AI 模型同樣收到關注。最近 Hugging Face 就推出全新 SmolLM2 模型,配合這方面的需要。
SmolLM2 系列模型提供三種規格,分別為 135M、360M 和 1.7B 參數,採用了 Apache 2.0 授權發佈,適合部署在智能手機等運算資源有限的終端裝置上,支援文章重寫、摘要和函數調用等多種應用,其中 1.7B 參數版本在多項關鍵基準測試中的表現已超越 Meta 的 Llama 1B 模型。
根據 Hugging Face 的模型文件表示,SmolLM2 在指令跟隨、知識、推理和數學等方面都較前代產品有顯著進步。其中最大規格的版本使用了包含 FineWeb-Edu 在內的多元數據集,總訓練量達 11 萬億個標記。在 MT-Bench 評估中,1.7B 模型達到了 6.13 分,與許多更大型的模型相當。不過,目前這些小型模型主要支援英語內容,對其他語言的支援有限,且在事實準確度和邏輯一致性方面仍有改進空間。
來源:VentureBeats