在一份新發佈的技術文件中,Apple 透露其 AI 功能「Apple Intelligence」的底層人工智能模型是在 Google 設計的處理器上預訓練,而不是目前最為熱門的 Nvidia AI 晶片。
Apple 在其 47 頁的技術文件中提到,其 Apple Foundation Model (AFM) 和 AFM 伺服器是在「Cloud TPU clusters」上訓練的,也就是說 Apple 租用了雲端供應商的伺服器來進行 AI 訓練運算而不是自己購入相關器材。文件稱:「這個系統使我們能夠高效且可擴展地訓練 AFM 模型,包括裝置端 AFM、伺服器端 AFM 和更大的模型。」
Nvidia 的高階圖像處理器 (GPU) 現時在高階 AI 訓練晶片市場佔據主導地位,繼 AI 熱潮以來需求激增,已經變得「一卡難求」。OpenAI、Microsoft 和 Anthropic 等公司都在使用 Nvidia 的 GPU 訓練模型。
Apple 的「Apple Intelligence」AI 功能包括圖像生成、表情符號生成和增強版 Siri。據文件顯示,裝置端 AFM 在 2048 個 TPU v5p 晶片上訓練,而伺服器端 AFM 則在 8192 個 TPU v4 晶片上訓練。Apple Intelligence 的預覽版本最近也終於面世,不過實際推出相信還要等到今年秋冬,而且只限美國英文用戶,全球推出則相信還要更長的時間準備。
來源:CNBC