馬斯克 xAI 推出 Grok-1.5 大語言模型:提升推理能力,可處理128k上下文
3 月 29 日消息,馬斯克旗下人工智能公司 xAI 今天在官方博客中宣布,正式推出 Grok-1.5 大語言模型。
Grok-1.5 具有改進的推理能力和 128k 的上下文長度,其中最顯著的改進之一是其在編碼和數(shù)學相關任務中的表現(xiàn)。Grok-1.5 將在未來幾天內在 ? 平臺上向早期測試人員和現(xiàn)有的 Grok 用戶推出。
在官方測試中,Grok-1.5 在 MATH 基準上取得了 50.6% 的成績,在 GSM8K 基準上取得了 90% 的成績,這兩個數(shù)學基準涵蓋了廣泛的小學到高中競賽問題。此外,它在評估代碼生成和解決問題能力的 HumanEval 基準測試中得分為 74.1%。IT之家附測試對比表如下:
長上下文理解方面,Grok-1.5 能夠在其上下文窗口內處理多達 128k tokens 的長上下文。這使得 Grok 的內存容量增加到之前上下文長度的 16 倍,從而能夠理解更長文檔中的信息。
據(jù)介紹,Grok-1.5 構建在基于 JAX、Rust 和 Kubernetes 的自定義分布式訓練框架之上。自定義訓練協(xié)調器可確保自動檢測到有問題的節(jié)點并將其從訓練作業(yè)中剔除。xAI 還優(yōu)化了檢查點、數(shù)據(jù)加載和訓練作業(yè)重新啟動,以最大限度地減少發(fā)生故障時的停機時間。