開源賽道也是熱鬧了起來。
就在深夜,字節(jié)跳動 Seed 團隊正式發(fā)布并開源了 Seed-OSS 系列模型,包含三個版本:
Seed-OSS-36B-Base(含合成數(shù)據(jù))
Seed-OSS-36B-Base(不含合成數(shù)據(jù))
Seed-OSS-36B-Instruct(指令微調(diào)版)

Hugging Face 地址:
項目地址:
Seed-OSS 使用了 12 萬億(12T)tokens 進行訓練,并在多個主流開源基準測試中取得了出色的表現(xiàn)。
這三個模型均以 Apache-2.0 許可證發(fā)布,允許研究人員和企業(yè)開發(fā)者自由使用、修改和再分發(fā)。
主要特性:
靈活的推理預算控制:允許用戶根據(jù)需要靈活調(diào)整推理長度。這種對推理長度的動態(tài)控制能力,可在實際應用場景中提升推理效率。
增強的推理能力:在保持平衡且優(yōu)秀的通用能力的同時,針對推理任務進行了特別優(yōu)化。
智能體能力:在涉及工具使用和問題解決等智能體任務中表現(xiàn)突出。
研究友好:考慮到在預訓練中加入合成指令數(shù)據(jù)可能會影響后續(xù)研究,字節(jié)同時發(fā)布了含有與不含指令數(shù)據(jù)的預訓練模型,為研究社區(qū)提供了更多樣化的選擇。
原生長上下文:在訓練中原生支持最長 512K 的上下文窗口。
模型架構(gòu)
Seed-OSS-36B 的架構(gòu)結(jié)合了多種常見的設計選擇,包括因果語言建模、分組查詢注意力(Grouped Query Attention)、SwiGLU 激活函數(shù)、RMSNorm 和 RoPE 位置編碼。
每個模型包含 360 億參數(shù),分布在 64 層網(wǎng)絡中,并支持 15.5 萬詞表。
其最具代表性的特性之一是原生長上下文能力,最大上下文長度可達 512k tokens,能夠在不損失性能的情況下處理超長文檔和推理鏈。
這一長度是 OpenAI 最新 GPT-5 模型系列的兩倍,大約相當于 1600 頁文本。

另一個顯著的特性是引入了推理預算,它允許開發(fā)者在模型給出答案之前,指定模型應執(zhí)行多少推理過程。
這一設計在近期其他一些開源模型中也有所體現(xiàn),例如 Nvidia 新推出的 Nemotron-Nano-9B-v2。
在實際應用中,這意味著團隊可以根據(jù)任務的復雜性和部署的效率需求來調(diào)節(jié)性能。
推薦的預算值為 512 tokens 的倍數(shù),其中 0 表示直接輸出答案的模式。
結(jié)果
基準測試結(jié)果顯示,Seed-OSS-36B 位列當前性能較強的開源大模型之列。
Seed-OSS-36B-Base
含合成數(shù)據(jù)版本的 Base 模型在 MMLU-Pro 上取得 65.1 得分,在 MATH 上取得 81.7 得分。非合成基礎版本雖然在許多方面略微落后,但也具有競爭力。

Seed-OSS-36B-Instruct
Instruct 版本在多個領域都取得了 SOTA 成績。
數(shù)學與推理:Seed-OSS-36B-Instruct 在 AIME24 上取得 91.7% 的成績,在 BeyondAIME 上取得 65,均代表開源領域的最新 SOTA 水平。
代碼能力:在 LiveCodeBench v6 上,Instruct 模型得分 67.4,同樣刷新 SOTA 紀錄。
長上下文處理:在 RULER(128K 上下文長度)測試中,該模型達到 94.6,創(chuàng)下開源模型的最高分。

思考預算
用戶可以靈活指定模型的推理預算。下圖展示了在不同任務中,隨著推理預算變化而產(chǎn)生的性能曲線。
對于較簡單的任務(如 IFEval),模型的思維鏈較短,隨著推理預算的增加,分數(shù)會出現(xiàn)一定波動。
而在更具挑戰(zhàn)性的任務(如 AIME 和 LiveCodeBench)中,模型的思維鏈較長,分數(shù)則會隨著推理預算的增加而提升。

模型在運行過程,會提醒用戶 token 使用情況。
如果未設置推理預算(默認模式),Seed-OSS 將以無限長度啟動推理。
如果指定了推理預算,字節(jié)建議用戶優(yōu)先選擇 512 的整數(shù)倍數(shù)(如 512、1K、2K、4K、8K 或 16K),因為模型已在這些區(qū)間上進行了大量訓練。
當推理預算為 0 時,模型會被指示直接輸出答案;對于低于 512 的預算,字節(jié)也建議統(tǒng)一設為 0。