樂天釋出「日本最大高效能AI」Rakuten AI 3.0,配置檔案暴露底層架構為DeepSeek V3
MMetaEra
3 月 17 日(UTC+8),據 1M AI News 監測,樂天集團今日以「日本最大高效能AI模型」為名釋出 Rakuten AI 3.0,以 Apache 2.0 協議免費開源。該模型為 MoE(混合專家)架構,總引數671B,每次推理啟用37B,上下文視窗128K,針對日語優化,在多項日語基準測試中超越 GPT-4o。
該模型系經濟產業省與新能源產業技術綜合開發機構(NEDO)聯合推進的 GENIAC 專案成果,日本政府為其提供了部分訓練算力資助。樂天在公告中以「充分利用開源社群最優成果」描述基礎模型來源,未點名具體模型。
社群隨即查閱 HuggingFace 上釋出的模型檔案,發現 config.json 中明確寫入 model_type: deepseek_v3 與 architectures: DeepseekV3ForCausalLM,總引數671B、啟用37B、上下文128K 亦與 DeepSeek V3 完全一致,表明該模型系在 DeepSeek V3 基礎上經日語資料微調而來。
[BlockBeats]