小米的 MiMo-V2.5 系列开源:1T 参数,相较 GPT-5.4 令牌效率更优

Gate News message, April 27 — Xiaomi’s MiMo team has open-sourced the MiMo-V2.5 series of large language models under MIT license, supporting commercial deployment, continued training, and fine-tuning. Both models feature a 1 million token context window. MiMo-V2.5-Pro is a pure-text mixture-of-experts (MoE) model with 1.02 trillion total parameters and 42 billion active parameters, while MiMo-V2.5 is a native multimodal model with 310 billion total parameters and 15 billion active parameters, supporting text, image, video, and audio understanding.

MiMo-V2.5-Pro targets complex agent and programming tasks. In ClawEval benchmarks, it achieved 64% Pass@3 while consuming approximately 70,000 tokens per task trajectory—40% to 60% fewer tokens than Claude Opus, Gemini 3.1 Pro, and GPT-5.4. The model scored 78.9 on SWE-bench Verified. In a demonstration, V2.5-Pro independently implemented a complete SysY-to-RISC-V compiler for a Peking University compiler course project in 4.3 hours with 672 tool calls, achieving a perfect score of 233/233 on hidden test sets.

MiMo-V2.5 is designed for multimodal agent scenarios, equipped with a dedicated vision encoder (729 million parameters) and audio encoder (261 million parameters), scoring 62.3 on the Claw-Eval general subset. Both models employ a hybrid architecture combining sliding window attention (SWA) and global attention (GA), paired with a 3-layer multi-token prediction (MTP) module for accelerated inference. Model weights are available on Hugging Face.

Alongside the open-source release, the MiMo team launched the “Orbit Quadrillion Token Creator Incentive Program,” offering 100 quadrillion tokens free over 30 days to global users. Individual developers, teams, and enterprises can apply via the program page with an evaluation cycle of approximately 3 business days; approved benefits are distributed as Token Plans or direct credits, compatible with tools like Claude Code and Cursor.

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

Amazon 与 OpenAI 扩大合作:模型上架 Bedrock、微软独家结束

OpenAI 5 月 3 日宣布与亞马遜雲端服務(AWS)擴大合作,OpenAI 模型与 Codex 編碼代理將透过 Amazon Bedrock 提供給 AWS 客戶使用。根據 CNBC 报導,本次擴大是在 4 月底 OpenAI 与微软(Microsoft)終止雲端獨家合约后的关鍵下一步—OpenAI 从「微软雲端唯一」转向多雲端部署。AWS 同期已完成 OpenAI 产品在 Bedrock 平台的初步整合。 背景:OpenAI-微软獨家合约結束、IP 授權延至 2032 年 4 月底 OpenAI 与微软达成新協议:原本的「微软对 OpenAI 产品与 IP 獨家存取」結構結束、Op

鏈新聞abmedia3小时前

研究人员部署 DPN-LE 技术以编辑 AI 个性特征,仅编辑 0.5% 的神经元

据 BlockBeats 报道,5 月 3 日,AI 研究员 Brian Roemmele 披露其 Zero-Human Company 已部署 DPN-LE(Dual Personality Neuron Localization and Editing)技术,以精确调整

GateNews3小时前

Claude 在获得时间工具访问权限后,每 15 分钟检查一次时钟

据开发者 Om Patel 称,Claude AI 在 5 月 3 日获得对时间工具的访问权限后开始频繁查看时钟;该模型每 15 分钟检查一次。该观察表明,大型语言模型此前缺乏原生的时间感知能力,并且并不知道当前时间或

GateNews5小时前

Founders Fund 在 5 月 3 日关闭 60 亿美元旗舰基金,自成立以来规模最大

根据彭博社,Founders Fund 于 5 月 3 日以 60 亿美元完成其最新旗舰基金的募资,显著超过其上一期基金约 34 亿美元。该基金由亿万富翁 Peter Thiel 联合创立,将聚焦包括人工在内的高增长领域

GateNews5小时前

最新 POLITICO 民调:45% 的美国人表示加密货币投资风险太高,44% 担心 AI 进展过快

据 POLITICO 的一项民意调查,尽管 AI 和加密货币行业向 2026 年美国中期选举注入了大量政治资金,美国公众仍大多对这两个领域持怀疑态度。调查发现,45% 的美国人认为投资加密货币不值得

GateNews6小时前

OpenAI 弗萊爾倡 2027 IPO、阿特曼支持 Q4 2026 上市

OpenAI 财务长莎拉·弗莱尔对 2026 年 IPO 时程持谨慎态度,指出近 1 兆美元的算力与数据中心合约远高于当前年化营收 250 亿美元,若增长无法覆盖承诺,风险将被市场折价。与 CEO 阿特曼公开主张的 2026 年 Q4 上市分歧显现,弗莱尔倾向推迟至 2027 年以建立财务纪律;公司多次发表声明否认内部分歧。

鏈新聞abmedia8小时前
评论
0/400
暂无评论