Ring-1T-preview,深思不必久等

最近,我们一直忙于 Ling 2.0 家族 1T 语言基座的后训练,试图最大程度地激发这个万亿规模基座模型的自然语言推理潜力。对如此巨大的模型进行后训练,尤其是大规模强化学习的“调教”,是 Ling Team 自成立以来,遇到最有技术挑战的事情之一。但另一方面,也是不断刷新我们技术认知,不断坚定“scaling is all you need”的过程。

Ring-1T

在大规模强化学习训练的早期,1T 语言基座的思考模型版本 Ring-1T 就已经表现出强大的自然语言推理思考能力。在 AIME 2025(美国数学邀请赛),该模型通过纯自然语言推理即可取得 92.6 的高分,进一步逼近 GPT-5 with thinking (no tools) 的 94.6 水平。此外,在哈佛-麻省理工数学竞赛 HMMT 2025,竞赛级代码生成任务 LiveCodeBench v6 、CodeForces 上,以及抽象推理基准 ARC-AGI-1 等任务中,模型同样展现出极强的竞争力。

图片

为了进一步探索 Ring-1T 早期版本的推理上限,我们将其接入多智能体框架 AWorld(https://github.com/inclusionAI/AWorld),并在 IMO 2025(国际数学奥林匹克竞赛,6道题)上进行了纯自然语言推理测试。

此前,我们曾以相同方法测试过 Ring 系列“二哥”——Ring-flash-2.0。在允许三次推理尝试的设定下,它直到第三次才勉强解出第 3 题。相比之下,Ring-1T 在本次测试中仅用一次推理就解出了第 3 题,并且在第 1、2、4、5 题上也能一次性给出部分正确答案。这不仅展示了顶级数学竞赛所要求的洞察力、构造能力、反例构造、策略思维和严谨的逻辑链推理等高阶能力,也凸显了大尺寸思考模型在推理潜力上的显著提升。我们目前仍在持续开展更多高难度推理任务的测试验证,例如 ICPC、CCPC 等编程竞赛,以进一步挖掘这个万亿思考模型的潜能。

第四题

图片

第五题

图片

为便于社区尽早探索万亿思考模型Ring-1T的推理上限,我们决定提前开源其预览版 Ring-1T-preview。该模型延续Ling 2.0高效MoE架构,在20T高质量语料上完成预训练,结合此前公开的棒冰(icepop)方法,在自研高效强化学习系统ASystem(其中AReaL框架已开源)上进行了针对推理能力的RLVR训练。

Ring-1T 仍在持续训练中,虽然此次发布的预览版已展现出强大的自然语言推理能力,但仍存在语种混杂、推理重复、身份认知错误等问题。我们期待社区的探索与反馈,共同加速万亿基座的迭代完善。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注