
发布于
2025 年 9 月 5 日
Kimi K2-0905:Moonshot 最新的开源模型在 Cline 中上线
Kimi K2-0905 带来了三项重大功能,从根本上改变了编码代理的运作方式:256k 上下文窗口、改进的工具调用和增强的前端开发能力。该模型已通过 Groq(提供约 349 TPS 服务)、Moonshot、OpenRouter、Fireworks 和 Cline 提供商在 Cline 上线。
与七月版本相比的变化
七月的检查点让 Kimi K2 以其强大的工具调用和一致的差异生成能力(目前为 5%,与 Sonnet-4 的 4% 持平,优于 Gemini 2.5 Pro 的 10%)而声名鹊起。K2-0905 在此基础上进行了改进,重点关注对代理工作流最重要的能力。
真正可扩展的上下文窗口
从 131k 增加到 262k token 有助于处理更大的代码库、对话历史和内存中的测试套件,而不会出现上下文边界的典型退化。
模型的注意力机制经过专门调整,适用于长上下文场景。token 分配更智能,在整个窗口中保持连贯性,并且您最终可以停止围绕上下文限制进行工程设计。
性能特征和限制
- 速度:Groq 提供的响应速度足够快,模型延迟不再是工作流的瓶颈。约 349 TPS 的服务容量可处理生产工作负载而不会受到限制。首次请求时预计会有一些预热时间(2-3 秒),但在同一会话中的后续请求会显着加快。
- 上下文效率:256k 窗口保持连贯性,而不会出现您在其他长上下文模型中看到的典型退化。长时间的对话保持专注,并且模型在处理后续 token 时不会忘记较早的上下文。
- 工具可靠性:对于格式良好的工具模式,预期能实现一致的结构化输出,首次成功率达到 95% 或更高。模型很少产生格式错误的 JSON 或意外的参数变体。
- 前端改进:月之暗面注意到 K2-0905 在前端编码方面优于其前身。我们建议在 Act 模式下使用 K2-0905,它可以执行由推理模型设计的计划。
Cline 中的设置
Kimi-K2-0905 可通过 Cline、Groq、Fireworks、Vercel AI Gateway 和 OpenRouter 提供商获取。通过大多数提供商,每 1M token 的价格仍为输入 $1/输出 $3,然而,作为开源模型,价格可能会有所不同。


