Китайский стартап Moonshot AI, поддерживаемый Alibaba и HongShan, представил новую открытую модель Kimi K2.5, а также open source-инструмент для программирования Kimi Code. Обновленная нейросеть по некоторым показателям обходит лучшие американские нейросети.
Kimi K2.5 –мультимодальная модель, способная работать с текстом, изображениями и видео. По словам компании, модель была обучена на 15 трлн смешанных визуальных и текстовых токенов, что позволило изначально заложить мультимодальное понимание без дополнительных надстроек.
Moonshot AI отмечает, что Kimi K2.5 особенно сильна в задачах программирования и работе с так называемыми agent swarms – оркестрацией, при которой несколько ИИ-агентов совместно решают одну задачу. В опубликованных бенчмарках модель демонстрирует результаты на уровне конкурентов и превосходит их в ряде сценариев.
Так, в кодинговых тестах Kimi K2.5 обходит Gemini 3 Pro в бенчмарке SWE-Bench Verified, а также показывает более высокие результаты, чем GPT-5.2 и Gemini 3 Pro в SWE-Bench Multilingual. В задачах понимания видео модель превосходит GPT-5.2 и Claude Opus 4.5 в бенчмарке VideoMMMU, который оценивает способность ИИ рассуждать на основе видеоконтента.
В компании также подчеркнули, что модель может принимать на вход изображения и видео – например, пользователь может показать интерфейс в медиафайле и попросить воссоздать аналогичный дизайн в коде.
Для практического использования этих возможностей Moonshot AI запустила Kimi Code – открытый инструмент для программирования, который позиционируется как конкурент Claude Code от Anthropic и Gemini CLI от Google. Kimi Code работает через терминал и может интегрироваться с популярными средами разработки, включая VSCode, Cursor и Zed. Инструмент также поддерживает работу с изображениями и видео в качестве входных данных.




