Согласно мониторингу 1M AI News, с открытым исходным кодом векторная база Chroma выпустила Context-1 — агентскую поисковую модель с 20 млрд параметров, предназначенную специально для задач многопроходного (multi-turn) поиска. Веса модели открыты по лицензии Apache 2.0, а код конвейера генерации синтетических данных также опубликован.
Context-1 позиционируется как подагент для поиска (retrieval subagent): он не отвечает напрямую на вопросы, а с помощью многопроходного поиска возвращает набор опорных документов для последующей выведущей (downstream) модели. Ключевая технология — «саморедактируемый контекст» (self-editing context): в процессе поиска модель активно отбрасывает нерелевантные фрагменты документов, освобождая место в ограниченном окне контекста для последующего поиска, чтобы избежать деградации производительности из‑за раздувания контекста.
Обучение разделено на два этапа: сначала с помощью больших моделей, таких как Kimi K2.5, генерируются SFT‑траектории для supervised fine-tuning в режиме прогрева, а затем с помощью обучения с подкреплением (на основе алгоритма CISPO) модель обучают на более чем 8000 синтетических задач. Для дизайна наград используется курсовой механизм: на раннем этапе повторный широкомасштабный поиск (early re-recall) поощряет более широкое исследование, а затем постепенно акцент смещается к точности, поощряя более избирательное сохранение. Базовая модель — gpt-oss-20b, адаптация выполняется с помощью LoRA; при инференсе используется квантизация MXFP4 для работы на B200, пропускная способность достигает 400–500 token/s.
На четырех предметных доменных бенчмарках, созданных внутри Chroma (веб, финансы, право, почта), и на публичных бенчмарках (BrowseComp-Plus, SealQA, FRAMES, HotpotQA) четырехпоточная параллельная версия Context-1 по показателю «доля попаданий в итоговый ответ» находится на уровне или близка к передовым моделям, таким как GPT-5.2, Opus 4.5, Sonnet 4.5; например, на BrowseComp-Plus достигается 0.96 (у Opus 4.5 — 0.87, у GPT-5.2 — 0.82), при этом стоимость и задержка составляют лишь несколько процентов от показателей последних. Стоит отметить, что модель обучалась только на веб-, правовых и финансовых данных, но в домене почты, в котором она не участвовала в обучении, также демонстрирует заметное улучшение, что указывает на переносимость поисковых способностей между доменами.