Согласно мониторингу 1M AI News, сооснователь OpenAI Грег Брокман в интервью вспомнил о скачкообразном улучшении AI-программирования в декабре 2025 года. Он измерял прогресс с помощью тестового промпта, который он много лет бережно сохранял: попросить AI построить сайт, на изучение программирования и создание которого в те годы у него ушло несколько месяцев. В течение всего 2025 года для выполнения этой задачи требовались многократные подсказки и около четырех часов; к декабрю это стало решаться одним промптом, и при этом качество было очень хорошим. Он сказал, что новая модель перевела AI с «способности выполнять примерно 20% задач» на «примерно 80%», и этот скачок заставил всех «обязательно перестроить рабочие процессы вокруг AI».
Относительно того, куда направляются 110 миллиардов долларов финансирования, Брокман сравнил вычислительные мощности с «наймом продавцов»: если у продукта есть масштабируемые каналы продаж, то чем больше продавцов нанимать, тем больше дохода они принесут. Вычислительные мощности — не центр затрат, а центр доходов. Он вспоминает разговор с командой накануне выхода ChatGPT: «Они спрашивали: “Сколько вычислительных мощностей нам нужно купить?” Я говорил: “Все”. Они отвечали: “Нет-нет-нет, серьезно, сколько именно?” Я говорил: “Как бы мы ни строили, мы не успеем за спросом”.» Это суждение актуально и по сей день, а закупка вычислительных мощностей требует заранее зафиксировать планы на 18–24 месяца.
Рассказывая о том, как использовать эти вычислительные мощности, Брокман сообщил, что OpenAI больше не стремится в первую очередь к максимальному масштабу предварительного обучения, а рассматривает предварительное обучение и стоимость вывода как совместно оптимизируемые цели: «Вам не обязательно делать это максимально большим, потому что вам нужно учитывать многочисленные сценарии вывода в downstream, где вы действительно хотите получить оптимальное решение — “интеллект, умноженный на стоимость”». Но он четко выступил против тезиса «предварительное обучение больше не важно»: чем умнее базовая модель, тем выше эффективность последующих этапов обучения с подкреплением и вывода, и по-прежнему «абсолютно необходимо» использовать GPU NVIDIA для поддержки масштабного централизованного обучения.