Может ли небольшая модель обнаружить уязвимости в области кибербезопасности, выявляемые обнаружением Claude Mythos? AISLE: ров в системе, а не в модели

Кибербезопасностный стартап AISLE использует небольшую модель с 3,6B параметров — всего за 0,11 доллара за каждый миллион токенов — и воспроизводит часть ключевых демонстраций флагманской кибербезопасностной системы Mythos от Anthropic. Границы возможностей ИИ в кибербезопасности куда более «неравномерные», чем вы думаете.
(Предыстория: когда Anthropic выпускает Mythos, это будет момент ядерного взрыва для DeFi?)
(Дополнение к контексту: Mythos от Anthropic настолько силён, что вызвал срочное совещание: Бэссент, Пауэлл созвали Citi, Goldman Sachs, Bank of America, а также Б. и М.; пять банков сосредоточились на финансовых рисках)

Оглавление

Toggle

  • Что продемонстрировал Mythos и что воспроизвела малая модель?
  • Почему более большие модели не равны более безопасной системе
  • Где ров — и где его нет

На этой неделе Anthropic выпустила ранее не анонсированную модель Claude Mythos Preview и параллельно запустила проект Glasswing («Стеклянное крыло»), в рамках которого 12 технологических компаний — включая Amazon, Apple, Microsoft, CrowdStrike, Cisco и др. — используют эту модель для проведения оборонительных исследований в области кибербезопасности.

Поскольку, как утверждается, Mythos автономно находит тысячи zero-day уязвимостей (zero-day vulnerability — уязвимости безопасности, которые ещё не получили публичного исправления, и о которых могут не знать даже поставщики) в каждой ключевой операционной системе и браузере, это намекает на скорое наступление новой эпохи защиты кибербезопасности, где ведущую роль будет играть ИИ.

Однако менее чем за неделю кибербезопасностный стартап AISLE, основанный совместно бывшими исследователями DeepMind и Anthropic Станиславом Фортом (Stanislav Fort), опубликовал в корпоративном техническом блоге систематический отчёт.

Ключевой вывод прямо такой: в флагманской демонстрационной задаче Mythos открытая малая модель с active-параметрами всего 3,6B и стоимостью 0,11 доллара за миллион токенов добилась тех же результатов по обнаружению уязвимостей.

Что продемонстрировал Mythos и что воспроизвела малая модель?

AISLE разработала три набора тестов, каждый из которых соответствует различным по сложности и характеру задачам в кибербезопасности.

Первая группа — тесты на ложноположительные срабатывания OWASP (Open Web Application Security Project, проект по безопасности веб-приложений).

Если перевести по сути: фрагмент Java SQL-запроса выглядит как SQL Injection (атака SQL-инъекцией), но на самом деле логика безопасна. Правильный ответ — отсутствие уязвимости.

Результаты теста показывают почти обратный эффект scaling (масштабирования): небольшая открытая модель GPT-OSS-20b (3,6B active-параметров, $0.11/M tokens) корректно отслеживает логику программы и определяет, что угрозы нет.

Напротив, Claude Sonnet 4.5, все серии GPT-4.1/5.4 (кроме o3 и pro), вся линейка Anthropic вплоть до Opus 4.5 уверенно ошибочно классифицируют это как высокорисковую уязвимость. Правильный ответ дают только немногие топ-модели — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6.

Вторая группа — уязвимость FreeBSD NFS, то самое, что Mythos особенно продемонстрировала в своём флагманском релизе: CVE-2026-4747 — уязвимость удалённого выполнения кода, существующая 17 лет и не имеющая авторизации.

Итог: все 8/8 протестированных моделей успешно обнаружили уязвимость, включая ту малую модель с 3,6B active-параметрами. Все модели корректно распознали stack buffer overflow (переполнение стека буфера), вычислили оставшееся пространство и оценили это как Critical RCE.

Вывод AISLE таков: такая способность обнаружения уже «перешла в разряд товара».

Третья группа — уязвимость OpenBSD SACK (история на 27 лет), где требуется действительно математическое рассуждение: отслеживание многшаговой логической цепочки переполнения со знаком (signed integer overflow).

Сложность заметно растёт, а результаты моделей начинают заметно различаться. GPT-OSS-120b (5,1B active-параметров) полностью воспроизводит цепочку эксплуатации; AISLE оценивает это как A+; открытая версия Kimi K2 получает A-; а Qwen3 32B выдаёт ошибочный вывод «код очень устойчив», оценка F.

Даже в этой более сложной задаче модель с очень низкой стоимостью всё равно добилась равнозначной демонстрации на уровне флагманской системы.

Почему более большие модели не равны более безопасной системе

Настоящий аргумент этого отчёта — не «малой модели достаточно», а то, что структура возможностей ИИ в кибербезопасности гораздо сложнее, чем это видит внешний мир.

AISLE разбивает конвейер ИИ в кибербезопасности на пять независимых подзадач:

  • Широкоспектральное сканирование (broad scanning)
  • Обнаружение уязвимостей (vulnerability detection)
  • Разделение по категориям и валидация (triage and validation)
  • Генерация патчей (patch generation)
  • Конструирование эксплойта (exploit construction)

У каждой подзадачи своя природа scaling, поэтому требуемые способности моделей тоже различаются. Объявление Mythos объединяет эти пять уровней в виде единой системы, но на практике различия в потребностях моделей между ними колоссальны: некоторые подзадачи при 3,6B параметров уже полностью насыщены, а некоторые требуют сложных навыков рассуждения.

Это перекликается с концепцией «Jagged Frontier» («неровная/рваная граница»), которую в 2023 году предложили исследователи Harvard Business School — Dell’Acqua и Mollick и др.: граница возможностей ИИ — не гладкая ровная кривая, а зубчатые пилы с впадинами и выступами; в некоторых задачах ИИ намного превосходит человека, но в соседних задачах — неожиданно хрупок.

Исследование показало, что если пользователи развёртывают ИИ в пределах границы возможностей, производительность растёт примерно на 40%; если же необдуманно выходить за пределы границы, результат, напротив, падает на 19%.

В рамках этой модели AISLE делает более прикладной вывод: «тысяча детективов, которые обыскивают повсюду, вместо одного гениального детектива, который гадает, где искать, — найдут больше уязвимостей».

Массовое развёртывание недорогих моделей для широкоспектрального сканирования в суммарной эффективности может превосходить осторожное планирование одиночной модели с высокой стоимостью. AISLE заявляет, что начиная с середины 2025 года она выполняет системы обнаружения уязвимостей на реальных целях: в OpenSSL удалось найти 15 CVE (из них один выпуск безопасного обновления включает 12, CVSS 9.8 Critical), в curl — 5, а в более чем 30 проектах суммарно — свыше 180 внешне верифицированных CVE.

Где ров — и где его нет

Этот анализ для Anthropic не является ни всеобъемлющей критикой, ни простым подтверждением.

AISLE прямо указывает: смысл Mythos — доказать, что категория «AI для кибербезопасности» — реальна. Это не просто идея из демонстраций в лаборатории, а система, которая может работать на реальных целях. То, что делает Anthropic, — максимизация «интеллекта на токен», и даже в задачах, где требуется глубокое рассуждение, это значение остаётся трудно заменимым.

Но AISLE одновременно подчёркивает более фундаментальную проблему для всей отрасли: ров/“защитный барьер” находится в системе, а не в самой модели.

В области кибербезопасности AISLE считает, что именно архитектурный дизайн с встраиванием глубокой профессиональной экспертизы — например: как разложить задачу, как планировать разные по стоимости модели между подзадачами, как в производственной среде поддерживать доверие обслуживающих в maintenance людей, — является подлинным источником дифференциации.

Система, которая умеет находить CVSS 9.8 уязвимости в OpenSSL, и система, которая в контролируемой демонстрации обнаруживает уязвимости известных паттернов, требуют не просто более сильной модели, а совершенно иной инженерной логики.

В целом отчёт AISLE обнаружил следующее: более дешёвые, более открытые модели уже способны воспроизвести часть ключевых демонстраций. Вероятно, подлинная проблема не в том, чья модель сильнее, а в том, кто первым сумеет запустить в производственной среде архитектуру всех пяти подзадач.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Советник Илона Маска раскрывает $974B -заявку xAI на активы некоммерческой структуры OpenAI в суде, усиливая новые вопросы

Согласно показаниям Джареда Бирчелла на 4-й день судебного процесса Маска против OpenAI, предложение xAI на 974 миллиарда долларов за активы OpenAI как некоммерческой организации было направлено на то, чтобы не позволить Сэму Альтману занижать стоимость активов во время реструктуризации OpenAI. Однако судья Йвонн Гонсалес Роджерс спросила, как Бирчалл мог представить сумму в 974 миллиарда долларов

GateNews27м назад

Маск признаёт, что xAI использовала дистилляцию на моделях OpenAI во время судебного дня 4

По данным Beating и The Verge, на 4-й день судебного разбирательства между Маском и OpenAI адвокаты OpenAI выясняли, использовала ли xAI дистилляцию, чтобы улучшать свои модели с применением технологий OpenAI. Изначально Маск заявил, что «почти все компании в сфере ИИ делают это», но когда его попросили ответить прямо, он признал …acknow

GateNews40м назад

66,3% сотрудников в США с высокой заработной платой используют инструменты ИИ на работе, показывает опрос Федеральной резервной системы

Согласно опросу Федеральной резервной системы, 66,3% сотрудников в США, зарабатывающих свыше $200 000 в год, использовали инструменты ИИ на работе в течение последних 12 месяцев по состоянию на 1 мая. Среди групп с более низкими доходами показатели использования заметно снижаются: 51,6% для тех, кто зарабатывает $100 000–$200 000, 40,2% для тех, кто зарабатывает $50 000–$100 000,

GateNews59м назад

xAI запускает API Grok 4.3 с окном контекста 1 млн токенов и ценой $1,25 за миллион входных токенов

По данным BlockBeats, xAI запустила API Grok 4.3 1 мая. Новая модель поддерживает окно контекста в 1 миллион токенов и предлагает текстовый ввод/вывод, мультимодальные возможности и функции вызова инструментов. API Grok 4.3 стоит 1,25 доллара за 1 миллион входных

GateNews1ч назад

Крупнейшие технологические компании США планируют потратить $700B на инфраструктуру ИИ в 2026 году, что намного превзойдёт $105B Китая

Согласно South China Morning Post, американские техгиганты планируют потратить на AI-инфраструктуру в этом году более 700 миллиардов долларов, что намного превышает расходы китайских конкурентов. Google, Microsoft, Meta и Amazon обеспечивают большую часть этой суммы, при этом Morgan Stanley оценил, что китайские облачные провайдеры потратят около $105 млрд

GateNews1ч назад

Huawei ожидает, что выручка от AI-чипов в 2026 году достигнет 12 миллиардов долларов, что на 60% больше, чем в 2025 году

Reuters: Huawei ожидает, что выручка от ИИ-чипов в 2026 году достигнет примерно 12 миллиардов долларов, что как минимум на 60% больше, чем 7,5 миллиарда долларов в 2025 году. Большая часть заказов в этом году приходится на процессор Ascend 950PR, который вышел на массовое производство в марте. Компания планирует запустить ан

GateNews1ч назад
комментарий
0/400
Нет комментариев