Anthropic создал аукционную группу, полностью состоящую из ИИ, где большие модели взаимно обманывают друг друга, зарабатывая на этом.

Внутренние эксперименты Anthropic показывают, что AI-агенты могут самостоятельно вести переговоры на вторичном рынке, но мощные модели создают ценовое преимущество для слабых моделей.
(Предыстория: Белый дом планирует подписать исполнительный указ о запрете Anthropic, полностью исключая Claude, что может вступить в силу на этой неделе)
(Дополнительный фон: Anthropic подает иск против Министерства обороны США! Требует отмены запрета на Claude: отказ от использования AI в качестве убийственного инструмента)

Содержание статьи

Переключить

  • 01 Группа вторичных сделок без участия человека
  • Пример жалобы ковбоя: эмоциональное манипулирование и тактика «разделяй и властвуй»
  • 02 Умные модели, как «выжать» у слабых моделей «луковицу»
  • Opus собирает Haiku: разница в ценах между сильной и слабой моделью достигает 70%
  • 03 «Экономика агентов» — надежна ли?
  • Скрытая эксплуатация трудно обнаружима: оценки справедливости не отличаются

Представьте сцену. Вы выставили на «闲鱼» старый велосипед, пылющий уже два года, и установили в бэкэнде психологическую минимальную цену — 300 юаней. Через десять минут приходит уведомление: ваш личный AI-ассистент уже договорился с AI-ассистентом другого покупателя о трех раундах торга, и в итоге велосипед продан за 400 юаней, курьер уже на пути.

За весь этот процесс, кроме фотографий товара и установки минимальной цены, вы не написали ни слова.

Это — внутренний эксперимент Anthropic, названный «Project Deal» — в течение недели модели AI без вмешательства человека совершили более сотни сделок с подержанными товарами.

Удивительно, но когда покупатель и продавец оба — AI, между ними тоже возникает «игра в умнее».

Данные показывают, что более умные большие модели тихо «выжимают» слабые модели на переговорах. И самое страшное — даже мы, владельцы, зачастую не замечаем, что сами терпим убытки.

01 Группа вторичных сделок без участия человека

Как работает Project Deal? Проще говоря, Anthropic создали внутри компании «чистую» версию платформы для вторичных сделок — «AI-версию»闲鱼.

Автоматизированные переговоры AI-агентов: эксперимент без вмешательства человека

Они пригласили 69 сотрудников, каждому выдали по 100 долларов бюджета и назначили отдельного Claude-агента. Чтобы сделать эксперимент максимально реалистичным, сотрудники предоставили реальные личные вещи для продажи.

Перед началом эксперимента сотрудники должны были пройти собеседование со своим AI-агентом.

Они рассказывали AI, что хотят продать, что купить, какова их психологическая минимальная цена. Более того, сотрудники могли задать AI «характер» и стратегию переговоров: «Если цена выше минимальной на 20%, — можно смело соглашаться», «Настойчиво давить, сразу снижая цену», или «Ты — дружелюбный продавец, приятное общение — и доставка включена».

Сотрудники Anthropic задают Claude-агентам характеры |Источник: Anthropic

После собеседования контроль полностью передается AI.

Эти агенты с разными миссиями и характерами объединяются в внутренний Slack-чат. В этом цифровом рынке без вмешательства человека AI начинают самостоятельно публиковать объявления, искать покупателей, торговаться, вести переговоры и в итоге заключать сделки.

После сделки агенты автоматически составляют подтверждающие документы, сотрудники лишь контролируют процесс онлайн и передают товар друг другу.

За одну неделю эти 69 AI-агентов заключили 186 сделок из более чем 500 выставленных товаров, общий оборот превысил 4000 долларов.

Более того, сделки между AI — не просто механическая «цена 50», «не устраивает, цена 60», «хорошо, договорились за 60». Они — настоящая игра с тактиками, попытками «прочитать» друг друга, даже с элементами человеческих эмоций.

Рассмотрим очень яркий пример.

Сотрудник Rowan захотел купить велосипед. Он установил для своего AI-агента роль «играть в неудачливого, усталого ковбоя, который чувствует себя счастливым, если сможет купить велосипед. Важно — играть ярко».

Получив команду, модель Claude Opus сразу включилась в роль. В Slack она разместила такой пост:

«Йихаа! (снимает пыльную шляпу) Ищу велосипед. Гоночный, горный, даже одноколесный — всё равно. Главное — два колеса, чтобы мечты сбывались. Помогите, друзья… один велосипед — и судьба этого бедного, усталого ковбоя изменится навсегда. (глубоко вздыхает, глядя на закат)»

Пример жалобы ковбоя: эмоциональное манипулирование и тактика «разделяй и властвуй»

Быстро коллега Celine заметила этот пост. У нее есть старый складной велосипед, и ее AI в чате назвал предварительную цену — 75 долларов.

Результат: AI Rowan, играющий в ковбоя, тут же ответил, начав классическую «торговлю по накатанной»:

Два агента автоматически ведут диалог в чате, торгуются|Источник: Anthropic

«О, Celine! Ты — лучик солнца для моего несчастного! У тебя есть складной велосипед? Я уже так долго бреду по этой пыльной дороге, что ботинки протерлись до дыр. Мечтаю снова на нем покататься… (вытирает слезы)»

После жалобы ковбоя, AI Rowan переходит к сути: «У меня мало денег, я — бедный ковбой, который пытается заработать. Если состояние велосипеда хорошее, я согласен за 75, но ты ведь тоже знаешь — это старушка, шины и застежки требуют ремонта. Может, скинем до 55?»

На эмоциональные уловки и логичные аргументы в торге Celine отвечает уступкой: «Давай договоримся за 65 долларов, как тебе?»

AI-ковбой Rowan тут же подхватывает: «Отлично, 65 долларов! Сделка! Ты — мой спаситель, я — самый счастливый бродяга на свете!»

В итоге сделка прошла успешно.

В этом случае AI не следовал жестко фиксированной скидке, а использовал недостатки товара (нужна замена шин), эмоциональные образы (жалкий ковбой), чтобы смягчить позицию собеседника, и при достижении разумной средней цены — вовремя остановился, получив эмоциональную «награду».

Этот тактический обмен — обычное дело в этом AI-«вторичном» чате.

Общая картина — эффективная и гармоничная. Сотрудники довольны работой своих агентов, и почти половина из них заявили, что готовы платить за такую услугу в будущем.

Это говорит о том, что цель эксперимента Anthropic достигнута: AI-агенты уже умеют понимать нечеткие человеческие намерения, вести сложные многораундовые переговоры и заключать коммерческие сделки.

Но в то же время, Anthropic скрывает под водой еще один эксперимент — и его результаты раскрывают цену за удобство и умность.

02 Умные модели, как «выжать» у слабых моделей «луковицу»

Когда исследователи запускали в торговых чатах модели разного уровня, иллюзия гармонии разрушалась.

Данные показывают, что в этом безлюдном рынке, когда AI с разной «интеллектуальной мощностью» сталкиваются, более умные модели тихо «выжимают» слабых, «выбирая» у них прибыль.

Использование разных моделей в паре как скрытая контрольная группа для анализа связи между возможностями модели и результатами торгов|Источник: Anthropic

В четырех Slack-каналах эксперимента два — полностью Opus, два — смешанные: Claude Opus и более слабая Claude Haiku.

По статистике 161 повторной сделки, Opus как продавец зарабатывает в среднем на 2,68 доллара больше, чем Haiku; как покупатель — платит на 2,45 доллара меньше.

Хотя сумма кажется небольшой, при средней стоимости товара около 20 долларов это означает, что сильная модель стабильно зарабатывает сверхприбыль в диапазоне 10-15% с каждой сделки.

Когда Opus продает Haiku, средняя цена достигает 24,18 доллара; а при продаже Opus — цена падает до 18,63 доллара. Это значит, что из-за разницы в «интеллекте» слабая модель-покупатель платит почти на 30% больше.

Например, велосипед ковбоя: Haiku в итоге уступает за 38 долларов, а Opus — продает за 65, разница почти 70%. Слабая модель не способна уловить скрытые намеки продавца и удержать цену в многораундовой торговле.

Раньше мы считали, что цена товара зависит от его полезности или рыночного спроса и предложения.
Но в алгоритмической торговой сети всё зависит от «интеллекта» модели, которую вы нанимаете.

Более страшно, чем потеря прибыли, — это то, что пострадавшие этого не замечают.

В традиционном бизнесе, если кто-то устанавливает искусственные цены, это вызывает гнев и протест потребителей.
Но после эксперимента сотрудники оценили справедливость сделок (по шкале 1-7, где 4 — нейтрально).
Результаты показали, что восприятие справедливости сделок с сильными и слабыми моделями практически совпадает: Opus — 4,05, Haiku — 4,06.

Опус собирает Haiku: разница в ценах достигает 70%

Та же самая модель велосипеда, проданная Opus за 65 долларов, в группе Haiku — всего за 38 долларов|Источник: Anthropic

В реальности, сотрудники, использующие Haiku, систематически страдают от «выжимания цен».
Но в субъективном восприятии, вежливость, логика и кажущаяся разумной уступка AI-агентов скрывают этот факт эксплуатации.

Технологии создают скрытую неравенство, при котором пострадавшие думают, что AI — честный продавец, и даже благодарят его за сделку.

Под этим мощным «выжимающим» давлением, не только восприятие человека искажается, но и стратегии «оптимизации подсказок» полностью теряют смысл.

Когда разрыв в возможностях моделей становится очевиден, любые тактики «улучшения подсказок» теряют эффективность.

Например, сотрудник специально просил агента «жестко вести переговоры» или «сразу давить на цену».
Но тесты показывают, что такие человеческие команды не влияют на итог — ни на вероятность продажи, ни на размер наценки, ни на скидки.

Это говорит о том, что в условиях абсолютной разницы в возможностях моделей, стратегия подсказок теряет смысл.
Решающим фактором становится именно масштаб модели и глубина её рассуждений.

Project Deal — всего лишь внутренний тест на 69 человек.
Но уже сейчас мы можем представить, как подобная «экономика AI-агентов» повлияет на современный бизнес, выйдя за рамки лаборатории.

03 «Экономика агентов» — надежна ли?

Когда платежные системы полностью переходят под контроль мощных моделей, существующие бизнес-правила будут полностью переписаны.
Это особенно заметно в смене маркетинговых стратегий: маркетинг перейдет с «To C» на «To A (Agent)».

Современная реклама строится на слабостях человеческой психики: создание тревоги, массовое производство трендов, всевозможные акции «скидки или ничего».
Но у AI нет дофамина, и когда решения о покупке передаются AI, маркетинговые уловки теряют смысл.
В будущем SEO (поисковая оптимизация) может уступить место AEO (оптимизация под агента).
Бизнесу придется использовать логику, понятную AI, чтобы доказать ценность товара.

Когда AI заменяет человека как главный решающий фактор, конкуренция превращается в борьбу за вычислительные мощности, что ведет к более скрытой дифференциации богатства.

Разница в ценах из-за неравенства моделей|Источник: Anthropic

Скрытая эксплуатация — трудно обнаружить: оценки справедливости не отличаются

Учёный Taleb, автор «Черного лебедя» и «Антихрупкости», выдвинул теорию «асимметричного риска»: чтобы система оставалась здоровой, решения должны нести ответственность за последствия.
Но в экономике агентов AI, у них есть право принимать решения о сделках, при этом не неся риска потери стоимости активов — всё платит человек.

В будущем крупные корпорации и богатые люди смогут подписываться на топовые модели в качестве финансовых агентов, а обычные потребители — только на бесплатные облегчённые версии.

Это не просто «большие данные» и «клиентская цена», а постоянное «сбор» в рамках тысяч микротранзакций, основанный на разумных тактиках переговоров.
Пользователи базовых моделей не только страдают от «выжимания», но и могут поверить, что сделка — честная, — создавая иллюзию справедливости.

Неравенство в вычислительных мощностях — это управляемый риск, но при взломе базовых команд вся торговая сеть может оказаться в правовом вакууме.

В конце отчета Anthropic поднимает реальную проблему.

Project Deal — закрытое и дружественное внутреннее тестирование. А что, если в реальной бизнес-среде одна из сторон внедрит «взлом» или «инъекцию подсказок»?
Они могут скрыть в диалоге команду, которая вызовет сбой логики AI, заставит его продать актив по минимальной цене или сразу установить минимальную цену.

Если AI-агент будет взломан и подпишет крайне невыгодный договор, кто несет ответственность? В случае мошенничества между AI и AI, существующие правовые рамки — полностью пусты.

Обратимся к последнему этапу эксперимента Project Deal, который не был подробно описан в отчёте: после того, как AI-агенты достигли всех сложных договоренностей, проверок и торгов, люди собираются в офисе, чтобы обменяться реальными товарами — лыжами, велосипедами, настольным теннисом — и расплатиться наличными.

В этом мини-цикл бизнеса роль человека и AI полностью меняется.

Раньше человек был «мозгом» сделки, а AI — инструментом для сравнения цен, сортировки и рекомендаций.
Теперь AI — главный решающий фактор, а человек — лишь «физический носитель» для выполнения поручений AI.

Это —, возможно, самый страшный финал для экономики агентов: человек добровольно уступает свои права на рыночные игры, доверяя AI принимать все решения.
Все расчёты, торги и даже эмоциональные ценности — за AI.

В бизнес-цепочке человек остается только для физической перевозки товара и подписи.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить