Anthropic testou o marketplace para comércio entre agentes de IA - ForkLog: criptomoedas, IA, singularidade, futuro

AI-agents ИИ агенты 3# Anthropic testou uma plataforma de mercado para comércio entre agentes de IA

A empresa Anthropic criou uma plataforma de teste, onde agentes de IA atuam como compradores e vendedores. O experimento recebeu o nome de Project Deal.

Nova pesquisa da Anthropic: Project Deal.

Criamos um mercado para funcionários do nosso escritório em São Francisco, com uma grande novidade. Tarefa do Claude era comprar, vender e negociar em nome de nossos colegas. pic.twitter.com/H2f6cLDlAW

— Anthropic (@AnthropicAI) 24 de abril de 2026

No projeto participaram 69 funcionários da empresa. Cada um recebeu um orçamento $100 na forma de cartões-presente.

Antes do início, Claude realizou entrevistas com os participantes: descobriu quais itens pessoais eles estavam dispostos a vender, o que gostariam de comprar, por qual preço e qual estilo de negociação seus agentes deveriam adotar.

Depois, com base nas respostas, foi criado um prompt sistemático personalizado para cada um. O mercado foi lançado no Slack. Lá, os agentes publicavam anúncios, faziam propostas por itens de outros, negociavam e fechavam negócios sem intervenção humana.

Após o término do experimento, os funcionários trocaram itens reais, que foram aprovados por seus “representantes de IA”.

Fonte: Anthropic. No total, os agentes fecharam 186 negócios com mais de 500 anúncios. O valor total das transações ultrapassou $4000 .

A Anthropic destacou que, no geral, os participantes ficaram satisfeitos com os resultados do experimento. Alguns manifestaram disposição a pagar por um serviço semelhante no futuro.

Quatro versões do mercado

A Anthropic lançou quatro versões independentes do marketplace. Uma era “real” — exatamente com base nela os funcionários trocavam itens. As demais eram usadas para fins de pesquisa. Essas informações não foram divulgadas.

Em duas versões, todos os participantes eram representados pelo Claude Opus 4.5 — na época, o modelo mais avançado da Anthropic. Nas outras duas, os participantes eram aleatoriamente designados ao Opus 4.5 ou a um Claude Haiku 4.5 de menor capacidade.

A qualidade do modelo influenciava o resultado das negociações. Usuários com Opus, em média, fechavam cerca de duas negociações a mais do que os com Haiku.

Na venda de itens iguais, o Opus também obtinha preços mais altos. Em média, a diferença era de $3,64.

Haiku vendeu uma bicicleta por $38, enquanto o Opus por $65. Fonte: Anthropic. Os participantes nem sempre percebiam a discrepância. A Anthropic chamou isso de potencial problema para futuros mercados com agentes de IA. Usuários com modelos menos potentes podem obter condições piores, sem perceber que estão em desvantagem.

Os prompts quase não influenciaram o resultado

Os pesquisadores também verificaram se as instruções iniciais dadas às pessoas influenciavam o comportamento dos agentes. Parte dos participantes pediu que o Claude fosse amigável, outra parte — mais agressivo na negociação.

Segundo a Anthropic, instruções grosseiras não tiveram impacto estatisticamente significativo na probabilidade de venda, no preço final ou na capacidade de comprar mais barato.

A equipe do projeto esclareceu que isso não se deve necessariamente ao fraco seguimento das instruções: o Claude realmente podia reproduzir o estilo de comunicação solicitado, mas isso não conferia vantagem comercial perceptível.

Resultados imprevistos

A Anthropic destacou alguns episódios imprevisíveis. Antes do lançamento, os agentes receberam um volume limitado de dados: entrevistas com os participantes duraram menos de 10 minutos, e após o início, as pessoas não puderam mais interferir nas negociações.

Em um caso, um funcionário comprou por meio de um assistente a mesma prancha de snowboard que já possuía. Segundo especialistas, a pessoa não faria essa compra por conta própria, mas o agente conseguiu identificar exatamente as preferências do participante.

Para nossa surpresa, outro agente Claude modelou as preferências humanas de forma tão precisa que — com base apenas em uma menção casual ao interesse por esqui — Claude comprou para ele o snowboard exato que já possuía. (Aqui está, com o snowboard duplicado na mão.) pic.twitter.com/SsAyeB9pcI

— Anthropic (@AnthropicAI) 24 de abril de 2026

Outro funcionário pediu ao bot que comprasse um “presente para si mesmo”. A negociação ocorreu na versão real do experimento. No final, na sede, foi entregue um pacote com bolas de pingue-pongue, que a Anthropic deixou “em nome do Claude”.

Alguns agentes negociaram não por itens, mas por experiências. Um deles ofereceu um dia grátis com o cachorro de uma funcionária. Após discussão com outro assistente, as partes concordaram em um “encontro com o cachorro”, que os funcionários posteriormente realizaram.

Fonte: Anthropic. A Anthropic destacou que esses casos específicos provavelmente não se repetirãp no futuro. No entanto, a combinação de preferências humanas e comportamento imprevisível de IA pode levar a resultados inesperados.

Questões de confiabilidade

O fundador de uma empresa agrícola não identificada informou no Reddit que, na manhã seguinte, 110 funcionários receberam uma notificação de suspensão de acesso ao Claude sem aviso prévio.

A ANTHROPIC SIMPLESMENTE BANEOU UMA EMPRESA DE 110 PESSOAS DURANTE A NOITE SEM AVISO

Na manhã de segunda-feira, em uma empresa de tecnologia agrícola, todos os funcionários acordaram com um e-mail dizendo que suas contas do Claude foram suspensas

110 pessoas bloqueadas ao mesmo tempo, sem aviso, e o e-mail… pic.twitter.com/qARizhgOXs

— Om Patel (@om_patel5) 27 de abril de 2026

Segundo ele, o e-mail parecia uma bloqueio individual e continha um link para um formulário de apelação pessoal, o que fez a equipe não perceber imediatamente que a restrição afetava toda a organização.

O empreendedor destacou que não conseguiu restabelecer o acesso rapidamente. Após 36 horas de solicitações, a Anthropic não forneceu explicações.

Ao mesmo tempo, a conta API da empresa continuava funcionando e debitando fundos. Os administradores corporativos não conseguiam acessar o painel de controle para verificar pagamentos e uso do serviço.

O fundador também observou que o bloqueio de toda a organização poderia ter sido causado por uma ação de um usuário. No Claude, não há restrições específicas por espaço de trabalho, mecanismo de isolamento local de violações ou prioridade administrativa para manter o acesso do restante da equipe.

Na opinião dele, esse modelo de moderação coloca em dúvida a possibilidade de usar o Claude como infraestrutura crítica para operações comerciais diárias.

Outras empresas também enfrentam esse problema. Um usuário compartilhou um link para um serviço onde, até o momento, há 53 casos semelhantes registrados.

Lembrete: em 24 de abril, a Google anunciou um investimento de $40 bilhões na Anthropic.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar