A arma DeepSeek já está encostada na nuca do Vale do Silício

DeepSeek V4 lançado há alguns dias, a região do Vale do Silício tem estado em ebulição, trazendo à tona várias discussões mais agudas: eficiência do modelo, padrão de chips, momento do IPO, pressão da open source sobre o fechado.

No vídeo blog de Silicon Valley 101 de 29 de abril, convidaram o arquiteto de chips Xiao Zhibin e a ex-pesquisadora da OpenAI Jenny Xiao, que conversaram por mais de uma hora, esclarecendo completamente toda a questão.

Superado pela open source, seu valor comercial zera

A frase mais dura da conversa foi uma ideia apresentada por Jenny no ano passado — linha de morte (kill line), a linha de morte traçada pelas modelos open source para as empresas de modelos fechados.

“Se você é uma empresa de modelos de base e é superada por open source, o valor do seu negócio é essencialmente zero.”

Se você é uma empresa de modelos de base e é superada por open source, seu valor comercial cai a zero.

Isso não é uma competição técnica, é uma linha de vida ou morte.

Jenny deu o exemplo da Anthropic: se um dia Claude deixar de ser o melhor modelo de programação, quem ainda usará Claude Code?

Seguindo essa lógica, em 24 de abril, com o lançamento do DeepSeek V4, todas as ações e avaliações das empresas de modelos fechados no Vale do Silício enfrentam uma pergunta de alma: Seu modelo, ainda vale esse preço?

Falando de preço de forma mais direta:

GPT-5.5 custa o dobro do GPT-5.4, a versão Pro de textos longos custa 180 dólares por milhão de tokens.

No mesmo dia, foi lançado o DeepSeek V4. Entrada 1 yuan por milhão de tokens, saída 24 yuan por milhão de tokens. A versão Flash é ainda mais agressiva: entrada 0,2 yuan por milhão de tokens, saída 2 yuan por milhão de tokens.

Um custa o dobro, o outro é dez vezes mais barato.

A avaliação das empresas de modelos de base é binária — sua razão de existir é que seu modelo seja o mais forte. Se deixar de ser o melhor, a avaliação cai a zero. Mesmo que seja a OpenAI.

Dinheiro demais, na verdade, não economiza

Jenny revelou uma verdade que o Vale do Silício não quer encarar:

“Empresas do Vale do Silício têm dinheiro demais, e isso acaba desmotivando a otimização de eficiência. Fabricantes de modelos na China, por serem pressionados por recursos, entram mais cedo na inovação de eficiência de tokens.”

Restrições de recursos, na verdade, aceleram a inovação.

Desde o primeiro dia, a OpenAI acreditou na filosofia “move fast, break things”, comprando GPUs indiscriminadamente, construindo infraestrutura loucamente. A Anthropic, ao contrário, se controla, tem medo de que a receita não acompanhe e que os custos de aquisição a arrastem para baixo.

E o resultado? Com a mesma receita, a eficiência de capital da Anthropic é significativamente maior que a da OpenAI.

Mais complicado ainda, a OpenAI atua em várias frentes: hardware, chips próprios, aplicativos de compras, enquanto a experiência principal do ChatGPT não está tão bem feita. Desde o final do ano passado, várias linhas de projetos secundários foram cortadas, incluindo o Sora.

Os investidores mudaram completamente de mentalidade. Antes, investiam em IA pensando: “a curva ainda está em crescimento exponencial, continue investindo”. Agora, perguntam:

Se investir mais 1 bilhão, 10 bilhões, onde está o retorno marginal? Onde está o ROI?

A resposta direta do DeepSeek é: continuar expandindo o ROI da infraestrutura talvez já não seja mais vantajoso.

A inovação é sempre forçada. Ser barato, por si só, é o pré-requisito de uma revolução tecnológica.

Cada revolução industrial foi impulsionada não só pela tecnologia avançada, mas pelo quão acessível ela se tornou. Só quando a tecnologia fica barata o suficiente para o uso comum, ela realmente consegue mudar o mundo.

Sem eficiência, AGI só será uma demonstração

Zhao Zhibin, ao ler o artigo do V4, acha que: “A direção é esperada, a completude técnica, surpreendentemente,.”

Todas as otimizações técnicas do V4 na verdade têm um alvo comum — eficiência de tokens.

Ele usou três estratégias:

• Otimizador Muon: substituição de alguns módulos de treinamento do tradicional Adam, acelerando a convergência

Juntos, apontam para um mesmo resultado: o custo de geração de cada token ficou mais baixo, o uso de memória em cada inferência, menor.

O custo computacional caiu para um terço do modelo de Silicon Valley, o uso de memória, apenas um décimo.

Mas o que realmente assusta no V4 vai muito além de “economizar dinheiro”.

Jenny, na conversa, repetidamente lembra: na era dos chatbots, o consumo de tokens é limitado, e os usuários toleram modelos mais caros. Mas na era dos agentes, é uma lógica completamente diferente — tarefas longas, decomposição, múltiplas ferramentas, reflexão e planejamento contínuos, o consumo de tokens é de 10 a 100 vezes maior que um chatbot.

Se cada token for caro, o modelo não poderá pensar profundamente por longos períodos, nem atender a uma grande escala de usuários.

Por isso, ela afirmou:

Sem eficiência, o AGI só será uma demonstração. Com eficiência, o AGI pode se tornar um produto de verdade.

Na era dos agentes, a eficiência é parte da inteligência.

Por que a Anthropic conseguiu ultrapassar para 1 trilhão? Foco > fazer tudo

Recentemente, a avaliação da Anthropic superou a da OpenAI, atingindo 1 trilhão de dólares.

Jenny listou três razões, mas no fundo, resumiu em cinco palavras: Foco > fazer tudo.

Primeiro, Claude Code.

Por que Claude Code é o “momento decisivo” da Anthropic?

Os modelos da Anthropic sempre foram bons, mas Claude Code é realmente o produto que impulsiona a receita. Peter Steinberger, fundador do OpenClaw, escreveu um artigo: “Claude Code é o meu computador.”

Quando um modelo consegue escrever código, ele pode realizar tarefas gerais — atualizar CRM, encaminhar e-mails, automatizar processos, tudo baseado em código.

Jenny foi precisa: programação é o passo mais importante rumo à AGI. Quem dominar a programação, pode se tornar o líder na era da AGI.

Segundo, confiança empresarial.

Clientes corporativos na fundação de Jenny repetem a mesma frase: escolhem a Anthropic por causa de sua garantia de segurança. Além disso, a ação da Anthropic na acusação contra o Pentágono reforçou essa confiança.

Terceiro, foco.

A OpenAI tentou fazer “tudo para todos”, mas acabou dispersando suas linhas de atuação, perdendo liderança técnica. A Anthropic foca em três áreas: segurança, empresas, programação.

Investidores do Vale do Silício acreditam numa lógica: receita empresarial vem antes de receita de consumo. A receita da Anthropic é altamente concentrada em empresas, o que é exatamente a história que o mercado de capitais dos EUA adora.

Nvidia: segurança de curto prazo, mercado de raciocínio a longo prazo inevitavelmente se dividir

Falando de chips, atualmente, tudo indica que a DeepSeek está “desnvidiaizando”.

Mas a situação real é mais detalhada.

Fase de treinamento: o grande volume de pré-treinamento do V4 certamente foi feito em clusters gigantes da Nvidia. Na página 16 do relatório técnico do V4, e na página 20, mencionam o TCGenO5, além do MegaMoE², que são otimizações profundamente integradas ao ecossistema CUDA.

Fase de adaptação: Huawei Ascend promove “adaptação contínua de 0-day para treinamento e inferência”, AMD fala em “integração otimizada na ROCm”.

Perceba uma palavra-chave — “adaptação”.

Isso significa que o modelo já foi treinado e ajustado em clusters Nvidia. Ascend e AMD fazem uma espécie de “compatibilidade retroativa”, usando suas próprias stacks de software para “conectar” o modelo treinado. É uma compatibilidade retroativa, não uma substituição nativa.

Sob essa perspectiva, no curto prazo, a barreira de entrada da Nvidia na fase de treinamento é mais profunda do que muitos pensam. O ecossistema CUDA não será facilmente substituído em um ou dois anos.

Mas e a longo prazo? O mercado de inferência realmente está se movendo.

Depois que o V4 reduziu o custo de atenção de contextos longos, a barreira para inferência em larga escala caiu drasticamente. Não é mais “quem tem mais GPU ganha”, mas “quem tem arquitetura compatível ganha”. TPU do Google, chips AMD, chips próprios de nuvem, até o poder de computação nacional, estão buscando oportunidades nessa linha.

O sinal “80/20” que faz o Vale do Silício não dormir

Na carteira de investimentos de Jenny, há um dado: 80% das tarefas rodam em modelos open source de médio a pequeno porte. Apenas 20% das tarefas mais complexas usam modelos fechados.

Um ano atrás, ninguém acreditaria nessa proporção.

Hoje, no Vale do Silício, eles veem diariamente informações como: “Temos US$ 10 milhões em ações da OpenAI, vocês estão comprando? Ou conhecem alguém que esteja?”

Na última edição do Silicon Valley 101, em 29 de abril, Jenny resumiu tudo com uma frase:

“DeepSeek é como uma arma apontada às costas das empresas de modelos do Vale. Se essas empresas não acelerarem, a DeepSeek vai alcançá-las e destruir seus negócios completamente.”

Essa arma já está carregada.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar