A corrida de computação de IA está a remodelar a dinâmica de lucros. A "margem de computação" da OpenAI—essencialmente a fatia de receita que permanece após deduzir os custos de execução do modelo—subiu para cerca de 70% em outubro passado. Isso representa um salto acentuado de 52% no final de 2024.



O que está a acontecer por trás das cenas? Melhor eficiência. À medida que os modelos de IA se expandem e as técnicas de inferência melhoram, o custo por inferência diminui. Ao mesmo tempo, o poder de precificação mantém-se firme devido à forte procura. Esta expansão da margem sinaliza que o jogo da infraestrutura de IA não se trata apenas de computação bruta—está cada vez mais relacionado com a otimização.

Para o ecossistema mais amplo, especialmente projetos que competem em aplicações potenciadas por IA e soluções de IA em cadeia, esta tendência é importante. Quando os incumbentes apertam as margens através de ganhos de eficiência em vez de cortes de preço, isso eleva o padrão para todos os outros que buscam cargas de trabalho intensivas em computação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)