Notícias de IA: A OpenAI Está a Pagar a Investigadores para Descobrirem o que Poderia Dar Errado — Mas as Suas Equipas Internas de Segurança Já Desapareceram

Cryptonews

As notícias de IA que saíram da OpenAI esta semana têm uma aresta particularmente cortante: a empresa lançou uma Bolsa de Segurança remunerada, oferecendo subsídios semanais de $3,850 a investigadores externos que estudam o que pode correr mal com a IA avançada — anunciada poucas horas após uma investigação do The New Yorker relatar que a OpenAI dissolveu as suas equipas internas de segurança e retirou silenciosamente a palavra “safely” do seu enunciado de missão no IRS.
Resumo

  • A Bolsa de Segurança da OpenAI, anunciada a 6 de abril, decorre de 14 de setembro de 2026 a 5 de fevereiro de 2027; os bolseiros recebem um subsídio semanal de $3,850, aproximadamente $15,000 em recursos de computação mensais, e mentoria de investigadores da OpenAI, mas não terão acesso aos sistemas internos da empresa
  • As áreas prioritárias de investigação incluem avaliação de segurança, ética, robustez, mitigação escalável, métodos que preservam a privacidade, supervisão agentica, e utilização indevida de alta severidade — as candidaturas terminam a 3 de maio, com os bolseiros notificados até 25 de julho
  • O The New Yorker, através do jornalista Ronan Farrow, reportou na mesma semana que a OpenAI dissolveu a sua equipa de superalinhamento, a sua equipa de Preparação para AGI e a sua equipa de Alinhamento da Missão desde 2024, e que um representante da OpenAI respondeu a um jornalista que perguntava sobre investigadores de segurança existencial com: “O que entende por segurança existencial? Isso não é, tipo, uma coisa.”

A OpenAI anunciou a bolsa a 6 de abril como “um programa-piloto para apoiar investigação independente em segurança e alinhamento e desenvolver a próxima geração de talento”. O programa paga $3,850 por semana, mais de $200,000 anualizados, além de cerca de $15,000 em computação mensal e mentoria de investigadores da OpenAI. Os bolseiros trabalham a partir do espaço de trabalho Berkeley da Constellation ou remotamente, e as candidaturas terminam a 3 de maio. A bolsa não se limita a especialistas em IA — a OpenAI está a recrutar a partir da cibersegurança, das ciências sociais e da interação homem-computador, juntamente com a ciência da computação.

Notícias de IA: OpenAI Lança Bolsa de Segurança enquanto as suas Equipas Internas de Segurança Já Não Existem

O timing é a história. A investigação de Ronan Farrow no The New Yorker, publicada no mesmo dia, documentou que a OpenAI tinha dissolvido três organizações internas consecutivas de segurança ao longo de 22 meses. A equipa de superalinhamento foi encerrada em maio de 2024, após as co-líderes Ilya Sutskever e Jan Leike terem saído. Leike escreveu na sua saída que “a cultura e os processos de segurança passaram para segundo plano face a produtos brilhantes”. A equipa de Preparação para AGI seguiu em outubro de 2024. A equipa de Alinhamento da Missão foi dissolvida em fevereiro de 2026, após apenas 16 meses. O The New Yorker também reportou que, quando um jornalista pediu para falar com investigadores de segurança existencial da OpenAI, um representante da empresa respondeu: “O que entende por segurança existencial? Isso não é, tipo, uma coisa.”

A bolsa não substitui explicitamente a infraestrutura interna. Os bolseiros recebem créditos de API e recursos de computação, mas não acesso a sistemas, posicionando o programa como financiamento de investigação a distância, em vez de uma reconstrução das equipas dissolvidas.

O que a Bolsa Exige que os Bolseiros Produzam

A agenda de investigação abrange sete áreas prioritárias: avaliação de segurança, ética, robustez, mitigação escalável, métodos de segurança que preservam a privacidade, supervisão agentica e domínios de utilização indevida de alta severidade. No final do programa, em fevereiro de 2027, cada bolseiro tem de produzir uma entrega substancial — um artigo, um benchmark ou um conjunto de dados. Não são exigidas credenciais académicas específicas; a OpenAI afirmou que dá prioridade à capacidade de investigação, ao discernimento técnico e à capacidade de execução.

Por que Isto Importa para Além da Indústria de IA

Como a crypto.news tem relatado, a confiança nas promessas de segurança declaradas por empresas de IA de fronteira é um sinal de mercado que afecta a alocação de capital em toda a infraestrutura de IA, tokens de IA e os protocolos DePIN e de agentes de IA situados na interseção entre cripto e inteligência artificial. Como a crypto.news também notou, a trajetória de gastos da OpenAI e a credibilidade das suas prioridades operacionais são acompanhadas de perto por investidores que avaliam o sector da infraestrutura de IA — um sector com sobreposição crescente com sistemas baseados em blockchain. Se bolseiros externos, a trabalhar sem acesso interno, podem influenciar de forma significativa o desenvolvimento de modelos é uma questão que a investigação do primeiro grupo começará a responder no início de 2027.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário