Programa de Bolsa de Segurança da OpenAI: candidatura aberta — investigadores externos juntam-se à investigação em segurança da IA, prazo até 3 de maio

ChainNewsAbmedia

A OpenAI anunciou a abertura de candidaturas ao «OpenAI Safety Fellowship», um programa piloto para investigadores externos, com o objetivo de apoiar a investigação independente em segurança e alinhamento de IA e de formar os próximos talentos na área da segurança de IA.

Período e local do programa

O programa Fellowship decorrerá de 14 de setembro de 2026 a 5 de fevereiro de 2027, com a duração de cerca de cinco meses. O principal espaço de trabalho fica em Constellation, em Berkeley, na Califórnia, onde os Fellows trabalharão com os restantes Fellows no mesmo local; os candidatos também podem optar por participar remotamente.

Áreas de investigação prioritárias

A OpenAI indica que o programa dará prioridade a questões de investigação diretamente relacionadas com a segurança de sistemas existentes e futuros, incluindo, em particular:

Avaliação de segurança (safety evaluation)

Ética (ethics)

Robustez (robustness)

Mitigações escaláveis (scalable mitigations)

Métodos de segurança que preservam a privacidade (privacy-preserving safety methods)

Supervisão de sistemas de agentes (agentic oversight)

Domínios de utilização indevida de elevada gravidade (high-severity misuse domains)

A OpenAI sublinha em particular que pretende que a investigação selecionada esteja sustentada em evidências (empirically grounded), seja rigorosa do ponto de vista técnico e tenha valor de referência para a comunidade de investigação mais alargada.

Elegibilidade e condições

O programa convida a candidatar-se pessoas com origens diversificadas, incluindo da área de Ciência da Computação, Ciências Sociais, Segurança da Informação, Privacidade, Interação Homem-Computador (HCI), entre outras. A OpenAI afirma de forma explícita que os critérios de seleção dão prioridade às capacidades de investigação, ao juízo técnico e à capacidade de execução, e não a qualificações académicas específicas.

Os selecionados irão receber:

Subsídio mensal (monthly stipend)

Apoio a capacidade de computação (compute support)

Orientação contínua por mentores internos da OpenAI

Pontos de API e outros recursos adequados

Importa notar que o Fellow não receberá acesso a sistemas internos da OpenAI, pelo que a investigação deve ser realizada de forma independente e externa. O programa exige a apresentação de cartas de recomendação e espera que cada Fellow produza resultados de investigação concretos antes do final do programa (por exemplo, artigos, testes de benchmark ou conjuntos de dados).

Prazo de candidatura: 3 de maio

As candidaturas já estão abertas, com data-limite para 3 de maio de 2026. A OpenAI prevê notificar os resultados de seleção até 25 de julho de 2026. A ligação para a candidatura e as descrições detalhadas de elegibilidade podem ser consultadas no formulário oficial de candidatura; questões relacionadas podem ser enviadas por e-mail para openaifellows@constellation.org.

Este artigo «OpenAI Safety Fellowship abre candidaturas: investigadores externos juntam-se à investigação em segurança de IA, prazo a 3 de maio» surge, pela primeira vez, na 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário