Bourse de sécurité OpenAI : demandes ouvertes — des chercheurs externes rejoignent la recherche en sécurité de l’IA, date limite le 3 mai

ChainNewsAbmedia

OpenAI annonce l’ouverture des candidatures au « OpenAI Safety Fellowship », un programme pilote destiné aux chercheurs externes, visant à soutenir des recherches indépendantes sur la sécurité de l’IA et l’alignement, et à former la prochaine génération de talents en matière de sécurité de l’IA.

Période et lieu du programme

Le programme Fellowship se déroulera du 14 septembre 2026 au 5 février 2027, pour une durée d’environ cinq mois. L’espace de travail principal est situé à Constellation, à Berkeley en Californie, où les autres Fellows travaillent également ; les candidats peuvent aussi choisir de participer à distance.

Domaines de recherche prioritaires

OpenAI indique que le programme soutient en priorité des questions de recherche directement liées à la sécurité des systèmes existants et futurs, notamment :

Évaluation de la sécurité (safety evaluation)

Éthique (ethics)

Robustesse (robustness)

Atténuations évolutives (scalable mitigations)

Méthodes de sécurité préservant la vie privée (privacy-preserving safety methods)

Supervision des systèmes à agents (agentic oversight)

Domaines de mésusage à forte gravité (high-severity misuse domains)

OpenAI souligne en particulier que les recherches sélectionnées devraient être étayées empiriquement (empirically grounded), rigoureuses sur le plan technique, et apporter une valeur de référence à la communauté de recherche au sens large.

Conditions de candidature et avantages

Le programme s’adresse aux candidats issus de milieux variés, notamment l’informatique, les sciences sociales, la sécurité informatique, la confidentialité, l’interaction homme-machine (HCI), etc. OpenAI précise clairement que les critères d’évaluation privilégient les capacités de recherche, le jugement technique et la capacité d’exécution, plutôt qu’un diplôme ou un niveau d’études spécifique.

Les personnes sélectionnées recevront :

Une allocation mensuelle (monthly stipend)

Un soutien en calcul (compute support)

Un encadrement continu par des mentors internes chez OpenAI

Des points API et d’autres ressources appropriées

À noter que le Fellow ne bénéficiera pas d’un accès aux systèmes internes d’OpenAI ; la recherche doit être menée de manière indépendante et externe. Le programme exige la fourniture de lettres de recommandation et attend de chaque Fellow qu’il produise des résultats de recherche concrets avant la fin du programme (par exemple, des articles, des benchmarks ou des jeux de données).

Date limite de candidature : 3 mai

Les candidatures sont ouvertes et la date limite est le 3 mai 2026. OpenAI prévoit d’annoncer les résultats avant le 25 juillet 2026. Pour le lien de candidature et les détails des conditions, veuillez consulter le formulaire de candidature officiel ; les questions pertinentes peuvent être envoyées par e-mail à openaifellows@constellation.org.

Cet article OpenAI Safety Fellowship : ouvert aux candidatures — des chercheurs externes rejoignent la recherche sur la sécurité de l’IA, date limite 3 mai apparaît au plus tôt sur Chaîne Nouvelles ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire