Actualités IA : OpenAI paie des chercheurs pour découvrir ce qui pourrait mal tourner — mais ses équipes internes de sécurité ont déjà disparu

Cryptonews

L’actualité IA provenant d’OpenAI cette semaine a un tranchant marqué : la société a lancé une bourse Safety Fellowship rémunérée, offrant des indemnités hebdomadaires de 3 850 dollars à des chercheurs externes étudiant ce qui pourrait mal tourner avec une IA avancée — annoncée dans les heures qui ont suivi une enquête du New Yorker rapportant qu’OpenAI avait dissous ses équipes internes de sécurité et retiré discrètement le mot « safely » de sa déclaration de mission à l’IRS.
Résumé

  • La OpenAI Safety Fellowship, annoncée le 6 avril, se déroule du 14 septembre 2026 au 5 février 2027 ; les fellows reçoivent une indemnité hebdomadaire de 3 850 dollars, environ 15 000 dollars de ressources de calcul mensuelles, et un mentorat de la part de chercheurs d’OpenAI, mais n’auront pas accès aux systèmes internes de l’entreprise
  • Les domaines de recherche prioritaires incluent l’évaluation de la sécurité, l’éthique, la robustesse, des mesures d’atténuation évolutives, des méthodes préservant la confidentialité, la supervision agentique et les abus de haute gravité — les candidatures se clôturent le 3 mai, et les fellows sont informés avant le 25 juillet
  • Le Ronan Farrow du New Yorker a rapporté la même semaine qu’OpenAI avait dissous depuis 2024 son équipe de superalignement, son équipe AGI Readiness et son équipe Mission Alignment, et qu’un représentant d’OpenAI a répondu à un journaliste qui interrogeait au sujet de chercheurs en sécurité existentielle par : « Que voulez-vous dire par sécurité existentielle ? Ce n’est pas, comme, une chose. »

OpenAI a annoncé la fellowship le 6 avril comme « un programme pilote visant à soutenir la recherche indépendante en matière de sécurité et d’alignement et à développer la prochaine génération de talents ». Le programme verse 3 850 dollars par semaine, soit plus de 200 000 dollars annualisés, plus environ 15 000 dollars de calcul mensuel et de mentorat de la part de chercheurs d’OpenAI. Les fellows travaillent depuis l’espace de travail Berkeley de Constellation ou à distance, et les candidatures se clôturent le 3 mai. La fellowship n’est pas limitée aux spécialistes de l’IA : OpenAI recrute aussi en cybersécurité, en sciences sociales et en interaction homme-machine en plus de l’informatique.

Actualité IA : OpenAI lance une Safety Fellowship alors que ses équipes internes de sécurité ont disparu

Le timing est l’histoire. L’enquête de Ronan Farrow dans The New Yorker, publiée le même jour, documente qu’OpenAI a dissous trois organisations internes consécutives de sécurité sur une période de 22 mois. L’équipe de superalignement a été arrêtée en mai 2024 après le départ des co-responsables Ilya Sutskever et Jan Leike. Leike a écrit en partant que « la culture et les processus de sécurité ont été relégués au second plan au profit de produits brillants ». L’équipe AGI Readiness a été suivie en octobre 2024. L’équipe Mission Alignment a été dissoute en février 2026, seulement après 16 mois. Le New Yorker a aussi rapporté qu’au moment où un journaliste a demandé à s’entretenir avec des chercheurs en sécurité existentielle d’OpenAI, un représentant de la société a répondu : « Que voulez-vous dire par sécurité existentielle ? Ce n’est pas, comme, une chose. »

La fellowship ne remplace explicitement pas l’infrastructure interne. Les fellows reçoivent des crédits d’API et des ressources de calcul, mais aucun accès aux systèmes, positionnant le programme comme un financement de recherche à distance (arm’s-length) plutôt que comme une reconstruction des équipes dissoutes.

Ce que la Fellowship exige des fellows qu’ils produisent

L’agenda de recherche couvre sept domaines prioritaires : l’évaluation de la sécurité, l’éthique, la robustesse, des mesures d’atténuation évolutives, des méthodes de sécurité préservant la confidentialité, la supervision agentique et les domaines de mauvais usages de haute gravité. À la fin du programme en février 2027, chaque fellow doit produire une sortie substantielle — un article, un benchmark ou un dataset. Aucune qualification académique spécifique n’est requise ; OpenAI a déclaré qu’elle accorde la priorité à la capacité de recherche, au jugement technique et à la capacité d’exécution.

Pourquoi cela compte au-delà de l’industrie de l’IA

Comme crypto.news l’a rapporté, la confiance dans les engagements de sécurité déclarés par les entreprises d’IA de pointe est un signal de marché qui influence l’allocation de capitaux à travers l’infrastructure IA, les jetons IA, et les protocoles DePIN et d’agents IA situés à l’intersection de la crypto et de l’intelligence artificielle. Comme crypto.news l’a noté, la trajectoire de dépenses d’OpenAI et la crédibilité de ses priorités opérationnelles sont suivies de près par les investisseurs qui évaluent le secteur de l’infrastructure IA — un secteur avec un chevauchement croissant avec des systèmes basés sur la blockchain. La question de savoir si des fellows externes, travaillant sans accès interne, peuvent influencer de manière significative le développement des modèles est celle à laquelle les recherches du premier cohort commenceront à répondre au début de 2027.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire