Новини про ШІ від OpenAI цього тижня мають гострий присмак: компанія запустила платну Safety Fellowship, пропонуючи зовнішнім дослідникам $3,850 щотижневих стипендій за вивчення того, що може піти не так із передовим ШІ — оголосила це протягом годин після розслідування The New Yorker, яке повідомило, що OpenAI розпустила свої внутрішні команди з безпеки та тихо прибрала слово “safely” зі свого місійного формулювання в податковій заяві IRS.
Summary
OpenAI оголосила стипендію 6 квітня як “пілотну програму для підтримки незалежних досліджень з безпеки та узгодження (alignment) і розвитку наступного покоління талантів”. Програма платить $3,850 щотижня, понад $200,000 у річному еквіваленті, плюс приблизно $15,000 щомісячних обчислювальних ресурсів і менторства від дослідників OpenAI. Стипендіати працюють з робочого простору Constellation у Berkeley або віддалено, а заявки закриваються 3 травня. Стипендія не обмежується фахівцями з ШІ — OpenAI набирає також з кібербезпеки, соціальних наук і взаємодії людини з комп’ютером поряд із інформатикою.
У часі й полягає історія. Розслідування Ронана Фарроу в The New Yorker, опубліковане в той самий день, задокументувало, що OpenAI розпустила три послідовні внутрішні організації з безпеки за 22 місяці. Команду супервирівнювання (superalignment) припинили в травні 2024 року після того, як співкерівники Ілля Сутске вер (Ilya Sutskever) і Ян Лейк (Jan Leike) пішли. Лейк написав на прощання, що “культура безпеки та процеси відійшли на задній план порівняно з блискучими продуктами”. За нею в жовтні 2024 року послідувала команда з готовності до AGI (AGI Readiness). Команду з узгодження місії (Mission Alignment) розформували в лютому 2026 року після всього 16 місяців. The New Yorker також повідомив, що коли журналіст попросив поговорити з дослідниками екзистенційної безпеки OpenAI, представник компанії відповів: “Що ви маєте на увазі під екзистенційною безпекою? Це ж не, типу, річ.”
Стипендія прямо не замінює внутрішню інфраструктуру. Стипендіати отримують кредити на API та обчислювальні ресурси, але не мають доступу до систем, тож програма позиціонується як фінансування незалежних досліджень на відстані (arm’s-length), а не як відбудова розпущених команд.
Дослідницький план охоплює сім пріоритетних напрямів: оцінка безпеки, етика, надійність, масштабовані пом’якшення ризиків, методи безпечності, що зберігають приватність (privacy-preserving safety methods), нагляд за агентами та домени зловживань із високою критичністю. До завершення програми в лютому 2027 року кожен стипендіат має підготувати змістовний результат — статтю, бенчмарк або датасет. Конкретні академічні кваліфікації не потрібні; OpenAI заявила, що пріоритет надаватиме здатності до досліджень, технічному судженню та спроможності виконувати роботу.
Як писав crypto.news, довіра до задекларованих зобов’язань з безпеки компаній на межі можливостей (frontier AI) є ринковим сигналом, який впливає на розподіл капіталу між інфраструктурою для ШІ, токенами ШІ та протоколами DePIN і агентів ШІ, що знаходяться на перетині криптовалют і штучного інтелекту. Як також зазначав crypto.news, траєкторія витрат OpenAI та правдоподібність її операційних пріоритетів уважно відстежуються інвесторами, які оцінюють сектор інфраструктури для ШІ — сектор, де зростає перетин із системами на базі блокчейну. Чи зможуть стипендіати ззовні, працюючи без внутрішнього доступу, суттєво вплинути на розробку моделей — питання, на яке почне відповідати дослідження першої когорти на початку 2027 року.