AI новини: OpenAI платить дослідникам, щоб з’ясувати, що може піти не так — але її внутрішні команди безпеки вже зникли

Cryptonews

Новини про ШІ від OpenAI цього тижня мають гострий присмак: компанія запустила платну Safety Fellowship, пропонуючи зовнішнім дослідникам $3,850 щотижневих стипендій за вивчення того, що може піти не так із передовим ШІ — оголосила це протягом годин після розслідування The New Yorker, яке повідомило, що OpenAI розпустила свої внутрішні команди з безпеки та тихо прибрала слово “safely” зі свого місійного формулювання в податковій заяві IRS.
Summary

  • Safety Fellowship від OpenAI, оголошена 6 квітня, триватиме з 14 вересня 2026 року по 5 лютого 2027 року; стипендіати отримуватимуть $3,850 щотижневої стипендії, приблизно $15,000 щомісячних обчислювальних ресурсів і менторство від дослідників OpenAI, але не матимуть доступу до внутрішніх систем компанії
  • Серед пріоритетних напрямів досліджень: оцінка безпеки, етика, надійність, масштабовані пом’якшення ризиків, методи збереження приватності, нагляд за агентами та зловживання з високою критичністю — заявки закриваються 3 травня, а стипендіатів повідомлять до 25 липня
  • Ронан Фарроу з The New Yorker повідомив того ж тижня, що OpenAI з 2024 року розпустила свою команду супервирівнювання (superalignment), команду з готовності до AGI (AGI Readiness) та команду з узгодження місії (Mission Alignment), і що представник OpenAI відповів журналісту на запит про дослідників екзистенційної безпеки: “Що ви маєте на увазі під екзистенційною безпекою? Це ж не, типу, річ.”

OpenAI оголосила стипендію 6 квітня як “пілотну програму для підтримки незалежних досліджень з безпеки та узгодження (alignment) і розвитку наступного покоління талантів”. Програма платить $3,850 щотижня, понад $200,000 у річному еквіваленті, плюс приблизно $15,000 щомісячних обчислювальних ресурсів і менторства від дослідників OpenAI. Стипендіати працюють з робочого простору Constellation у Berkeley або віддалено, а заявки закриваються 3 травня. Стипендія не обмежується фахівцями з ШІ — OpenAI набирає також з кібербезпеки, соціальних наук і взаємодії людини з комп’ютером поряд із інформатикою.

AI News: OpenAI запускає Safety Fellowship, оскільки її внутрішні команди з безпеки зникли

У часі й полягає історія. Розслідування Ронана Фарроу в The New Yorker, опубліковане в той самий день, задокументувало, що OpenAI розпустила три послідовні внутрішні організації з безпеки за 22 місяці. Команду супервирівнювання (superalignment) припинили в травні 2024 року після того, як співкерівники Ілля Сутске вер (Ilya Sutskever) і Ян Лейк (Jan Leike) пішли. Лейк написав на прощання, що “культура безпеки та процеси відійшли на задній план порівняно з блискучими продуктами”. За нею в жовтні 2024 року послідувала команда з готовності до AGI (AGI Readiness). Команду з узгодження місії (Mission Alignment) розформували в лютому 2026 року після всього 16 місяців. The New Yorker також повідомив, що коли журналіст попросив поговорити з дослідниками екзистенційної безпеки OpenAI, представник компанії відповів: “Що ви маєте на увазі під екзистенційною безпекою? Це ж не, типу, річ.”

Стипендія прямо не замінює внутрішню інфраструктуру. Стипендіати отримують кредити на API та обчислювальні ресурси, але не мають доступу до систем, тож програма позиціонується як фінансування незалежних досліджень на відстані (arm’s-length), а не як відбудова розпущених команд.

Що Fellowship вимагає від стипендіатів підготувати

Дослідницький план охоплює сім пріоритетних напрямів: оцінка безпеки, етика, надійність, масштабовані пом’якшення ризиків, методи безпечності, що зберігають приватність (privacy-preserving safety methods), нагляд за агентами та домени зловживань із високою критичністю. До завершення програми в лютому 2027 року кожен стипендіат має підготувати змістовний результат — статтю, бенчмарк або датасет. Конкретні академічні кваліфікації не потрібні; OpenAI заявила, що пріоритет надаватиме здатності до досліджень, технічному судженню та спроможності виконувати роботу.

Чому це важливо поза межами індустрії ШІ

Як писав crypto.news, довіра до задекларованих зобов’язань з безпеки компаній на межі можливостей (frontier AI) є ринковим сигналом, який впливає на розподіл капіталу між інфраструктурою для ШІ, токенами ШІ та протоколами DePIN і агентів ШІ, що знаходяться на перетині криптовалют і штучного інтелекту. Як також зазначав crypto.news, траєкторія витрат OpenAI та правдоподібність її операційних пріоритетів уважно відстежуються інвесторами, які оцінюють сектор інфраструктури для ШІ — сектор, де зростає перетин із системами на базі блокчейну. Чи зможуть стипендіати ззовні, працюючи без внутрішнього доступу, суттєво вплинути на розробку моделей — питання, на яке почне відповідати дослідження першої когорти на початку 2027 року.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів