Ілля Сутскевер підготував 52-сторінкову справу проти Сема Алтмана, ґрунтуючись майже виключно на неперевірених твердженнях від одного джерела — технічного директора Міри Мурати.
OpenAI була на межі злиття з конкурентом Anthropic під час кризи, при цьому член правління Хелен Тонер стверджувала, що знищення компанії може бути “узгодженим з місією”.
Правління було “поспішним” і “недосвідченим”, за словами самого Іллі, який планував відсторонення Альтмана щонайменше рік, чекаючи на сприятливу динаміку в правлінні.
Центр мистецтв, моди та розваг Decrypt.
Відкрийте SCENE
<br>
Ілля Сутскевер дав свідчення на відео протягом майже 10 годин у справі Маска проти Альтмана 1 жовтня цього року.
Співзасновник, який допоміг створити ChatGPT і став відомим через голосування за звільнення Сема Альтмана в листопаді 2023 року, нарешті дав свідчення під присягою і був змушений відповісти. Транскрипт на 365 сторінок був опублікований цього тижня.
Те, що він відкриває, є портретом блискучих вчених, які приймають катастрофічні управлінські рішення, непідтверджені звинувачення, що сприймаються як факти, та ідеологічні розриви настільки глибокі, що деякі члени правління надавали перевагу знищенню OpenAI, аніж дозволити йому продовжувати під керівництвом Алтмана.
Позов Маск проти Алтмана стосується заяви Ілона Маска, що OpenAI та її генеральний директор Алтман зрадили оригінальну неприбуткову місію компанії, перетворивши свої дослідження на прибуткове підприємство, пов'язане з Microsoft, що піднімає важливі питання про те, хто контролює розвинені моделі штучного інтелекту та чи можуть вони бути розроблені безпечно в інтересах суспільства.
Для тих, хто стежить за драмою OpenAI, цей документ є вражаючим і звинувачувальним читанням. Це приклад того, як все йде не так, коли технічний геній зустрічається з організаційною некомпетентністю.
Ось п'ять найзначніших відкриттів.
52-сторінковий досьє, якого публіка не бачила
Сутскевер написав обширний випадок для усунення Алтмана, доповнений скріншотами, і організований у 52-сторінковий бриф.
Сутскевер свідчив, що він чітко сказав у меморандумі: “Сем демонструє послідовний шаблон брехні, підриву своїх керівників і налаштування своїх керівників один проти одного.”
Він надіслав меморандум незалежним директорам, використовуючи технологію зниклих електронних листів “тому що я хвилювався, що ці меморандуми якимось чином просочаться.” Повний бриф не був наданий через відкриття.
“Контекст цього документа полягає в тому, що незалежні члени правління попросили мене підготувати його. І я це зробив. І я був досить обережним,” - свідчив Сутскевер, зазначаючи, що частини меморандуму існують у скріншотах, зроблених технічним директором OpenAI Мірею Мурати.
Річна гра в шахи на дошці
Коли його запитали, як довго він розглядав можливість звільнення Алтмана, Сутскевер відповів: “Принаймні рік.”
Запитавши, яких динамік він очікує, він відповів: “Що більшість правління явно не є дружньою до Сема.”
Генеральний директор, який контролює склад правління, фактично недосяжний. Свідчення Сутскевера показують, що він це прекрасно розумів і відповідно коригував свою стратегію.
Коли departures членів ради створили цю вакансію, він скористався цим. Він грав у довгострокову політику ради, незважаючи на те, як близько Altman і Sutskever здавалися публічно.
Вихідні OpenAI майже зникли
У суботу, 18 листопада 2023 року—протягом 48 годин після звільнення Алтмана—велися активні обговорення щодо злиття OpenAI з Anthropic.
Гелен Тонер, колишня членкиня ради директорів OpenAI, була “найбільш підтримуючою” цього напрямку, за словами Сутскевера.
Якби злиття відбулося, OpenAI перестала б існувати як незалежна сутність.
“Я не знаю, чи це була Гелен, яка зв'язалася з Anthropic, чи це Anthropic зв'язався з Гелен,” свідчив Сутскевер. “Але вони зв'язалися з пропозицією об'єднатися з OpenAI та взяти на себе його керівництво.”
Сутскевер сказав, що він “дуже незадоволений цим”, додавши пізніше, що він “справді не хотів, щоб OpenAI об'єдналася з Anthropic.”
“Знищення OpenAI може відповідати місії”
Коли керівники OpenAI попередили, що компанія зазнає краху без Алтмана, Тонер відповів, що знищення OpenAI може відповідати її місії безпеки.
Це ідеологічне серце кризи. Тонер представляв одну зі струмків думок з безпеки ШІ, яка розглядає швидкий розвиток ШІ як екзистенційно небезпечний — потенційно більш небезпечний, ніж відсутність розвитку ШІ взагалі.
“Керівники—це була зустріч з членами правління та виконавчою командою—керівники сказали правлінню, що, якщо Сем не повернеться, то OpenAI буде знищено, і це суперечить місії OpenAI,” свідчив Сутскевер. “І Хелен Тонер сказала щось на кшталт того, що це узгоджується, але я думаю, що вона сказала це ще більш прямо, ніж це.”
Якщо ви дійсно вірите, що OpenAI становить ризики, які переважають його переваги, то очікуваний бунт працівників був неважливим. Ця заява допомагає пояснити, чому рада директорів залишалася непохитною, навіть коли понад 700 працівників загрожували піти.
Помилки в розрахунках: Один джерело для всього, недосвідчена рада та культоподібна лояльність працівників
Практично все в 52-сторінковій пам'ятці Сутскевера походить від однієї особи: Міра Мурати.
Він не перевірив заяви з Бредом Лайткапом, Грегом Брокманом або іншими керівниками, згаданими в скаргах. Він повністю довіряв Мурати, і перевірка “не спала на думку (йому).”
“Я повністю вірив інформації, яку мені давала Міра,” сказав Сутскевер. “Зараз я розумію, що не знав цього. Але тоді я думав, що знаю. Але я знав це через вторинні знання.”
Коли його запитали про процес роботи ради, Сутскевер був відвертим щодо того, що пішло не так.
“Одне, що я можу сказати, це те, що процес був поспішним,” свідчив він. “Я думаю, що це було поспішно, тому що рада була не досвідченою.”
Сутскевер також очікував, що співробітники OpenAI будуть байдужі до усунення Алтмана.
Коли 700 з 770 працівників підписали листа з вимогою повернення Алтмана і погрозами піти до Microsoft, він був щиро здивований. Він принципово неправильно оцінив лояльність працівників і ізоляцію ради директорів від організаційної реальності.
“Я не очікував, що вони будуть вітати, але я також не очікував, що вони будуть відчувати щось особливе в будь-якому випадку,” – сказав Сутскевер.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
У середині депозитації, яка показала, як OpenAI майже знищила себе
Коротко
Центр мистецтв, моди та розваг Decrypt.
Відкрийте SCENE
<br>
Ілля Сутскевер дав свідчення на відео протягом майже 10 годин у справі Маска проти Альтмана 1 жовтня цього року.
Співзасновник, який допоміг створити ChatGPT і став відомим через голосування за звільнення Сема Альтмана в листопаді 2023 року, нарешті дав свідчення під присягою і був змушений відповісти. Транскрипт на 365 сторінок був опублікований цього тижня.
Те, що він відкриває, є портретом блискучих вчених, які приймають катастрофічні управлінські рішення, непідтверджені звинувачення, що сприймаються як факти, та ідеологічні розриви настільки глибокі, що деякі члени правління надавали перевагу знищенню OpenAI, аніж дозволити йому продовжувати під керівництвом Алтмана.
Позов Маск проти Алтмана стосується заяви Ілона Маска, що OpenAI та її генеральний директор Алтман зрадили оригінальну неприбуткову місію компанії, перетворивши свої дослідження на прибуткове підприємство, пов'язане з Microsoft, що піднімає важливі питання про те, хто контролює розвинені моделі штучного інтелекту та чи можуть вони бути розроблені безпечно в інтересах суспільства.
Для тих, хто стежить за драмою OpenAI, цей документ є вражаючим і звинувачувальним читанням. Це приклад того, як все йде не так, коли технічний геній зустрічається з організаційною некомпетентністю.
Ось п'ять найзначніших відкриттів.
Сутскевер написав обширний випадок для усунення Алтмана, доповнений скріншотами, і організований у 52-сторінковий бриф.
Сутскевер свідчив, що він чітко сказав у меморандумі: “Сем демонструє послідовний шаблон брехні, підриву своїх керівників і налаштування своїх керівників один проти одного.”
Він надіслав меморандум незалежним директорам, використовуючи технологію зниклих електронних листів “тому що я хвилювався, що ці меморандуми якимось чином просочаться.” Повний бриф не був наданий через відкриття.
“Контекст цього документа полягає в тому, що незалежні члени правління попросили мене підготувати його. І я це зробив. І я був досить обережним,” - свідчив Сутскевер, зазначаючи, що частини меморандуму існують у скріншотах, зроблених технічним директором OpenAI Мірею Мурати.
Коли його запитали, як довго він розглядав можливість звільнення Алтмана, Сутскевер відповів: “Принаймні рік.”
Запитавши, яких динамік він очікує, він відповів: “Що більшість правління явно не є дружньою до Сема.”
Генеральний директор, який контролює склад правління, фактично недосяжний. Свідчення Сутскевера показують, що він це прекрасно розумів і відповідно коригував свою стратегію.
Коли departures членів ради створили цю вакансію, він скористався цим. Він грав у довгострокову політику ради, незважаючи на те, як близько Altman і Sutskever здавалися публічно.
У суботу, 18 листопада 2023 року—протягом 48 годин після звільнення Алтмана—велися активні обговорення щодо злиття OpenAI з Anthropic.
Гелен Тонер, колишня членкиня ради директорів OpenAI, була “найбільш підтримуючою” цього напрямку, за словами Сутскевера.
Якби злиття відбулося, OpenAI перестала б існувати як незалежна сутність.
“Я не знаю, чи це була Гелен, яка зв'язалася з Anthropic, чи це Anthropic зв'язався з Гелен,” свідчив Сутскевер. “Але вони зв'язалися з пропозицією об'єднатися з OpenAI та взяти на себе його керівництво.”
Сутскевер сказав, що він “дуже незадоволений цим”, додавши пізніше, що він “справді не хотів, щоб OpenAI об'єдналася з Anthropic.”
Коли керівники OpenAI попередили, що компанія зазнає краху без Алтмана, Тонер відповів, що знищення OpenAI може відповідати її місії безпеки.
Це ідеологічне серце кризи. Тонер представляв одну зі струмків думок з безпеки ШІ, яка розглядає швидкий розвиток ШІ як екзистенційно небезпечний — потенційно більш небезпечний, ніж відсутність розвитку ШІ взагалі.
“Керівники—це була зустріч з членами правління та виконавчою командою—керівники сказали правлінню, що, якщо Сем не повернеться, то OpenAI буде знищено, і це суперечить місії OpenAI,” свідчив Сутскевер. “І Хелен Тонер сказала щось на кшталт того, що це узгоджується, але я думаю, що вона сказала це ще більш прямо, ніж це.”
Якщо ви дійсно вірите, що OpenAI становить ризики, які переважають його переваги, то очікуваний бунт працівників був неважливим. Ця заява допомагає пояснити, чому рада директорів залишалася непохитною, навіть коли понад 700 працівників загрожували піти.
Практично все в 52-сторінковій пам'ятці Сутскевера походить від однієї особи: Міра Мурати.
Він не перевірив заяви з Бредом Лайткапом, Грегом Брокманом або іншими керівниками, згаданими в скаргах. Він повністю довіряв Мурати, і перевірка “не спала на думку (йому).”
“Я повністю вірив інформації, яку мені давала Міра,” сказав Сутскевер. “Зараз я розумію, що не знав цього. Але тоді я думав, що знаю. Але я знав це через вторинні знання.”
Коли його запитали про процес роботи ради, Сутскевер був відвертим щодо того, що пішло не так.
“Одне, що я можу сказати, це те, що процес був поспішним,” свідчив він. “Я думаю, що це було поспішно, тому що рада була не досвідченою.”
Сутскевер також очікував, що співробітники OpenAI будуть байдужі до усунення Алтмана.
Коли 700 з 770 працівників підписали листа з вимогою повернення Алтмана і погрозами піти до Microsoft, він був щиро здивований. Він принципово неправильно оцінив лояльність працівників і ізоляцію ради директорів від організаційної реальності.
“Я не очікував, що вони будуть вітати, але я також не очікував, що вони будуть відчувати щось особливе в будь-якому випадку,” – сказав Сутскевер.