Ilya Sutskever preparou um caso de 52 páginas contra Sam Altman baseado quase inteiramente em alegações não verificadas de uma fonte—a CTO Mira Murati
A OpenAI esteve a poucos dias de se fundir com a concorrente Anthropic durante a crise, com a membro do conselho Helen Toner a argumentar que destruir a empresa poderia ser “consistente com a missão”
O conselho foi “apressado” e “inexperiente,” de acordo com o próprio Ilya, que estava planejando a remoção de Altman há pelo menos um ano enquanto aguardava dinâmicas favoráveis no conselho.
Hub de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
<br>
Ilya Sutskever prestou quase 10 horas de depoimento gravado em vídeo no processo Musk v. Altman, no dia 1 de outubro deste ano.
O cofundador que ajudou a construir o ChatGPT e se tornou infame por votar para demitir Sam Altman em novembro de 2023 finalmente prestou depoimento e foi obrigado a responder. A transcrição de 365 páginas foi divulgada esta semana.
O que revela é um retrato de cientistas brilhantes a tomar decisões catastróficas de governança, alegações não verificadas tratadas como factos, e divisões ideológicas tão profundas que alguns membros do conselho preferiam destruir a OpenAI a deixá-la continuar sob a liderança de Altman.
O processo Musk v. Altman centra-se na alegação de Elon Musk de que a OpenAI e seu CEO, Altman, traíram a missão original sem fins lucrativos da empresa ao transformar sua pesquisa em um empreendimento com fins lucrativos alinhado com a Microsoft—levantando questões de alto risco sobre quem controla modelos de IA avançados e se podem ser desenvolvidos de forma segura no interesse público.
Para aqueles que estão a acompanhar o drama da OpenAI, o documento é uma leitura reveladora e condenatória. É um estudo de caso sobre como as coisas dão errado quando o gênio técnico encontra a incompetência organizacional.
Aqui estão as cinco revelações mais significativas.
O dossiê de 52 páginas que o público ainda não viu
Sutskever escreveu um extenso caso para remover Altman, completo com capturas de tela, e organizado em um resumo de 52 páginas.
Sutskever testemunhou que disse explicitamente no memorando: “Sam exibe um padrão consistente de mentir, minar seus executivos e colocar seus executivos uns contra os outros.”
Ele enviou o memorando aos diretores independentes usando tecnologia de e-mail que desaparece “porque estava preocupado que esses memorandos de alguma forma vazassem.” O resumo completo não foi produzido através da descoberta.
“O contexto deste documento é que os membros independentes do conselho me pediram para prepará-lo. E eu fiz. E fui bastante cuidadoso,” testemunhou Sutskever, dizendo que partes do memorando existem em capturas de tela feitas pela CTO da OpenAI, Mira Murati.
Um jogo de xadrez de tabuleiro de um ano
Quando perguntado há quanto tempo estava a considerar despedir Altman, Sutskever respondeu: “Pelo menos um ano.”
Perguntado sobre quais dinâmicas estava à espera, ele disse: “Que a maioria do conselho não é obviamente amigável com Sam.”
Um CEO que controla a composição do conselho é funcionalmente intocável. O testemunho de Sutskever mostra que ele entendeu isso perfeitamente e ajustou sua estratégia de acordo.
Quando as saídas de membros do conselho criaram essa oportunidade, ele se moveu. Ele estava jogando uma política de conselho a longo prazo, apesar de quão próximos Altman e Sutskever parecessem publicamente.
O OpenAI quase desapareceu no fim de semana
No sábado, 18 de novembro de 2023—dentro de 48 horas após a demissão de Altman—houve discussões ativas sobre a fusão da OpenAI com a Anthropic.
Helen Toner, uma ex-membro do conselho da OpenAI, foi “a mais apoiadora” desta direção, de acordo com Sutskever.
Se a fusão tivesse acontecido, a OpenAI teria deixado de existir como uma entidade independente.
“Não sei se foi a Helen que contatou a Anthropic ou se foi a Anthropic que contatou a Helen,” testemunhou Sutskever. “Mas eles entraram em contato com uma proposta de se fundir com a OpenAI e assumir a sua liderança.”
Sutskever disse que estava “muito infeliz com isso,” acrescentando mais tarde que “realmente não queria que a OpenAI se fundisse com a Anthropic.”
“Destruir a OpenAI poderia ser consistente com a missão”
Quando os executivos da OpenAI alertaram que a empresa entraria em colapso sem Altman, Toner respondeu que destruir a OpenAI poderia ser consistente com sua missão de segurança.
Este é o coração ideológico da crise. Toner representava uma vertente do pensamento sobre a segurança da IA que vê o rápido desenvolvimento da IA como potencialmente perigoso para a existência—potencialmente mais perigoso do que nenhum desenvolvimento de IA.
“Os executivos—foi uma reunião com os membros do conselho e a equipe executiva—os executivos disseram ao conselho que, se Sam não voltar, então a OpenAI será destruída, e isso é inconsistente com a missão da OpenAI,” testemunhou Sutskever. “E Helen Toner disse algo no sentido de que é consistente, mas acho que ela disse isso de forma ainda mais direta do que isso.”
Se você realmente acreditasse que a OpenAI apresentava riscos que superavam seus benefícios, então uma revolta iminente dos funcionários era irrelevante. A declaração ajuda a explicar por que o conselho se manteve firme, mesmo quando mais de 700 funcionários ameaçaram sair.
Cálculos errados: Uma fonte para tudo, uma direcção inexperiente e lealdade dos trabalhadores semelhante a uma seita.
Quase tudo no memorando de 52 páginas de Sutskever veio de uma pessoa: Mira Murati.
Ele não verificou as alegações com Brad Lightcap, Greg Brockman ou outros executivos mencionados nas queixas. Ele confiou completamente em Murati, e a verificação “não lhe ocorreu (.”
“Eu acreditava plenamente nas informações que a Mira me estava dando,” disse Sutskever. “Em retrospectiva, percebo que eu não sabia disso. Mas na época, pensei que sabia. Mas eu sabia disso através de conhecimento de segunda mão.”
Quando questionado sobre o processo do conselho, Sutskever foi direto sobre o que correu mal.
“Uma coisa que posso dizer é que o processo foi apressado,” testemunhou ele. “Acho que foi apressado porque a direção era inexperiente.”
Sutskever também esperava que os funcionários da OpenAI fossem indiferentes à remoção de Altman.
Quando 700 dos 770 funcionários assinaram uma carta exigindo o retorno de Altman e ameaçando sair para a Microsoft, ele ficou genuinamente surpreso. Ele havia subestimado fundamentalmente a lealdade da força de trabalho e o isolamento do conselho em relação à realidade organizacional.
“Eu não esperava que eles aplaudissem, mas também não esperava que se sentissem fortemente de qualquer forma,” disse Sutskever.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Dentro da Deposição Que Mostrou Como a OpenAI Quase Se Destruiu
Em resumo
Hub de Arte, Moda e Entretenimento da Decrypt.
Descubra SCENE
<br>
Ilya Sutskever prestou quase 10 horas de depoimento gravado em vídeo no processo Musk v. Altman, no dia 1 de outubro deste ano.
O cofundador que ajudou a construir o ChatGPT e se tornou infame por votar para demitir Sam Altman em novembro de 2023 finalmente prestou depoimento e foi obrigado a responder. A transcrição de 365 páginas foi divulgada esta semana.
O que revela é um retrato de cientistas brilhantes a tomar decisões catastróficas de governança, alegações não verificadas tratadas como factos, e divisões ideológicas tão profundas que alguns membros do conselho preferiam destruir a OpenAI a deixá-la continuar sob a liderança de Altman.
O processo Musk v. Altman centra-se na alegação de Elon Musk de que a OpenAI e seu CEO, Altman, traíram a missão original sem fins lucrativos da empresa ao transformar sua pesquisa em um empreendimento com fins lucrativos alinhado com a Microsoft—levantando questões de alto risco sobre quem controla modelos de IA avançados e se podem ser desenvolvidos de forma segura no interesse público.
Para aqueles que estão a acompanhar o drama da OpenAI, o documento é uma leitura reveladora e condenatória. É um estudo de caso sobre como as coisas dão errado quando o gênio técnico encontra a incompetência organizacional.
Aqui estão as cinco revelações mais significativas.
Sutskever escreveu um extenso caso para remover Altman, completo com capturas de tela, e organizado em um resumo de 52 páginas.
Sutskever testemunhou que disse explicitamente no memorando: “Sam exibe um padrão consistente de mentir, minar seus executivos e colocar seus executivos uns contra os outros.”
Ele enviou o memorando aos diretores independentes usando tecnologia de e-mail que desaparece “porque estava preocupado que esses memorandos de alguma forma vazassem.” O resumo completo não foi produzido através da descoberta.
“O contexto deste documento é que os membros independentes do conselho me pediram para prepará-lo. E eu fiz. E fui bastante cuidadoso,” testemunhou Sutskever, dizendo que partes do memorando existem em capturas de tela feitas pela CTO da OpenAI, Mira Murati.
Quando perguntado há quanto tempo estava a considerar despedir Altman, Sutskever respondeu: “Pelo menos um ano.”
Perguntado sobre quais dinâmicas estava à espera, ele disse: “Que a maioria do conselho não é obviamente amigável com Sam.”
Um CEO que controla a composição do conselho é funcionalmente intocável. O testemunho de Sutskever mostra que ele entendeu isso perfeitamente e ajustou sua estratégia de acordo.
Quando as saídas de membros do conselho criaram essa oportunidade, ele se moveu. Ele estava jogando uma política de conselho a longo prazo, apesar de quão próximos Altman e Sutskever parecessem publicamente.
No sábado, 18 de novembro de 2023—dentro de 48 horas após a demissão de Altman—houve discussões ativas sobre a fusão da OpenAI com a Anthropic.
Helen Toner, uma ex-membro do conselho da OpenAI, foi “a mais apoiadora” desta direção, de acordo com Sutskever.
Se a fusão tivesse acontecido, a OpenAI teria deixado de existir como uma entidade independente.
“Não sei se foi a Helen que contatou a Anthropic ou se foi a Anthropic que contatou a Helen,” testemunhou Sutskever. “Mas eles entraram em contato com uma proposta de se fundir com a OpenAI e assumir a sua liderança.”
Sutskever disse que estava “muito infeliz com isso,” acrescentando mais tarde que “realmente não queria que a OpenAI se fundisse com a Anthropic.”
Quando os executivos da OpenAI alertaram que a empresa entraria em colapso sem Altman, Toner respondeu que destruir a OpenAI poderia ser consistente com sua missão de segurança.
Este é o coração ideológico da crise. Toner representava uma vertente do pensamento sobre a segurança da IA que vê o rápido desenvolvimento da IA como potencialmente perigoso para a existência—potencialmente mais perigoso do que nenhum desenvolvimento de IA.
“Os executivos—foi uma reunião com os membros do conselho e a equipe executiva—os executivos disseram ao conselho que, se Sam não voltar, então a OpenAI será destruída, e isso é inconsistente com a missão da OpenAI,” testemunhou Sutskever. “E Helen Toner disse algo no sentido de que é consistente, mas acho que ela disse isso de forma ainda mais direta do que isso.”
Se você realmente acreditasse que a OpenAI apresentava riscos que superavam seus benefícios, então uma revolta iminente dos funcionários era irrelevante. A declaração ajuda a explicar por que o conselho se manteve firme, mesmo quando mais de 700 funcionários ameaçaram sair.
Quase tudo no memorando de 52 páginas de Sutskever veio de uma pessoa: Mira Murati.
Ele não verificou as alegações com Brad Lightcap, Greg Brockman ou outros executivos mencionados nas queixas. Ele confiou completamente em Murati, e a verificação “não lhe ocorreu (.”
“Eu acreditava plenamente nas informações que a Mira me estava dando,” disse Sutskever. “Em retrospectiva, percebo que eu não sabia disso. Mas na época, pensei que sabia. Mas eu sabia disso através de conhecimento de segunda mão.”
Quando questionado sobre o processo do conselho, Sutskever foi direto sobre o que correu mal.
“Uma coisa que posso dizer é que o processo foi apressado,” testemunhou ele. “Acho que foi apressado porque a direção era inexperiente.”
Sutskever também esperava que os funcionários da OpenAI fossem indiferentes à remoção de Altman.
Quando 700 dos 770 funcionários assinaram uma carta exigindo o retorno de Altman e ameaçando sair para a Microsoft, ele ficou genuinamente surpreso. Ele havia subestimado fundamentalmente a lealdade da força de trabalho e o isolamento do conselho em relação à realidade organizacional.
“Eu não esperava que eles aplaudissem, mas também não esperava que se sentissem fortemente de qualquer forma,” disse Sutskever.