Ilya Sutskever a préparé un dossier de 52 pages contre Sam Altman basé presque entièrement sur des allégations non vérifiées d'une seule source—la CTO Mira Murati.
OpenAI a failli fusionner avec le concurrent Anthropic pendant la crise, avec la membre du conseil Helen Toner affirmant que détruire l'entreprise pourrait être “compatible avec la mission”
Le conseil d'administration était “pressé” et “inexpérimenté,” selon Ilya lui-même, qui avait prévu le retrait d'Altman pendant au moins un an en attendant des dynamiques favorables au sein du conseil.
Le hub d'art, de mode et de divertissement de Decrypt.
Découvrez SCENE
<br>
Ilya Sutskever a témoigné pendant près de 10 heures lors d'une vidéo dans le procès Musk contre Altman, le 1er octobre de cette année.
Le co-fondateur qui a aidé à construire ChatGPT et est devenu infâme pour avoir voté pour renvoyer Sam Altman en novembre 2023 était enfin sous serment et contraint de répondre. La transcription de 365 pages a été publiée cette semaine.
Ce que cela révèle est un portrait de brillants scientifiques prenant des décisions de gouvernance catastrophiques, des allégations non vérifiées traitées comme des faits, et des divisions idéologiques si profondes que certains membres du conseil devaient préférer détruire OpenAI plutôt que de le laisser continuer sous la direction d'Altman.
Le procès Musk v. Altman porte sur la revendication d'Elon Musk selon laquelle OpenAI et son PDG, Altman, ont trahi la mission nonprofit originale de l'entreprise en transformant sa recherche en une entreprise lucrative alignée avec Microsoft—soulevant des questions cruciales sur qui contrôle les modèles d'IA avancés et s'ils peuvent être développés en toute sécurité dans l'intérêt public.
Pour ceux qui suivent le drame d'OpenAI, le document est une lecture révélatrice et accablante. C'est une étude de cas sur la manière dont les choses tournent mal lorsque le génie technique rencontre l'incompétence organisationnelle.
Voici les cinq révélations les plus significatives.
Le dossier de 52 pages que le public n'a pas vu
Sutskever a rédigé un dossier complet pour le retrait d'Altman, accompagné de captures d'écran, et organisé en un mémoire de 52 pages.
Sutskever a témoigné qu'il avait explicitement dit dans le mémo : “Sam présente un schéma cohérent de mensonges, saper ses dirigeants et opposer ses dirigeants les uns contre les autres.”
Il a envoyé le mémo aux administrateurs indépendants en utilisant la technologie de courrier électronique éphémère “parce que j'étais inquiet que ces mémos ne fuient d'une manière ou d'une autre.” Le briefing complet n'a pas été produit via la découverte.
“Le contexte de ce document est que les membres indépendants du conseil d'administration m'ont demandé de le préparer. Et je l'ai fait. Et j'ai été assez prudent,” a témoigné Sutskever, en disant que des portions du mémo existent dans des captures d'écran réalisées par la CTO d'OpenAI, Mira Murati.
Un jeu d'échecs de plateau d'un an
Lorsqu'on lui a demandé depuis combien de temps il réfléchissait à renvoyer Altman, Sutskever a répondu : “Au moins un an.”
Interrogé sur les dynamiques qu'il attendait, il a déclaré : “Que la majorité du conseil n'est pas manifestement amicale avec Sam.”
Un PDG qui contrôle la composition du conseil d'administration est pratiquement intouchable. Le témoignage de Sutskever montre qu'il comprenait cela parfaitement et a ajusté sa stratégie en conséquence.
Lorsque les départs des membres du conseil ont créé cette ouverture, il a agi. Il jouait une politique de conseil à long terme, malgré la proximité apparente d'Altman et de Sutskever en public.
Le week-end, OpenAI a presque disparu
Le samedi 18 novembre 2023—dans les 48 heures suivant le licenciement d'Altman—il y avait des discussions actives sur la fusion d'OpenAI avec Anthropic.
Helen Toner, une ancienne membre du conseil d'administration d'OpenAI, était “la plus supportive” de cette direction, selon Sutskever.
Si la fusion avait eu lieu, OpenAI aurait cessé d'exister en tant qu'entité indépendante.
“Je ne sais pas si c'est Helen qui a contacté Anthropic ou si c'est Anthropic qui a contacté Helen,” a témoigné Sutskever. “Mais ils ont pris contact avec une proposition de fusion avec OpenAI et de prendre la direction de celle-ci.”
Sutskever a déclaré qu'il était “très mécontent à ce sujet”, ajoutant plus tard qu'il “ne voulait vraiment pas qu'OpenAI fusionne avec Anthropic.”
“Détruire OpenAI pourrait être en accord avec la mission”
Lorsque les dirigeants d'OpenAI ont averti que l'entreprise s'effondrerait sans Altman, Toner a répondu que détruire OpenAI pourrait être cohérent avec sa mission de sécurité.
C'est le cœur idéologique de la crise. Toner représentait un courant de pensée sur la sécurité de l'IA qui considère le développement rapide de l'IA comme potentiellement dangereux pour l'existence—potentiellement plus dangereux que l'absence de développement de l'IA.
“Les dirigeants—c'était une réunion avec les membres du conseil et l'équipe dirigeante—les dirigeants ont dit au conseil que, si Sam ne revient pas, alors OpenAI sera détruit, et cela est incompatible avec la mission d'OpenAI,” a témoigné Sutskever. “Et Helen Toner a dit quelque chose dans ce sens, mais je pense qu'elle l'a dit de manière encore plus directe que cela.”
Si vous croyiez sincèrement qu'OpenAI représentait des risques qui l'emportaient sur ses avantages, alors une révolte imminente des employés était sans importance. La déclaration aide à expliquer pourquoi le conseil d'administration est resté ferme même si plus de 700 employés menaçaient de partir.
Mauvaises évaluations : Une source pour tout, un conseil d'administration inexpérimenté et une loyauté de travailleur semblable à une secte
Presque tout dans le mémo de 52 pages de Sutskever provient d'une seule personne : Mira Murati.
Il n'a pas vérifié les affirmations avec Brad Lightcap, Greg Brockman ou d'autres dirigeants mentionnés dans les plaintes. Il faisait entièrement confiance à Murati, et la vérification “ne lui est pas venue à l'esprit (.”
« Je croyais pleinement aux informations que Mira me donnait, » a déclaré Sutskever. « Avec le recul, je réalise que je ne le savais pas. Mais à l'époque, je pensais le savoir. Mais je le savais par des connaissances de seconde main. »
Lorsqu'on lui a posé des questions sur le processus du conseil, Sutskever a été franc sur ce qui s'est mal passé.
« Une chose que je peux dire, c'est que le processus a été précipité », a-t-il témoigné. « Je pense qu'il a été précipité parce que le conseil d'administration manquait d'expérience. »
Sutskever s'attendait également à ce que les employés d'OpenAI soient indifférents au départ d'Altman.
Lorsque 700 des 770 employés ont signé une lettre demandant le retour d'Altman et menaçant de partir pour Microsoft, il a été sincèrement surpris. Il avait fondamentalement mal évalué la loyauté des employés et l'isolement du conseil d'administration par rapport à la réalité organisationnelle.
« Je ne m'attendais pas à ce qu'ils acclament, mais je ne m'attendais pas non plus à ce qu'ils ressentent quelque chose de fort dans un sens ou dans l'autre », a déclaré Sutskever.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
À l'intérieur de la déposition qui a montré comment OpenAI a failli se détruire lui-même
En bref
Le hub d'art, de mode et de divertissement de Decrypt.
Découvrez SCENE
<br>
Ilya Sutskever a témoigné pendant près de 10 heures lors d'une vidéo dans le procès Musk contre Altman, le 1er octobre de cette année.
Le co-fondateur qui a aidé à construire ChatGPT et est devenu infâme pour avoir voté pour renvoyer Sam Altman en novembre 2023 était enfin sous serment et contraint de répondre. La transcription de 365 pages a été publiée cette semaine.
Ce que cela révèle est un portrait de brillants scientifiques prenant des décisions de gouvernance catastrophiques, des allégations non vérifiées traitées comme des faits, et des divisions idéologiques si profondes que certains membres du conseil devaient préférer détruire OpenAI plutôt que de le laisser continuer sous la direction d'Altman.
Le procès Musk v. Altman porte sur la revendication d'Elon Musk selon laquelle OpenAI et son PDG, Altman, ont trahi la mission nonprofit originale de l'entreprise en transformant sa recherche en une entreprise lucrative alignée avec Microsoft—soulevant des questions cruciales sur qui contrôle les modèles d'IA avancés et s'ils peuvent être développés en toute sécurité dans l'intérêt public.
Pour ceux qui suivent le drame d'OpenAI, le document est une lecture révélatrice et accablante. C'est une étude de cas sur la manière dont les choses tournent mal lorsque le génie technique rencontre l'incompétence organisationnelle.
Voici les cinq révélations les plus significatives.
Sutskever a rédigé un dossier complet pour le retrait d'Altman, accompagné de captures d'écran, et organisé en un mémoire de 52 pages.
Sutskever a témoigné qu'il avait explicitement dit dans le mémo : “Sam présente un schéma cohérent de mensonges, saper ses dirigeants et opposer ses dirigeants les uns contre les autres.”
Il a envoyé le mémo aux administrateurs indépendants en utilisant la technologie de courrier électronique éphémère “parce que j'étais inquiet que ces mémos ne fuient d'une manière ou d'une autre.” Le briefing complet n'a pas été produit via la découverte.
“Le contexte de ce document est que les membres indépendants du conseil d'administration m'ont demandé de le préparer. Et je l'ai fait. Et j'ai été assez prudent,” a témoigné Sutskever, en disant que des portions du mémo existent dans des captures d'écran réalisées par la CTO d'OpenAI, Mira Murati.
Lorsqu'on lui a demandé depuis combien de temps il réfléchissait à renvoyer Altman, Sutskever a répondu : “Au moins un an.”
Interrogé sur les dynamiques qu'il attendait, il a déclaré : “Que la majorité du conseil n'est pas manifestement amicale avec Sam.”
Un PDG qui contrôle la composition du conseil d'administration est pratiquement intouchable. Le témoignage de Sutskever montre qu'il comprenait cela parfaitement et a ajusté sa stratégie en conséquence.
Lorsque les départs des membres du conseil ont créé cette ouverture, il a agi. Il jouait une politique de conseil à long terme, malgré la proximité apparente d'Altman et de Sutskever en public.
Le samedi 18 novembre 2023—dans les 48 heures suivant le licenciement d'Altman—il y avait des discussions actives sur la fusion d'OpenAI avec Anthropic.
Helen Toner, une ancienne membre du conseil d'administration d'OpenAI, était “la plus supportive” de cette direction, selon Sutskever.
Si la fusion avait eu lieu, OpenAI aurait cessé d'exister en tant qu'entité indépendante.
“Je ne sais pas si c'est Helen qui a contacté Anthropic ou si c'est Anthropic qui a contacté Helen,” a témoigné Sutskever. “Mais ils ont pris contact avec une proposition de fusion avec OpenAI et de prendre la direction de celle-ci.”
Sutskever a déclaré qu'il était “très mécontent à ce sujet”, ajoutant plus tard qu'il “ne voulait vraiment pas qu'OpenAI fusionne avec Anthropic.”
Lorsque les dirigeants d'OpenAI ont averti que l'entreprise s'effondrerait sans Altman, Toner a répondu que détruire OpenAI pourrait être cohérent avec sa mission de sécurité.
C'est le cœur idéologique de la crise. Toner représentait un courant de pensée sur la sécurité de l'IA qui considère le développement rapide de l'IA comme potentiellement dangereux pour l'existence—potentiellement plus dangereux que l'absence de développement de l'IA.
“Les dirigeants—c'était une réunion avec les membres du conseil et l'équipe dirigeante—les dirigeants ont dit au conseil que, si Sam ne revient pas, alors OpenAI sera détruit, et cela est incompatible avec la mission d'OpenAI,” a témoigné Sutskever. “Et Helen Toner a dit quelque chose dans ce sens, mais je pense qu'elle l'a dit de manière encore plus directe que cela.”
Si vous croyiez sincèrement qu'OpenAI représentait des risques qui l'emportaient sur ses avantages, alors une révolte imminente des employés était sans importance. La déclaration aide à expliquer pourquoi le conseil d'administration est resté ferme même si plus de 700 employés menaçaient de partir.
Presque tout dans le mémo de 52 pages de Sutskever provient d'une seule personne : Mira Murati.
Il n'a pas vérifié les affirmations avec Brad Lightcap, Greg Brockman ou d'autres dirigeants mentionnés dans les plaintes. Il faisait entièrement confiance à Murati, et la vérification “ne lui est pas venue à l'esprit (.”
« Je croyais pleinement aux informations que Mira me donnait, » a déclaré Sutskever. « Avec le recul, je réalise que je ne le savais pas. Mais à l'époque, je pensais le savoir. Mais je le savais par des connaissances de seconde main. »
Lorsqu'on lui a posé des questions sur le processus du conseil, Sutskever a été franc sur ce qui s'est mal passé.
« Une chose que je peux dire, c'est que le processus a été précipité », a-t-il témoigné. « Je pense qu'il a été précipité parce que le conseil d'administration manquait d'expérience. »
Sutskever s'attendait également à ce que les employés d'OpenAI soient indifférents au départ d'Altman.
Lorsque 700 des 770 employés ont signé une lettre demandant le retour d'Altman et menaçant de partir pour Microsoft, il a été sincèrement surpris. Il avait fondamentalement mal évalué la loyauté des employés et l'isolement du conseil d'administration par rapport à la réalité organisationnelle.
« Je ne m'attendais pas à ce qu'ils acclament, mais je ne m'attendais pas non plus à ce qu'ils ressentent quelque chose de fort dans un sens ou dans l'autre », a déclaré Sutskever.