Le licenciement puis la réintégration de Sam Altman à la tête d’OpenAI, l’entreprise à l’origine de ChatGPT, révèle l’instabilité de cette organisation. Ovni au sein du monde de la tech, OpenAI a deux têtes, d’un côté organisation à but non lucratif chargée de garantir un développement sûr de l’IA, et de l’autre entreprise à but lucratif. Entre techno-pessimisme d’une part et techno-optimisme de l’autre, c’est donc avant tout un conflit philosophique qui a failli avoir la peau de Sam Altman.

Le temple de l’intelligence artificielle est en flammes. L’incendie s’est déclaré vendredi 17 novembre 2023 soir à San Francisco, au siège d’OpenAI – l’entreprise américaine qu’on ne présente plus depuis qu’elle a fait entrer l’IA générative dans l’histoire mondiale avec le lancement de ChatGPT en octobre 2022. Dans un communiqué énigmatique de moins de 3 000 signes, espaces comprises, le conseil d’administration a limogé son directeur général et cofondateur Sam Altman – avant d’annoncer, cinq jours et de nombreuses péripéties plus tard, sa réintégration.

 

“La quasi-totalité des 770 employés d’OpenAI ont réclamé par une lettre la démission du conseil d’administration”

 

L’exécution en place publique du golden boy de la tech californienne a créé des remous puissants. À l’intérieur de l’entreprise, Greg Brockman, mis en minorité par le conseil d’administration dont il était le président, a pris fait et cause pour Sam Altman et a démissionné avec lui. À l’extérieur, le PDG de Microsoft Satya Nadella, qui a massivement investi dans OpenAI mais en est surtout la condition d’existence puisqu’il lui donne l’accès à ses serveurs et à sa puissance de calcul, a annoncé créer une filiale ad hoc pour que Sam Altman puisse en être le nouveau chef. S’est ensuivie une grande jacquerie corporate : la quasi-totalité des 770 employés d’OpenAI ont réclamé par une lettre la démission du conseil d’administration, menaçant de suivre leur ancien directeur général. Resté longtemps silencieux, le conseil d’administration est apparu isolé, affaibli et mis en minorité dans sa propre maison. Jusqu’à un nouveau retournement mardi soir, heure locale : OpenAI a annoncé via X (anciennement Twitter) qu’un accord avait été trouvé pour la réintégration de Sam Altman, en échange du remplacement de deux membres du conseil d’administration.

 

À la fois entreprise et vigie

Pour comprendre cette histoire, il faut faire ce que l’on croyait faussement ne plus avoir à faire : présenter OpenAI, car ce n’est pas une entreprise de la tech comme les autres. Elle a été fondée en 2015 comme une organisation à but non lucratif dédiée à la recherche en IA et singulièrement à la création d’une intelligence artificielle générale (AGI) : stade de développement de l’IA où elle deviendrait, selon la charte d’OpenAI, « un système hautement autonome qui surpasse les humains dans l’essentiel des activités créant de la valeur ». Ce point de rupture fascine aussi bien qu’effraie les chercheurs puisque cette autonomie agrandie, dont on peine à comprendre la mesure, pourrait signifier que l’IA s’assigne des missions et des objectifs qui ne coïncident plus nécessairement avec les intérêts du genre humain.

 

“OpenAI s’est donc fondé à la fois comme un haut-lieu de la recherche et une vigie de la safety

 

OpenAI s’est donc fondé à la fois comme un haut-lieu de la recherche et une vigie de la safety (sûreté), avec pour mission originelle d’avancer à pas prudents pour s’assurer que le développement de l’AGI reste câblé sur des impératifs moraux solidement établis – en dialecte de la Silicon Valley, on dit que l’AGI serait alors « alignée ». Sauf qu’en 2019, OpenAI lance une filiale à profits plafonnés afin de stimuler l’investissement et d’accélérer la recherche. L’organisation devient alors un objet hybride et bicéphale : d’un côté, un conseil d’administration garant de la mission d’origine et statutairement tout-puissant ; de l’autre, une activité lucrative, incarnée par le sémillant Sam Altman, ayant vocation à commercialiser des produits sous le regard sourcilleux des tenants de la safety.

 

Deux philosophies antagonistes

OpenAI devient alors l’arène d’une lutte de pouvoir entre deux conceptions philosophiques antagonistes de l’avenir de l’intelligence artificielle. D’un côté, un techno-optimisme qui voit dans les avancées de l’IA la clé du progrès du genre humain et veut que la recherche, soumise au libre marché, se déploie tous azimuts. De l’autre, une approche inquiète qui leur oppose un principe de précaution, voyant l’IA comme un risque existentiel pour l’humanité et craignant que son développement technologique, s’il est laissé au seul jeu de la concurrence, conduise au pire. 

 

“Qui refuserait d’être le leader d’un marché mondial sur la base de principes philosophiques ?”

 

Il est important de ne pas voir ces rapports de force avec trop de manichéisme.  Sam Altman, comme l’immense majorité des grands patrons de l’IA, a répété en de nombreuses occasions son attachement à la safety et sa conscience des risques liés à l’IA. Mais cela ne nous dit pas grand-chose de ses convictions profondes : c’est une croyance si partagée dans la Silicon Valley qu’il est facile et même stratégique de déclarer s’en préoccuperLa question pratique, la seule qui compte vraiment, c’est l’argent. À quel point ces considérations vont susciter la création d’équipes dédiées, de redirection du budget ? Peut-on retarder un processus de commercialisation, empêcher le déploiement d’un produit dont on se sait les pionniers absolus ? Qui refuserait d’être le leader d’un marché mondial sur la base de principes philosophiques ? Qui pourrait, même en connaissant sa dangerosité, saborder sa propre entreprise au faîte de sa gloire ?

Justement, parmi les plus exigeants observateurs des risques de l’IA, il faut mentionner l’altruisme efficace (effective altruism ou EA), un courant de philosophie morale initié par Peter Singer qui s’est transformé en communauté active dans les milieux de la tech et de la finance. Son objectif : faire le plus grand bien de la manière la plus efficace et rationnelle possible. Et ce n’est pas un hasard si au conseil d’administration qui a décidé de l’éviction de Sam Altman siègent justement deux « EA » revendiqués : Tasha McCauley et Helen Toner – les deux membres dont le départ a été négocié en même temps que le retour de Sam Altman, mercredi matin.

 

Bras de fer

On comprend mieux la tension qu’a pu provoquer, il y a deux semaines, l’annonce en fanfare de Sam Altman, en pleine opération de levée de fonds, de la création d’un GPT Store, où seront commercialisés des « GPTs », des agents personnalisés adaptables à une multitude d’usages. Le conseil d’administration aurait-il estimé que les nouvelles ambitions commerciales de Sam Altman constituaient une accélération de nature à mettre en danger la mission fondatrice d’OpenAI et donc, à les en croire, de l’humanité tout entière ? C’est ce vers quoi pointent en tout cas les informations du New York Times. Mise en cause par le management qui l’accusait de mettre en danger le futur d’OpenAI, l’effective altruist Helen Toner a ainsi répondu que si l’entreprise perdait de vue sa mission d’une IA qui bénéficie à toute l’humanité, la détruire pouvait être cohérent avec les buts du conseil d’administration.

 

“L’idée était simple : internaliser le meilleur de la recherche en IA pour pouvoir l’orienter dans la bonne direction”

 

Par là, Toner montre les limites du projet initial d’OpenAI dans un secteur aussi peu régulé que la tech. Les grands acteurs américains de la recherche en intelligence artificielle restent tous des entreprises privées qui se livrent d’abord à une course concurrentielle à l’innovation. Le conseil d’administration d’OpenAI, anomalie statutaire de ce libre marché, avait l’ambition de se poser en instance régulatrice, protectrice de la société, État en l’absence d’un État. L’idée était simple : internaliser le meilleur de la recherche en IA pour pouvoir l’orienter dans la bonne direction.

Mais le fond de la saga OpenAI est une lutte pour l’autorité. En renvoyant brusquement Sam Altman, le conseil d’administration exerçait un pouvoir régulateur qu’il croyait s’être lui-même octroyé. Et au moment où il l’exerçait, il a réalisé que ce pouvoir lui échappait. La démonstration de force a tourné à l’aveu de faiblesse : soumis à la pression des investisseurs, dépendant de l’infrastructure technologique de Microsoft, exposé à la concurrence des rivaux qui ont immédiatement offert de recruter les employés mécontents, le conseil d’administration a pris la mesure de ce que signifiait un marché. Pour le réguler, il faut le surplomber. N’est pas un État qui veut.

 

Photo © Jaap Arriens / NurPhoto
22/11/2023 (Mis à jour le 29/11/2023)