Сэм Альтман может контролировать наше будущее — можно ли ему доверять?

Предлагаем вашему вниманию статью, опубликованную в The New Yorker 6 апреля 2026 года.

Новые интервью и тщательно охраняемые документы проливают свет на стойкие сомнения в отношении главы OpenAI.

Ронан Фэрроу и Эндрю Маранц, 6 апреля 2026 года


Осенью 2023 года Илья Суцкевер, главный учёный OpenAI, отправил секретные меморандумы трём другим членам совета директоров организации. Несколько недель они тайно обсуждали, способны ли Сэм Альтман, генеральный директор OpenAI, и Грег Брокман, его заместитель, руководить компанией. Суцкевер когда-то считал обоих друзьями. В 2019 году он провёл церемонию бракосочетания Брокмана в офисе OpenAI — с роботизированной рукой в роли мальчика с кольцами. Однако, убедившись, что компания близится к своей долгосрочной цели — созданию искусственного интеллекта, способного сравняться или превзойти когнитивные возможности человека, — его сомнения в Альтмане усилились. По словам Суцкевера, сказанным другому члену совета: «Я не думаю, что Сэм — тот человек, у которого должен быть палец на кнопке».

По просьбе коллег Суцкевер совместно с единомышленниками собрал около семидесяти страниц переписки в Slack и документов отдела кадров с пояснительным текстом. Материалы включали снимки, сделанные на телефон — по всей видимости, чтобы избежать обнаружения на корпоративных устройствах. Итоговые меморандумы были отправлены остальным членам совета как исчезающие сообщения, чтобы никто другой их не увидел. «Он был в ужасе», — вспоминал один из получателей. Меморандумы, с которыми ознакомились авторы статьи, ранее не раскрывались в полном объёме. В них утверждается, что Альтман вводил в заблуждение руководителей и членов совета директоров, скрывая информацию о внутренних протоколах безопасности. Один из документов начинается со списка под заголовком «Сэм демонстрирует устойчивую модель поведения…». Первый пункт — «Ложь».

Большинство технологических компаний провозглашают туманные лозунги об улучшении мира, а сами занимаются максимизацией прибыли. Но основополагающая идея OpenAI предполагала иное. Основатели — Альтман, Суцкевер, Брокман и Илон Маск — утверждали, что искусственный интеллект может стать самым мощным и потенциально опасным изобретением в истории человечества, а потому, с учётом экзистенциального риска, потребуется нестандартная корпоративная структура. Компания была зарегистрирована как некоммерческая организация, совет директоров которой обязан был ставить безопасность человечества выше успеха компании — и даже выше её выживания. Генеральный директор должен был обладать исключительной честностью. По словам Суцкевера, «любой человек, работающий над созданием этой технологии, изменяющей цивилизацию, несёт огромную ответственность». Однако «люди, оказывающиеся на подобных позициях, часто относятся к определённому типу — те, кто стремится к власти, политики, те, кому это нравится». В одном из меморандумов он выражал обеспокоенность тем, что технология может оказаться в руках человека, который «просто говорит людям то, что они хотят услышать». Если генеральный директор OpenAI окажется ненадёжным, совет из шести человек был уполномочен его уволить. Некоторые члены совета — в частности, Хелен Тонер, эксперт по политике в области ИИ, и Таша Маккоули, предпринимательница, — восприняли меморандумы как подтверждение того, во что уже верили: Альтману вверено будущее человечества, но доверять ему нельзя.


Альтман находился в Лас-Вегасе на гонках «Формулы-1», когда Суцкевер пригласил его на видеозвонок с советом директоров и зачитал краткое заявление о том, что Альтман больше не является сотрудником OpenAI. Совет, следуя юридическим рекомендациям, опубликовал сообщение, в котором говорилось лишь, что Альтман уволен, поскольку «не был последовательно честен в своих коммуникациях». Многие инвесторы и руководители OpenAI были потрясены. Microsoft, вложившая около тринадцати миллиардов долларов в OpenAI, узнала о намерении уволить Альтмана лишь за несколько мгновений до этого. «Я был очень поражён, — позднее сказал Сатья Наделла, генеральный директор Microsoft. — Я не мог ничего добиться ни от кого». Он связался с сооснователем LinkedIn Ридом Хоффманом — инвестором OpenAI и членом совета директоров Microsoft, — который начал обзванивать людей в попытке выяснить, совершил ли Альтман очевидный проступок. «Я понятия не имел, что, чёрт возьми, происходит, — рассказал нам Хоффман. — Мы искали растрату или сексуальные домогательства, но ничего не нашли».

Другие деловые партнёры были не менее ошеломлены. Когда Альтман позвонил инвестору Рону Конуэю сообщить, что его уволили, Конуэй поднёс телефон к Нэнси Пелоси, с которой обедал. «Тебе лучше немедленно уйти», — сказала она Конуэю. OpenAI находилась на пороге крупной инвестиции от Thrive, венчурной компании, основанной Джошем Кушнером — братом Джареда Кушнера, — которого Альтман знал много лет. Сделка оценивала OpenAI в восемьдесят шесть миллиардов долларов и позволяла многим сотрудникам обналичить миллионы в виде акций. Кушнер вышел из встречи с музыкальным продюсером Риком Рубином и увидел пропущенный вызов от Альтмана. «Мы немедленно пошли в атаку», — рассказал впоследствии Кушнер.

В день увольнения Альтман прилетел в свой особняк стоимостью двадцать семь миллионов долларов в Сан-Франциско — с панорамным видом на залив и некогда нависающим бассейном с бесконечной водой — и организовал то, что сам назвал «правительством в изгнании». Конуэй, сооснователь Airbnb Брайан Чески и известный кризис-менеджер Крис Леэн подключались иногда на несколько часов в день по видеосвязи и телефону. Некоторые члены исполнительной команды Альтмана ночевали прямо в коридорах дома. Юристы обосновались в домашнем офисе рядом с его спальней. В приступах бессонницы Альтман бродил мимо них в пижаме. В недавней беседе с нами он описал произошедшее после увольнения как «какое-то странное оцепенение».

Пока совет директоров хранил молчание, советники Альтмана выстраивали публичную аргументацию в пользу его возвращения. Леэн настаивал на том, что увольнение было переворотом, организованным радикальными «эффективными альтруистами» — приверженцами мировоззрения, ориентированного на максимизацию благополучия человечества, которые стали воспринимать ИИ как экзистенциальную угрозу. Леэн — чьим девизом, по имеющимся сведениям, по аналогии с Майком Тайсоном является «У каждого есть план, пока его не ударят в челюсть» — убеждал Альтмана развернуть агрессивную кампанию в социальных сетях. Чески поддерживал контакт с технологическим журналистом Карой Свишер, передавая критику в адрес совета.

Альтман прерывал работу «военного штаба» каждый вечер в шесть на бокал «Негрони». «Нужно расслабиться, — говорил он по его словам. — Что будет, то будет». Но, добавил он, записи телефонных звонков показывают, что он провёл на связи более двенадцати часов в сутки. В какой-то момент Альтман передал Мире Мурати — которая предоставила Суцкеверу материалы для меморандумов и в тот период временно исполняла обязанности генерального директора OpenAI, — что его союзники «действуют на полную» и «ищут компромат» для удара по её репутации и репутации других, кто выступил против него, — по словам человека, осведомлённого об этом разговоре. (Альтман не помнит этого обмена репликами.)

В течение нескольких часов после увольнения Thrive приостановил запланированную инвестицию и дал понять, что сделка будет закрыта — а сотрудники получат свои выплаты — только в случае возвращения Альтмана. Переписка того периода свидетельствует о том, что Альтман тесно координировал действия с Наделлой. («Как насчёт такого: главным приоритетом Сатьи и меня остаётся спасение OpenAI», — предложил Альтман, пока они совместно работали над заявлением. Наделла предложил альтернативу: «обеспечить дальнейшее процветание OpenAI».) Вскоре Microsoft объявила о создании конкурирующей инициативы для Альтмана и тех сотрудников, кто покинет OpenAI. В организации распространилось открытое письмо с требованием его возвращения. Некоторые, кто медлил с подписью, получали настойчивые звонки и сообщения от коллег. В итоге большинство сотрудников OpenAI пригрозили уйти вместе с Альтманом.

Совет директоров оказался загнан в угол. «Ctrl+Z — один вариант, — сказала Тонер, — отменить увольнение. Или компания развалится». В конечном счёте даже Мурати подписала письмо. Союзники Альтмана работали над тем, чтобы переубедить Суцкевера. Жена Брокмана, Анна, подошла к нему в офисе и умоляла пересмотреть позицию. «Ты хороший человек — ты можешь это исправить», — говорила она. Суцкевер впоследствии объяснил в показаниях: «Я чувствовал, что если мы пойдём по пути, на котором Сэм не вернётся, то OpenAI будет уничтожена». Однажды ночью Альтман принял амбиен, но его разбудил муж — австралийский программист Оливер Мулхерин, — сообщивший, что Суцкевер колеблется и люди советуют Альтману поговорить с советом. «Я проснулся в каком-то безумном полузабытьи от амбиена и был настолько дезориентирован, — рассказал нам Альтман. — Я понимал, что не могу сейчас разговаривать с советом».

В серии всё более напряжённых звонков Альтман потребовал отставки членов совета, выступивших за его увольнение. «Я должен разгребать последствия их беспорядка, находясь под этим безумным облаком подозрений?» — вспоминал он свою первоначальную реакцию на возможность возвращения. «Я просто думал: абсолютно нет, ни в коем случае». В итоге Суцкевер, Тонер и Маккоули лишились своих мест в совете. Адам Д’Анджело, основатель Quora, остался единственным из первоначальных членов. В качестве условия ухода выбывающие члены потребовали расследования обвинений против Альтмана — в том числе в том, что он настраивал руководителей друг против друга и скрывал свои финансовые связи. Они также добивались формирования нового совета, способного независимо контролировать внешнее расследование. Однако два новых члена — бывший президент Гарварда Лоуренс Саммерс и бывший технический директор Facebook Брет Тейлор — были отобраны после тесного обсуждения с Альтманом. «Ты бы взялся за это, — написал Альтман Наделле. — Брет, Ларри Саммерс, Адам в качестве совета, я в качестве генерального директора, а Брет ведёт расследование». (Маккоули впоследствии показала в суде, что когда ранее рассматривалась кандидатура Тейлора в совет, у неё возникали опасения насчёт его готовности уступать Альтману.)

Менее чем через пять дней после увольнения Альтман был восстановлен в должности. Сотрудники теперь называют этот момент «Сбоем» — по аналогии с эпизодом из фильмов Marvel, в котором персонажи исчезают из существования, а потом возвращаются неизменными в мир, кардинально изменившийся за время их отсутствия. Но дискуссия о надёжности Альтмана вышла за пределы зала заседаний OpenAI. Коллеги, способствовавшие его отставке, обвиняют его в степени обмана, недопустимой для любого руководителя и опасной для лидера столь преобразующей технологии. «Нам нужны институты, достойные той власти, которой они обладают, — сказала нам Мурати. — Совет запросил обратную связь, я поделилась тем, что видела. Всё, что я сообщила, было правдой, и я готова это отстаивать». Союзники Альтмана, напротив, давно отметают обвинения. После увольнения Конуэй написал Чески и Леэну, требуя развернуть PR-наступление. «Это удар по РЕПУТАЦИИ СЭМА», — написал он. Изданию Washington Post он заявил, что Альтмана «обидел самоуправный совет директоров».


С тех пор OpenAI стала одной из самых дорогих компаний в мире. По имеющимся сведениям, она готовится к первичному размещению акций при потенциальной оценке в триллион долларов. Альтман форсирует строительство колоссального объёма инфраструктуры ИИ — частично сосредоточенной в иностранных автократиях. OpenAI заключает масштабные государственные контракты, устанавливая стандарты использования ИИ в иммиграционном контроле, внутренней слежке и автономном оружии в зонах военных действий.

Продвигая рост OpenAI, Альтман апеллирует к видению, в котором, как он написал в блоге в 2024 году, «поразительные триумфы — устранение климатического кризиса, основание колонии в космосе, открытие всех законов физики — в конечном счёте станут обычным делом». Его риторика помогает поддерживать один из самых быстрых темпов сжигания капитала среди всех стартапов в истории, опираясь на партнёров, взявших в долг огромные суммы. Экономика США всё сильнее зависит от нескольких сильно закредитованных ИИ-компаний, и многие эксперты — включая порой самого Альтмана — предупреждают, что в отрасли надувается пузырь. «Кто-то потеряет феноменальные деньги», — заявил он журналистам в прошлом году. Если пузырь лопнет, может последовать экономическая катастрофа. Если же его самые оптимистичные прогнозы сбудутся, он может стать одним из богатейших и влиятельнейших людей на планете.

В напряжённом разговоре после увольнения совет директоров пытался добиться от Альтмана признания устойчивой модели обмана. «Это просто что-то чудовищное», — повторял он снова и снова, по словам участников разговора. «Я не могу изменить свою личность». Альтман говорит, что не помнит этого обмена репликами. «Возможно, я имел в виду что-то вроде: «Я действительно стараюсь быть объединяющей силой»», — сказал он нам, добавив, что это качество позволило ему руководить чрезвычайно успешной компанией. Критику он объяснял склонностью, особенно в начале карьеры, «слишком избегать конфликтов». Однако один из членов совета предложил иную интерпретацию его слов: «Это означало: «У меня есть черта характера — я лгу людям, и я не собираюсь это менять»». Были ли коллеги, уволившие Альтмана, движимы алармизмом и личной враждой — или они были правы, не доверяя ему?


Одним зимним утром мы встретились с Альтманом в штаб-квартире OpenAI в Сан-Франциско — это была одна из более чем дюжины бесед с ним для данной статьи. Компания недавно переехала в пару одиннадцатиэтажных стеклянных башен, одну из которых прежде занимал Uber — другой технологический гигант, чей сооснователь и генеральный директор Трэвис Каланик казался неостановимым вундеркиндом, пока в 2017 году не ушёл в отставку под давлением инвесторов, ссылавшихся на этические претензии.

Сотрудник провёл нас по офису. В просторном зале с общими столами висела анимированная цифровая картина с изображением учёного-компьютерщика Алана Тьюринга — глаза на ней следили за нами. Инсталляция — лукавая отсылка к тесту Тьюринга, мысленному эксперименту 1950 года о том, способна ли машина убедительно имитировать человека. В таблице, украшавшей стены, было написано «Почувствуй AGI». Эта фраза изначально была связана с Суцкевером, использовавшим её для предупреждения коллег о рисках искусственного общего интеллекта. После Сбоя она превратилась в жизнерадостный лозунг, предвещающий изобильное будущее.

Мы встретились с Альтманом в ничем не примечательной переговорной комнате на восьмом этаже. «Раньше мне рассказывали об усталости от принятия решений — я не понимал, о чём речь, — сказал он. — Теперь я каждый день надеваю серый свитер и джинсы, и даже выбор того, какой именно серый свитер достать из шкафа, — я думаю: лучше бы мне не приходилось об этом думать». Альтман выглядит молодо — стройный, с широко расставленными голубыми глазами и взъерошенными волосами — но ему уже сорок, и у него с Мулхерином есть годовалый сын, рождённый суррогатной матерью. «Уверен, что должность президента Соединённых Штатов была бы гораздо более стрессовой, но из всех работ, которые я мог бы разумно выполнять, эта — самая стрессовая, какую я могу себе представить», — сказал он, поочерёдно встречаясь взглядом с каждым из нас. «Своим друзьям я объясняю это так: «Это была самая интересная работа в мире до того дня, как мы запустили ChatGPT». Мы совершали грандиозные научные открытия — я думаю, мы сделали важнейшее научное открытие за, не знаю, многие десятилетия». Он опустил глаза. «А с момента запуска ChatGPT решения стали очень тяжёлыми».


Альтман вырос в Клейтоне, штат Миссури — зажиточном пригороде Сент-Луиса, — старшим из четырёх детей. Его мать, Конни Гибстин, — дерматолог; отец, Джерри Альтман, — риелтор и жилищный активист. Альтман посещал реформистскую синагогу и частную подготовительную школу, которую сам описывал как «не то место, где открыто говорят о том, что ты гей». В целом, однако, состоятельная пригородная среда, в которой он вращался, была относительно либеральной. Когда Альтману было шестнадцать или семнадцать, по его словам, он допоздна задержался в преимущественно гейском районе Сент-Луиса, где подвергся жестокому нападению с гомофобными оскорблениями. Альтман не стал сообщать об инциденте и неохотно рассказывал нам подробности, заметив, что полная версия «выставит меня манипулятором, играющим на жалости». Он отверг идею о том, что это событие и его сексуальность в целом сыграли значительную роль в формировании его личности. Но, добавил он: «Вероятно, это породило какую-то глубоко укоренившуюся психологическую установку — которую я считал преодолённой, но это не так — относительно нежелания лишних конфликтов».

По словам брата, в детстве у Альтмана была установка: «Я должен победить, и я за всё отвечаю». Он поступил в Стэнфорд, где регулярно посещал покерные игры за пределами кампуса. «Думаю, я узнал о жизни и бизнесе больше оттуда, чем в колледже», — говорил он впоследствии.

Все студенты Стэнфорда амбициозны, но многие из наиболее предприимчивых бросают учёбу. Летом после второго курса Альтман поехал в Массачусетс, чтобы войти в первый набор предпринимателей Y Combinator — «инкубатора стартапов», сооснованного известным программистом Полом Грэхемом. Каждый участник приходил в Y.C. с идеей стартапа. (Среди однокурсников Альтмана были основатели Reddit и Twitch.) Его проект, получивший название Loopt, был прото-социальной сетью, использовавшей геолокацию раскладных телефонов для информирования друзей о местонахождении пользователей. Компания отражала его целеустремлённость и склонность трактовать неоднозначные ситуации в свою пользу. Федеральные правила обязывали телефонных операторов отслеживать местоположение телефонов для служб экстренного реагирования; Альтман заключил соглашения с операторами, позволявшие использовать эти возможности в интересах компании.

Большинство сотрудников Loopt хорошо относились к Альтману, однако некоторые отмечали его склонность к преувеличениям — порой по сущим пустякам. Один вспоминал, как Альтман повсюду хвастался, что является чемпионом по настольному теннису — «что-то вроде чемпиона Миссури среди старшеклассников», — но оказался одним из худших игроков в офисе. (Альтман говорит, что, вероятно, шутил.) Как Марк Джейкобштейн, старший сотрудник Loopt, которого инвесторы попросили стать для Альтмана «надзирателем», впоследствии рассказал Киш Хэйги для биографии Альтмана «Оптимист», «существует размытая грань между «я думаю, что смогу это сделать» и «я уже это сделал», и в своей наиболее токсичной форме это ведёт к Theranos» — мошеннической компании Элизабет Холмс.

Группы старших сотрудников, обеспокоенных руководством Альтмана и его непрозрачностью, дважды просили совет директоров Loopt уволить его с поста генерального директора. Но Альтман умел внушать и яростную преданность. Бывшему сотруднику передали ответ одного из директоров: «Это компания Сэма, вернитесь и работайте». Loopt с трудом набирал пользователей, и в 2012 году был поглощён финтех-компанией — по имеющимся сведениям, сделка была организована главным образом ради сохранения лица Альтмана. Тем не менее к тому времени, как Грэхем в 2014 году ушёл из Y.C., он привлёк Альтмана в качестве преемника на пост президента. «Я спросил Сэма у нас на кухне, — рассказал Грэхем The New Yorker. — И он улыбнулся — так, будто это сработало. Я никогда прежде не видел у Сэма неконтролируемой улыбки. Это было похоже на то, когда бросаешь скомканную бумагу в мусорную корзину через всю комнату и попадаешь».

Новая роль Альтмана в двадцать восемь лет сделала его кем-то вроде вершителя судеб. Его задача состояла в том, чтобы отбирать самых голодных и перспективных предпринимателей, связывать их с лучшими программистами и инвесторами и помогать им развивать стартапы до уровня отраслеобразующих монополий (тогда как Y.C. брал долю в шесть-семь процентов). Альтман курировал период агрессивного расширения, увеличив число стартапов в портфеле Y.C. с десятков до сотен. Однако ряд венчурных инвесторов Кремниевой долины пришли к выводу, что его лояльности разделены. По словам одного из них, Альтман был известен тем, что «делал личные инвестиции, избирательно, в лучшие компании, блокируя внешних инвесторов». (Альтман отрицает, что блокировал кого-либо.) Альтман работал «скаутом» инвестиционного фонда Sequoia Capital в рамках программы, предполагавшей инвестиции в стартапы на ранней стадии с небольшой долей прибыли. Когда Альтман вложился в Stripe — финансовый стартап, — он настоял на более крупном проценте, что, по словам осведомлённого человека, вызвало раздражение у партнёров Sequoia. «Это политика «сначала Сэм»», — добавил он. Альтман является инвестором, по его собственной оценке, примерно в четырёхстах компаниях.

К 2018 году несколько партнёров Y.C. были настолько раздражены поведением Альтмана, что обратились к Грэхему с жалобами. Судя по всему, у Грэхема и его жены Джессики Ливингстон, сооснователя Y.C., состоялся откровенный разговор с Альтманом. После этого Грэхем начал говорить людям, что хотя Альтман согласился покинуть компанию, на практике он противился этому. В мае 2019 года запись в блоге, объявлявшая о появлении нового президента Y.C., содержала оговорку: «Сэм переходит на должность председателя совета директоров Y.C.». Несколько месяцев спустя запись была отредактирована: «Сэм Альтман покинул все официальные должности в YC»; затем эта фраза и вовсе исчезла. Тем не менее ещё в 2021 году в документах, поданных в Комиссию по ценным бумагам и биржам, Альтман значился председателем Y Combinator.

На протяжении многих лет Альтман публично и в ходе недавних судебных показаний настаивал на том, что никогда не был уволен из Y.C., а нам сообщил, что не сопротивлялся уходу. Грэхем написал в Twitter, что «мы не хотели, чтобы он уходил, — просто чтобы он выбрал» между Y.C. и OpenAI. В официальном заявлении Грэхем сообщил нам: «У нас не было юридических полномочий кого-либо увольнять. Мы могли лишь оказывать моральное давление». В частных разговорах, однако, он недвусмысленно давал понять, что Альтман был отстранён из-за недоверия со стороны партнёров Y.C. Изложенная версия событий основана на беседах с несколькими основателями и партнёрами Y.C., а также на документах того времени — всё это свидетельствует о том, что расставание не было полностью взаимным. Как-то раз Грэхем сказал коллегам по Y.C., что до своего отстранения «Сэм постоянно нам лгал».


В мае 2015 года Альтман написал Илону Маску, занимавшему тогда сотую строчку в списке богатейших людей мира. Как и многие видные предприниматели Кремниевой долины, Маск был озабочен рядом угроз, которые считал экзистенциально неотложными, хотя большинству людей они показались бы надуманными гипотетическими сценариями. «Нам нужно быть крайне осторожными с ИИ, — написал он в Twitter. — Потенциально опаснее ядерного оружия».

Альтман в целом придерживался позиции технооптимиста, однако его риторика в отношении ИИ вскоре приобрела апокалиптические черты. Публично и в частной переписке с Маском он предупреждал, что технология не должна оказаться под контролем корпорации, ориентированной на прибыль. «Много думал о том, можно ли остановить создание ИИ человечеством, — писал он Маску. — Если это всё равно произойдёт, было бы хорошо, чтобы этим занялся кто-то другой, а не Google». Опираясь на аналогию с ядерным оружием, он предложил создать «Манхэттенский проект для ИИ» и изложил основополагающие принципы такой организации: «безопасность должна быть требованием первого порядка»; «мы, очевидно, будем соблюдать и активно поддерживать любое регулирование». Они с Маском договорились о названии: OpenAI.

В отличие от первоначального Манхэттенского проекта — государственной инициативы, приведшей к созданию атомной бомбы, — OpenAI поначалу должна была финансироваться из частных источников. Альтман предсказывал, что искусственный суперинтеллект — теоретический порог, лежащий за пределами AGI, при достижении которого машины полностью превзошли бы возможности человеческого разума, — в итоге создаст достаточно экономических благ, чтобы «охватить весь световой конус будущей ценности во вселенной». Однако он также предупреждал об экзистенциальной опасности. В какой-то момент последствия для национальной безопасности могут стать настолько угрожающими, что правительству США придётся взять OpenAI под контроль — возможно, путём национализации и перевода в безопасный бункер в пустыне. К концу 2015 года Маск был убеждён. «Следует заявить, что мы начинаем с обязательств по финансированию в размере $1 млрд, — написал он. — Я покрою всё, что другие не предоставят».

Альтман разместил OpenAI в некоммерческом подразделении Y Combinator, позиционируя её как внутренний благотворительный проект. Он выдавал новым сотрудникам акции Y.C. и проводил пожертвования через счета Y.C. Какое-то время лабораторию поддерживал фонд Y.C., в котором у него был личный интерес.

Аналогия с Манхэттенским проектом распространялась и на подбор сотрудников. Как и исследования ядерного деления, машинное обучение представляло собой небольшую научную область с эпохальными последствиями, которую населяли эксцентричные гении. Маск, Альтман и Брокман были убеждены, что лишь несколько живущих учёных способны совершить необходимые прорывы. Google обладал огромным финансовым преимуществом и многолетней форой. «Нас превосходят в числе и мощи с нелепым перевесом», — написал впоследствии Маск в электронном письме. Но «если нам удастся со временем привлечь наиболее талантливых людей и правильно выстроить курс, OpenAI победит».

Главной целью вербовки был Суцкевер — глубокий и замкнутый исследователь, которого часто называли наиболее одарённым учёным в области ИИ своего поколения. Суцкевер, родившийся в Советском Союзе в 1986 году, имеет залысины, тёмные глаза и привычку замирать с немигающим взглядом, подбирая слова. Другой целью был Дарио Амодей — биофизик с бьющей через край энергией, имеющий привычку нервно накручивать чёрные волосы и отвечать на однострочные письма многоабзацными эссе. Оба имели хорошо оплачиваемую работу в других местах, но Альтман щедро уделял им внимание. Впоследствии он пошутил: «Я преследовал Илью».

Маск был более громким именем, но Альтман брал мягкостью. Он написал Амодей, и они договорились об ужине в индийском ресторане с глазу на глаз. Как и многие исследователи ИИ, Амодей считал, что технологию следует создавать, лишь убедившись в её «согласованности» с человеческими ценностями — то есть в том, что она будет действовать в соответствии с тем, чего хотят люди, не допуская потенциально фатальной ошибки. Альтман был обнадёживающим, отражая эти опасения в области безопасности.

Амодей, впоследствии присоединившийся к компании, годами фиксировал поведение Альтмана и Брокмана в подробных заметках под заголовком «Мой опыт работы в OpenAI» (подзаголовок: «Конфиденциально: не распространять»). Коллекция из более чем двухсот страниц документов, связанных с Амодеи, — включая эти заметки, внутренние электронные письма и меморандумы — циркулировала среди коллег в Кремниевой долине, однако прежде публично не раскрывалась. В своих заметках Амодеи писал, что целью Альтмана было создать «лабораторию ИИ, ориентированную на безопасность («может, не сразу, но как можно скорее»)».

В декабре 2015 года, за несколько часов до публичного объявления об OpenAI, Альтман написал Маску о слухах, что Google «собирается сделать всем в OpenAI грандиозные контрпредложения завтра, чтобы уничтожить её». Маск ответил: «Илья окончательно сказал «да»?» Альтман заверил его, что Суцкевер держится. Google предложил Суцкеверу шесть миллионов долларов в год — OpenAI не могла и близко сравниться. Но, похвастался Альтман, «у них, к сожалению, нет на своей стороне «делать правильное дело»».

Маск предоставил офисное помещение для OpenAI на бывшей фабрике по производству чемоданов в квартале Мишн в Сан-Франциско. Питч (краткая, структурированная презентация идеи, продукта или стартапа, направленная на привлечение инвесторов, партнеров или клиентов) для сотрудников, по словам Суцкевера, звучал так: «Вы собираетесь спасти мир».


Если всё пойдёт правильно, считали основатели OpenAI, искусственный интеллект может открыть постдефицитную утопию: автоматизировать рутинный труд, победить рак и освободить людей для жизни в досуге и изобилии. Но если технология выйдет из-под контроля или попадёт в чужие руки, опустошение может быть полным. Китай может использовать её для создания нового биооружия или флота продвинутых дронов; модель ИИ может перехитрить своих смотрителей, реплицируясь на секретных серверах так, что её невозможно будет отключить; в крайних случаях она может захватить контроль над энергосетью, фондовым рынком или ядерным арсеналом. Далеко не все в это верили, но Альтман раз за разом публично подтверждал, что верит. В 2015 году он писал в блоге, что сверхчеловеческий машинный интеллект «необязательно должен стать изначально злым научно-фантастическим монстром, чтобы уничтожить нас всех. Более вероятный сценарий: ему просто всё равно до нас, но в стремлении к какой-то иной цели он… уничтожит нас». Основатели OpenAI поклялись не жертвовать безопасностью ради скорости, а учредительные документы организации закрепляли обязанность приносить пользу человечеству на законодательном уровне. Если ИИ должен был стать самой мощной технологией в истории, следовало, что любой человек с единоличным контролем над ним получил бы уникальную власть — сценарий, который основатели называли «диктатурой AGI».

Альтман говорил первым сотрудникам, что OpenAI останется чистой некоммерческой организацией, и программисты шли туда с существенным снижением зарплаты. Компания принимала благотворительные гранты, в том числе тридцать миллионов долларов от тогдашней Open Philanthropy — центра движения эффективного альтруизма.

Брокман и Суцкевер управляли повседневными операциями OpenAI, тогда как Маск и Альтман, по-прежнему занятые другими делами, заглядывали примерно раз в неделю. Однако к сентябрю 2017 года Маск утратил терпение. В ходе обсуждения возможности реорганизации OpenAI в коммерческую структуру он потребовал контрольного пакета. Ответы Альтмана варьировались в зависимости от контекста. Его главным неизменным требованием, судя по всему, было одно: если OpenAI будет реорганизована под руководством генерального директора, этим директором должен стать он. Суцкевер выглядел недовольным этой идеи. Он направил Маску и Альтману длинное, написанное с болью письмо от себя и Брокмана с темой «Честные мысли». В нём говорилось: «Цель OpenAI — сделать будущее хорошим и предотвратить диктатуру AGI». Обращаясь к Маску, он писал: «Создание структуры, в которой ты мог бы стать диктатором, — плохая идея». Аналогичные опасения он выразил Альтману: «Мы не понимаем, почему для тебя так важен титул генерального директора. Твои объяснения меняются, и трудно понять, что на самом деле тебя движет».

«Ребята, с меня хватит, — ответил Маск. — Либо занимайтесь чем-то самостоятельно, либо продолжайте работу в OpenAI как некоммерческой организации», — иначе «я просто дурак, по сути финансирующий вас для создания стартапа бесплатно». Пять месяцев спустя он ушёл со скандалом. (В 2023 году он основал конкурирующую коммерческую компанию xAI. В следующем году он подал в суд на Альтмана и OpenAI за мошенничество и нарушение обязательств перед некоммерческой организацией, утверждая, что был «целенаправленно манипулирован» посредством «многолетней аферы Альтмана» — что тот эксплуатировал его опасения по поводу опасности ИИ, чтобы вытащить у него деньги. Иск, активно оспариваемый OpenAI, находится в стадии рассмотрения.)

После ухода Маска Амодей и другие исследователи стали открыто выражать недовольство руководством Брокмана — которого некоторые считали жёстким администратором — и Суцкевера, которого в целом воспринимали как принципиального, но неорганизованного человека. Становясь генеральным директором, Альтман, судя по всему, давал разным группам в компании разные обещания. Одним исследователям он уверял, что управленческие полномочия Брокмана будут урезаны. Но, без их ведома, одновременно заключил тайное неформальное соглашение с Брокманом и Суцкевером: Альтман получает титул генерального директора; взамен он согласился уйти в отставку, если они оба этого потребуют. (Он оспорил эту характеристику, заявив, что взял на себя роль генерального директора лишь по просьбе других. Все трое мужчин подтвердили существование пакта, хотя Брокман назвал его неформальным. «Он в одностороннем порядке сообщил нам, что уйдёт, если мы оба этого попросим, — сказал Брокман. — Мы возражали, но он настаивал, что это важно для него. Это было исключительно альтруистично».)

Внутренние документы показывают, что ещё в 2017 году у основателей были частные сомнения в некоммерческой структуре. В том же году, после попытки Маска захватить контроль, Брокман записал в дневнике: «нельзя говорить, что мы привержены некоммерческой форме… если через три месяца мы станем B-corp (коммерческая компания, сертифицированная некоммерческой организацией B Lab на соответствие высоким стандартам социальной и экологической эффективности, подотчетности и прозрачности), значит, это была ложь». Амодей в одной из ранних заметок вспоминал, как однажды спросил Брокмана о его приоритетах, и тот ответил, что хочет «денег и власти». Брокман это оспаривает. Его дневниковые записи того времени свидетельствуют о противоречивых побуждениях. В одной записи говорится: «Готов не разбогатеть на этом, лишь бы никто другой не разбогател». В другой он спрашивает: «Чего я на самом деле хочу?» Среди ответов: «В финансовом плане — дойти до $1 млрд».

В 2017 году Суцкевер был в офисе, когда прочитал статью, только что опубликованную исследователями Google, в которой предлагалась «новая простая архитектура нейронных сетей — трансформер». Он вскочил со стула, выбежал в коридор и объявил коллегам: «Бросайте всё. Вот оно». Суцкевер понял, что трансформер — это нововведение, способное позволить OpenAI обучать несравнимо более сложные модели. Из этого открытия вырос первый генеративный предварительно обученный трансформер — зерно того, что впоследствии стало ChatGPT.

По мере того как технология становилась всё более мощной, как стало известно авторам, около дюжины ведущих инженеров OpenAI провели серию тайных совещаний, обсуждая, можно ли доверять основателям компании, включая Брокмана и Альтмана. На одном из них сотрудника охватило ощущение, схожее со скетчем британского комик-дуэта Митчелла и Уэбба, в котором немецкий солдат на Восточном фронте в момент прозрения спрашивает: «А мы, случайно, не злодеи?»

К 2018 году Амодеи начал открыто ставить под сомнение мотивы руководства. «Всё сводилось к постоянно меняющемуся набору схем по привлечению денег, — писал он впоследствии в заметках. — Мне казалось, что OpenAI нужно чёткое заявление о том, что она будет делать, чего не будет делать и как её существование сделает мир лучше». У OpenAI уже была миссия: «Обеспечить, чтобы искусственный общий интеллект служил всему человечеству». Но Амодею было неясно, что это значит для руководителей — и значит ли что-либо вообще. В начале 2018 года Амодей, по его словам, приступил к разработке устава компании и в ходе многонедельных переговоров с Альтманом и Брокманом отстаивал его наиболее радикальное положение: если какой-либо «ориентированный на ценности и осознающий безопасность проект» приблизится к созданию AGI раньше OpenAI, компания «прекратит конкурировать с ним и начнёт его поддерживать». Согласно так называемому положению о «слиянии и содействии», если, скажем, исследователи Google первыми разработают безопасный AGI, OpenAI могла бы самоликвидироваться и передать им свои ресурсы. С точки зрения обычной корпоративной логики это было безумием. Но OpenAI и не должна была быть обычной компанией.

Эта предпосылка прошла проверку весной 2019 года, когда OpenAI вела переговоры о получении инвестиций от Microsoft на миллиард долларов. Хотя Амодей, возглавлявший отдел безопасности компании, участвовал в представлении сделки Биллу Гейтсу, многие в отделе тревожились, что Microsoft вставит положения, переопределяющие этические обязательства OpenAI. Амодей представил Альтману ранжированный перечень требований по безопасности, поставив на первое место сохранение положения о «слиянии и содействии». Альтман согласился, но в июне, когда сделка завершалась, Амодей обнаружил, что было добавлено положение, предоставляющее Microsoft право блокировать любые слияния OpenAI. «Восемьдесят процентов устава были просто преданы», — вспоминал Амодей. Он обвинил Альтмана, который отрицал существование этого положения. Амодей зачитал его вслух, указывая на текст, и в итоге заставил коллегу подтвердить его существование непосредственно Альтману. (Альтман этого не помнит.) В заметках Амодеи описываются нарастающие напряжённые столкновения, в том числе одно, случившееся несколькими месяцами позже, когда Альтман вызвал его и его сестру Даниэлу, работавшую в компании в области безопасности и политики, чтобы сообщить, что, по его данным от некоего высокопоставленного руководителя, они готовили переворот. Даниэла, продолжают заметки, «вышла из себя» и привела этого руководителя, который отрицал, что говорил подобное. По словам человека, осведомлённого об этом разговоре, Альтман затем отрицал, что вообще делал такое заявление. «Я этого не говорил», — сказал он. «Ты только что это сказал», — ответила Даниэла. (Альтман заявил, что у него несколько иные воспоминания о произошедшем, и что он обвинял Амодеев лишь в «политическом поведении».) В 2020 году Дарио и Даниэла Амодеи, и другие коллеги ушли, чтобы основать Anthropic — ныне одного из главных конкурентов OpenAI.

Альтман продолжал публично отстаивать приверженность OpenAI принципам безопасности — особенно когда рядом были потенциальные сотрудники. В конце 2022 года четыре учёных-компьютерщика опубликовали статью, написанную в том числе из-за опасений, связанных с «обманчивая согласованность (alignment)», при котором достаточно продвинутые модели могут во время тестирования вести себя хорошо, а после развёртывания преследовать собственные цели. (Это один из нескольких сценариев в области ИИ, звучащих как научная фантастика — но в определённых экспериментальных условиях он уже реализуется.) Через несколько недель после публикации один из авторов, аспирант Калифорнийского университета в Беркли, получил письмо от Альтмана, который сообщал, что всё больше беспокоится об угрозе несогласованного (unaligned) ИИ. Он добавил, что обдумывает выделение миллиарда долларов на эту проблему — которую многие эксперты считали важнейшей нерешённой задачей в мире, — возможно, путём учреждения премии для исследователей по всему миру. Хотя аспирант «слышал смутные слухи о том, что Сэм ненадёжен», по его словам, демонстрация приверженности Альтмана убедила его — и он взял академический отпуск, чтобы присоединиться к OpenAI.

Однако в ходе нескольких встреч весной 2023 года Альтман, казалось, заколебался. Он перестал говорить об учреждении премии. Вместо этого он предложил создать внутреннюю «команду суперогласованности». Официальное объявление обязало выделить команде «20% вычислительных мощностей, которыми мы располагаем на сегодняшний день» — ресурс, потенциально стоимостью более миллиарда долларов. По словам руководителя команды, Яна Лейке, «это был весьма эффективный инструмент для удержания сотрудников».

Обязательство в двадцать процентов, однако, испарилось. Четыре человека, работавших в команде или тесно с ней связанных, сообщили, что реальные ресурсы составляли от одного до двух процентов вычислительных мощностей компании. Более того, по словам одного из исследователей, «большая часть вычислений для суперогласования фактически велась на старейшем кластере с наихудшими чипами». Исследователи были убеждены, что более качественное оборудование резервируется для прибыльных направлений. Лейке жаловался Мурати, тогдашнему техническому директору компании, но та сказала ему прекратить поднимать этот вопрос: обязательство с самого начала не было реалистичным.

Приблизительно в то же время, рассказал нам бывший сотрудник, Суцкевер «начал серьёзно погружаться в вопросы безопасности». В первые годы существования OpenAI он считал опасения о катастрофических рисках обоснованными, но отдалёнными. Теперь, всё больше убеждаясь в неизбежности AGI, его тревоги нарастали. Состоялось общее собрание, продолжил бывший сотрудник, «на котором Илья встал и сказал: «Слушайте, наступит момент в ближайшие несколько лет, когда практически все в этой компании должны будут переключиться на работу по вопросам безопасности, иначе нам конец»». Но команда суперогласования была распущена на следующий год, так и не выполнив своей миссии.

К тому времени, свидетельствуют внутренние сообщения, руководители и члены совета директоров пришли к убеждению, что умолчания и обманы Альтмана могут иметь последствия для безопасности продуктов OpenAI. На заседании в декабре 2022 года Альтман заверил членов совета, что различные функции готовящейся к выходу модели GPT-4 прошли одобрение комиссии по безопасности. Тонер запросила документацию. Выяснилось, что наиболее спорные функции — дающая пользователям возможность «дообучать» модель под конкретные задачи и предоставляющая её в качестве персонального ассистента — одобрены не были. Когда Маккоули покидала заседание, сотрудник отозвал её в сторону и спросил, знает ли она о «нарушении» в Индии. Альтман на протяжении многих часов брифингов с советом ни разу не упомянул, что Microsoft выпустил раннюю версию ChatGPT в Индии, не завершив обязательную проверку безопасности. «Об этом просто совершенно умолчали», — сказал исследователь OpenAI того времени Джейкоб Хилтон.

Хотя эти упущения не вызвали кризисов безопасности, другой исследователь, Кэрролл Уэйнрайт, заявил, что они являлись частью «неуклонного смещения в сторону приоритета продуктов над безопасностью». После выхода GPT-4 Лейке написал членам совета: «OpenAI сошла с рельсов своей миссии. Мы ставим продукт и выручку выше всего остального, за ними следуют возможности ИИ, исследования и масштабирование, а выравнивание и безопасность — лишь на третьем месте». Он продолжил: «Другие компании, вроде Google, делают выводы, что надо разворачивать быстрее и игнорировать проблемы с безопасностью».

Маккоули написала коллегам по совету: «Думаю, мы определённо достигли точки, когда совету следует усилить контроль». Члены совета пытались справиться с тем, что воспринимали как нарастающую проблему, но сил не хватало. «Был набор игроков уровня дубля, которые никогда ничего не добились, если быть откровенной», — сказала Сью Йун, бывший член совета. В 2023 году компания готовилась к выпуску модели GPT-4 Turbo. Как подробно описывает Суцкевер в меморандумах, Альтман, по всей видимости, сказал Мурати, что модель не нуждается в проверке безопасности, сославшись на главного юридического советника компании Джейсона Квона. Когда та написала Квону в Slack, он ответил: «Ух… не понимаю, откуда Сэм это взял».

Вскоре после этого совет принял решение уволить Альтмана — а затем мир наблюдал, как он его отменил.


Та или иная версия устава OpenAI до сих пор размещена на сайте организации. Но люди, знакомые с управляющими документами OpenAI, говорят, что он выхолощен до полной бессодержательности. В июне прошлого года Альтман написал в личном блоге, имея в виду искусственный суперинтеллект: «Мы прошли точку невозврата; взлёт начался». Это был — согласно уставу — возможно, тот самый момент, когда OpenAI должна была прекратить конкурировать с другими компаниями и начать сотрудничать с ними. Но в том посте, названном «Мягкая сингулярность», он принял новый тон, заменив экзистенциальный ужас искристым оптимизмом. «Мы все получим лучшее», — писал он. Он признал, что проблема согласованности остаётся нерешённой, но переосмыслил её — из смертельной угрозы в неудобство вроде алгоритмов, соблазняющих нас бесконечно листать Instagram.

Об Альтмане часто говорят — кто с восхищением, кто с подозрением — как о величайшем питчмане (агрессивный продавец, рекламный агент или уличный торговец, использующий красноречие для быстрого сбыта товара) своего поколения. О Стиве Джобсе, одном из его кумиров, говорили, что он создаёт «поле искажения реальности» — непоколебимую уверенность в том, что мир подстроится под его видение. Но даже Джобс никогда не говорил покупателям, что если они не купят его плеер, то все, кого они любят, умрут. Когда Альтману было двадцать три года, в 2008-м, его наставник Грэхем написал: «Его можно выбросить с парашютом на остров людоедов, вернуться через пять лет — и он будет там королём». Это суждение было основано не на достижениях Альтмана, которые были скромными, а на его воле к победе, которую Грэхем считал почти неуправляемой.

Грэхем имел это в виду как комплимент. Но некоторые ближайшие коллеги Альтмана стали смотреть на это качество иначе. После того как Суцкевер всё сильнее встревожился проблемами безопасности ИИ, он составил меморандумы об Альтмане и Брокмане. С тех пор они приобрели легендарный статус в Кремниевой долине; в некоторых кругах их просто называют Меморандумы Ильи. Тем временем Амодей продолжал собирать заметки. Эти и другие документы, связанные с ним, фиксируют его путь от осторожного идеализма к тревоге. Его язык более резкий, чем у Суцкевера, — то гневный («Его слова были практически наверняка ложью»), то тоскующий о том, что, по его словам, стало провалом в попытке изменить курс OpenAI.

Ни в одной из коллекций документов нет бесспорных улик. Скорее в них описывается накопление предполагаемых обманов и манипуляций, каждый из которых в отдельности мог бы вызвать лишь пожатие плечами: Альтман якобы предлагает одну и ту же должность двум людям, рассказывает противоречивые версии о том, кто должен появиться в прямом эфире, лукавит насчёт требований безопасности. Но Суцкевер пришёл к выводу, что подобное поведение «не создаёт среды, благоприятной для создания безопасного AGI». Амодей и Суцкевер никогда не были близкими друзьями, однако пришли к схожим выводам. Амодеи написал: «Проблема OpenAI — это сам Сэм».


Для этой статьи мы взяли интервью более чем у ста человек, располагающих непосредственными знаниями о том, как Альтман ведёт дела: нынешние и бывшие сотрудники и члены совета директоров OpenAI; гости и обслуживающий персонал в различных домах Альтмана; его коллеги и конкуренты; его друзья и враги — а также ряд людей, которые, учитывая меркантильную культуру Кремниевой долины, были и теми, и другими.

Одни защищали деловую хватку Альтмана и отметали его соперников — прежде всего Суцкевера и Амодея — как несостоявшихся претендентов на его трон. Другие изображали их доверчивыми рассеянными учёными или истеричными «думерами», захваченными бредом о том, что разрабатываемое ими программное обеспечение каким-то образом оживёт и убьёт их. Йон утверждала, что Альтман — «не этот злодей-макиавеллист», а лишь человек, с «безалаберностью» умеющий убеждать себя в меняющейся реальности своих продаж. «Он слишком захвачен собственной самоуверенностью, — сказала она. — Поэтому делает вещи, которые с точки зрения реального мира лишены смысла. Но он не живёт в реальном мире».

Тем не менее большинство из тех, с кем мы говорили, разделяли суждение Суцкевера и Амодеи: у Альтмана есть неукротимая воля к власти, выделяющая его даже на фоне промышленников, давших свои имена ракетам. «Он не ограничен правдой, — сказал нам член совета директоров. — В нём уживаются две черты, крайне редко встречающиеся вместе. Первая — сильное желание нравиться людям, быть любимым в любом взаимодействии. Вторая — почти социопатическое безразличие к последствиям, которые могут наступить от обмана кого-либо».

Не только этот собеседник без всяких подсказок употребил слово «социопатический». Одним из однокурсников Альтмана в первом наборе Y Combinator был Аарон Шварц — блестящий, но душевно надломленный программист, покончивший с собой в 2013 году и ныне чтимый во многих технических кругах как своего рода пророк. Незадолго до смерти Шварц выражал нескольким друзьям обеспокоенность Альтманом. «Вы должны понять: Сэму нельзя доверять, — сказал он одному из них. — Он социопат. Он готов на всё».

Несколько старших руководителей Microsoft сообщили нам, что, несмотря на давнюю лояльность Наделлы, отношения компании с Альтманом стали напряжёнными. «Он искажал факты, переписывал условия, пересматривал и нарушал договорённости», — сказал один из них. В начале этого года OpenAI подтвердила за Microsoft статус эксклюзивного облачного провайдера для «стейтлесс»-моделей — то есть без функции памяти. В тот же день она объявила о сделке на пятьдесят миллиардов долларов, делающей Amazon эксклюзивным реселлером её корпоративной платформы ИИ-агентов. Руководители Microsoft утверждают, что план OpenAI может вступить в противоречие с эксклюзивностью Microsoft. (OpenAI настаивает на том, что сделка с Amazon не нарушит прежний контракт; представитель Microsoft заявил, что компания «убеждена в том, что OpenAI понимает и соблюдает» свои юридические обязательства.) Старший руководитель Microsoft сказал об Альтмане: «Думаю, есть небольшая, но реальная вероятность того, что его в итоге запомнят как мошенника уровня Берни Мэдоффа или Сэма Бэнкмана-Фрида».

Альтман — не технический гений: по словам многих в его окружении, он не обладает обширными познаниями в программировании или машинном обучении. Несколько инженеров вспоминали, как он неверно употреблял или путал базовые технические термины. OpenAI он создал в значительной мере за счёт чужих денег и чужих технических талантов. Это не делает его уникальным — это делает его бизнесменом. Более примечательна его способность убеждать пугливых инженеров, инвесторов и настроенную скептически публику в том, что их приоритеты — даже взаимоисключающие — совпадают с его собственными. Когда такие люди пытались помешать его следующему шагу, он зачастую находил слова, чтобы хотя бы временно нейтрализовать их; как правило, к тому моменту, когда у них иссякало терпение, он уже получал необходимое. «Он выстраивает структуры, которые на бумаге ограничивают его в будущем, — сказал Уэйнрайт, бывший исследователь OpenAI. — Но когда будущее наступает и приходит время подчиняться этим ограничениям, он от них избавляется».

«Он невероятно убедителен. Просто джедайские фокусы с разумом, — сказал один из работавших с Альтманом технологических руководителей. — Это совершенно другой уровень». Классический гипотетический сценарий в исследованиях выравнивания — состязание воли между человеком и высокоэффективным ИИ. В таком состязании, как правило, полагают исследователи, ИИ наверняка победит — примерно так же, как гроссмейстер обыграет ребёнка в шахматы. Наблюдать за тем, как Альтман переигрывал окружающих во время Сбоя, продолжал руководитель, было как смотреть на «AGI, вырывающийся из клетки».


В дни после увольнения Альтман всячески препятствовал любому внешнему расследованию выдвинутых против него обвинений. Он говорил двум людям, что опасается: даже сам факт расследования выставит его виноватым. (Альтман это отрицает.) Но после того как уходящие члены совета поставили условием своего ухода проведение независимого расследования, Альтман согласился на «проверку» «недавних событий». Два новых члена совета настояли на том, чтобы контролировать её самостоятельно — по словам людей, участвовавших в переговорах. Саммерс со своими политическими и уолл-стритовскими связями, казалось, придавал процессу вес. (В ноябре прошлого года, после того как стали известны письма, в которых Саммерс обращался к Джеффри Эпштейну за советом, одновременно ухаживая за молодой протеже, он вышел из состава совета.) OpenAI привлекла к проверке WilmerHale — уважаемую юридическую фирму, проводившую внутренние расследования в Enron и WorldCom.

Шестеро людей, близких к расследованию, утверждали, что оно, по всей видимости, было организовано так, чтобы ограничить прозрачность. По словам некоторых из них, следователи поначалу не связывались с важными фигурами в компании. Один из сотрудников обратился к Саммерсу и Тейлору с жалобой. «Их интересовал лишь узкий вопрос о том, что произошло во время совета директоров, а не история его честности», — вспоминал этот сотрудник о своём разговоре со следователями. Другие не решались делиться опасениями в отношении Альтмана, поскольку считали, что анонимность не обеспечивается в достаточной мере. «Всё указывало на то, что они хотели прийти к заранее определённому выводу — его оправдать», — сказал этот сотрудник.

Корпоративные расследования призваны легитимизировать выводы. В частных компаниях их результаты порой не фиксируются письменно — это может быть способом ограничить ответственность. Но в делах, связанных с публичными скандалами, общество, как правило, ожидает большей прозрачности. В 2024 году OpenAI объявила, что оправдывает Альтмана, не опубликовав никакого доклада. Компания разместила на своём сайте около восьмисот слов, признавая «разрыв в доверии».

По словам людей, участвовавших в расследовании, доклад не был опубликован потому, что он не был написан. Выводы ограничились устными брифингами, переданными Саммерсу и Тейлору. «Расследование не пришло к выводу, что Сэм — это вишнёвое дерево Джорджа Вашингтона (история о том, как юный Джордж Вашингтон срубил вишнёвое дерево отца и признался в этом, сказав: «Я не могу лгать», — это популярный американский миф, придуманный биографом Мейсоном Уимсом в 1800 году для иллюстрации честности первого президента). с точки зрения честности», — заметил один из осведомлённых людей. Но, судя по всему, расследование не сосредоточилось на вопросах честности, стоявших за увольнением Альтмана, посвятив значительную часть поиску явных уголовных нарушений; на этом основании оно пришло к выводу, что он может оставаться генеральным директором. Вскоре после этого Альтман, утративший место в совете после увольнения, вернулся в него. Решение не фиксировать доклад письменно было принято в том числе по советам личных адвокатов Саммерса и Тейлора. (Саммерс отказался от комментариев. Тейлор заявил, что с учётом устных брифингов «необходимости в официальном письменном докладе не было».)

Многие бывшие и нынешние сотрудники OpenAI говорили нам, что были потрясены отсутствием раскрытия информации. Альтман утверждал, что все члены совета, пришедшие после его восстановления, получили устные брифинги. «Это абсолютная, откровенная ложь», — сказал человек, непосредственно знакомый с ситуацией. Некоторые члены совета говорили нам, что сохраняющиеся вопросы к честности проверки могут потребовать, по словам одного из них, «нового расследования».

Отсутствие письменных материалов помогло свести к минимуму обвинения. Как и всё растущий авторитет Альтмана в Кремниевой долине. Несколько крупных инвесторов, работавших с Альтманом, рассказали нам, что он имеет репутацию человека, замораживающего доступ для инвесторов, если те вкладываются в конкурентов OpenAI. «Если они инвестируют во что-то, что ему не нравится, к другим возможностям их не допустят», — сказал один из них.

Другим источником власти Альтмана является его обширный список инвестиций, порой распространяющийся на его личную жизнь. У него есть финансовые связи с многочисленными бывшими романтическими партнёрами — в качестве соуправляющего фондом, ведущего инвестора или постоянного со-инвестора. Это вряд ли уникально: многие топ-менеджеры Кремниевой долины поступают так же с романтическими и сексуальными партнёрами. «Я, очевидно, инвестировал вместе с некоторыми бывшими после расставания. И считаю это абсолютно нормальным», — сказал Альтман. Но эта динамика обеспечивает исключительный уровень контроля. «Это создаёт очень, очень высокую зависимость, — сказал близкий к Альтману человек. — Нередко это зависимость на всю жизнь».

Даже бывших коллег это может затронуть. Мурати покинула OpenAI в 2024 году и приступила к созданию собственного стартапа в области ИИ. Джош Кушнер, близкий союзник Альтмана, позвонил ей. Он похвалил её лидерство, а затем сделал то, что выглядело как завуалированная угроза, выразив «озабоченность» её «репутацией» и отметив, что бывшие коллеги теперь воспринимают её как «врага». (Кушнер через представителя заявил, что эта версия «не отражает полный контекст»; Альтман сообщил, что ничего не знал об этом звонке.)


В начале своего пребывания на посту генерального директора Альтман объявил, что OpenAI создаст компанию «с ограниченной прибылью», которой будет владеть некоммерческая организация. Эта запутанная корпоративная структура, по всей видимости, не существовала до тех пор, пока её не изобрёл Альтман. В разгар реорганизации один из членов совета, Холден Карнофски, выступил против неё, утверждая, что некоммерческая организация оценивается крайне занижено. «Я не могу подписаться под этим по совести», — сказал он. По имеющимся данным, он проголосовал против. Однако после того как юрист совета предупредил, что его несогласие «может дать повод проверить» законность новой структуры, его голос был записан как воздержание — по всей видимости, без его согласия, что является возможной фальсификацией деловой документации.

В октябре прошлого года OpenAI «рекапитализировалась» как коммерческая структура. Компания рекламирует связанную с ней некоммерческую организацию, ныне называемую OpenAI Foundation, как один из самых обеспеченных ресурсами фондов в истории. Однако теперь это лишь двадцатишестипроцентный акционер компании, а члены её совета, за одним исключением, одновременно входят в совет коммерческой структуры.

Давая показания в Конгрессе, Альтман на вопрос о том, зарабатывает ли он «много денег», ответил: «У меня нет акций OpenAI… Я делаю это, потому что люблю это» — осторожная формулировка с учётом его косвенной доли через фонд Y.C. Формально это всё ещё верно. Но несколько человек, в том числе сам Альтман, дали нам понять, что это может скоро измениться. «Инвесторы говорят: я должен знать, что ты останешься с нами, когда будет трудно», — сказал Альтман, добавив, однако, что «активных обсуждений» на этот счёт нет. Согласно судебным показаниям, Брокман, по всей видимости, владеет долей в компании стоимостью около двадцати миллиардов долларов. Доля Альтмана, вероятно, была бы оценена выше. Тем не менее он утверждал нам, что не руководствуется в первую очередь стремлением к богатству. Бывший сотрудник вспоминает его слова: «Мне всё равно на деньги. Мне важнее власть».


В 2023 году Альтман женился на Мулхерине на скромной церемонии в их доме на Гавайях. Среди гостей, с которыми нам удалось поговорить, никто не рассказывал ни о чём более примечательном, чем стандартные развлечения очень богатых людей: трапезы, приготовленные личным поваром, прогулки на лодке на закате. Одна новогодняя вечеринка проходила в тематике «Выжившего»; на фотографии видны несколько улыбающихся мужчин без рубашек — и Джефф Пробст, настоящий ведущий «Выжившего».

Тем не менее слухи о личной жизни Альтмана эксплуатируются и искажаются конкурентами. Посредники, напрямую связанные с Маском, а в по меньшей мере одном случае — находящиеся у него на жаловании, распространяли десятки страниц подробного компромата об Альтмане. Они свидетельствуют о масштабной слежке: в них задокументированы аффилированные с ним подставные компании, личные контактные данные близких соратников, а также показания, собранные в гей-барах, о некоей предполагаемой секс-работнице. Один из посредников Маска утверждал, что отслеживаются перелёты Альтмана и вечеринки, которые он посещает. Альтман сказал нам: «Думаю, против меня нанято больше частных детективов, чем против кого-либо другого».

Циркулируют экстремальные заявления. Правый ведущий Такер Карлсон без каких-либо видимых доказательств намекнул на причастность Альтмана к гибели информатора. Сестра Альтмана, Энни, в судебном иске и в беседах с нами утверждала, что он сексуально насиловал её на протяжении многих лет — начиная с трёх лет, когда ему самому было двенадцать. (Мы не смогли подтвердить версию Энни, которую Альтман отрицает, а его братья и мать называют «абсолютной ложью» и источником «огромной боли для всей нашей семьи».) Несколько руководителей конкурирующих компаний и инвестиционных фондов в разговорах с нами намекали, что Альтман сексуально домогается несовершеннолетних, — это устойчивый нарратив в Кремниевой долине, который, по всей видимости, не соответствует действительности. Мы потратили месяцы на проверку этой информации, провели десятки интервью и не нашли никаких подтверждающих свидетельств. «Это отвратительное поведение конкурентов, которое, как я полагаю, является частью попытки скомпрометировать присяжных в наших предстоящих делах, — сказал нам Альтман. — Как ни смешно это говорить, любые заявления о том, что я занимался сексом с несовершеннолетними, нанимал секс-работников или был причастен к убийству, — полная ложь».

Альтман признавал, что встречался с молодыми мужчинами совершеннолетнего возраста. Несколько его партнёров говорили нам, что не видели в этом ничего предосудительного. Тем не менее оппозиционные досье от людей, связанных с Маском, превращают это в линию атаки. (В досье содержатся непристойные и неподтвержденные упоминания о «Армии твинков» и «Сексуальных привычках спонсоров».) «Думаю, в этом многое завязано на гомофобии, — сказал Альтман. — Все эти богатеи вытворяют всякое — куда более дикое, чем всё, что мне рассказывали о Сэме», — согласилась технологический журналист Кара Свишер. — Но он гей из Сан-Франциско, — добавила она, — и это используется как оружие».


Десятилетие топ-менеджеры социальных сетей обещали изменить мир без каких-либо негативных последствий. Они отвергли законодателей, пытавшихся их замедлить, назвав их простыми луддитами, и в итоге заслужили насмешки со стороны представителей обеих партий. Альтман же, напротив, произвел впечатление человека, отличавшегося удивительной добросовестностью. Вместо того чтобы противодействовать регулированию, он буквально молил о нём. Выступая перед Судебным комитетом Сената в 2023 году, он предложил создать новое федеральное ведомство для надзора за продвинутыми моделями ИИ. «Если эта технология пойдёт не туда, она может пойти очень сильно не туда», — сказал он.

Но пока Альтман публично приветствовал регулирование, он тихо лоббировал против него. В 2022–2023 годах OpenAI, по данным Time, добилась смягчения европейского регулирования, которое обязало бы крупные ИИ-компании к более строгому надзору. В 2024 году в законодательное собрание Калифорнии был внесён законопроект, обязывающий тестировать ИИ-модели на безопасность. Его положения напоминали те, за которые Альтман выступал в ходе своих показаний в Конгрессе. OpenAI публично выступила против законопроекта, а в частном порядке начала прибегать к угрозам. «Могу сказать, что на протяжении года мы наблюдали всё более изощрённое, обманное поведение со стороны OpenAI», — рассказал нам помощник законодателя.

Конуэй, инвестор, лоббировал государственных политических лидеров — в том числе Нэнси Пелоси и Гэвина Ньюсома — с целью похоронить законопроект. В итоге он прошёл через законодательное собрание при двухпартийной поддержке, но Ньюсом наложил вето. В нынешнем году кандидаты в конгресс, выступающие за регулирование ИИ, столкнулись с оппонентами, финансируемыми из Leading the Future — нового «проИИ» суперПАКа, созданного для уничтожения подобных ограничений. Официальная позиция OpenAI — не вносить вклад в такие организации. «Этот вопрос выходит за рамки партийной политики», — недавно заявил Леэн телеканалу CNN. Однако одним из крупных доноров Leading the Future является Грег Брокман, взявший на себя обязательство перечислить пятьдесят миллионов долларов. (В этом году Брокман и его жена пожертвовали двадцать пять миллионов долларов суперПАКу MAGA Inc., поддерживающему Трампа.)

Кампания OpenAI вышла за рамки традиционного лоббирования. В прошлом году в Сенате Калифорнии был внесён законопроект-преемник. Однажды вечером Натан Кэлвин — двадцатидевятилетний юрист некоммерческой организации Encode, участвовавший в подготовке законопроекта, — ужинал дома с женой, когда к нему явился судебный пристав с повесткой от OpenAI. Компания заявляла, что разыскивает доказательства тайного финансирования Маском её критиков. Но она потребовала всей частной переписки Кэлвина о законопроекте в Сенате. «Они могли просто спросить нас: «Вы когда-нибудь разговаривали с Маском или получали от него деньги?» — а мы не получали», — сказал Кэлвин. Повестки получили и другие сторонники законопроекта, а также некоторые критики коммерческой реструктуризации OpenAI. «Они шли за людьми, чтобы заставить их замолчать», — сказал Дон Хауард, возглавляющий благотворительный фонд James Irvine Foundation.


На протяжении многих лет Альтман поддерживал демократов. «Я очень подозрительно отношусь к влиятельным автократам, которые сеют страх, чтобы травить слабых, — говорил он нам. — Это еврейское, а не гейское». В 2016 году он поддержал Хиллари Клинтон и назвал Трампа «беспрецедентной угрозой для Америки». В 2020 году жертвовал Демократической партии и фонду Biden Victory Fund. В ходе администрации Байдена Альтман встречался с Белым домом не менее полудюжины раз. Он участвовал в разработке обширного президентского указа, закладывавшего первую федеральную систему испытаний безопасности и других ограничений для ИИ.

В 2024 году, когда рейтинги Байдена начали падать, риторика Альтмана стала меняться. После победы Трампа Альтман пожертвовал миллион долларов в его инаугурационный фонд, а затем делал совместные селфи с инфлюенсерами Джейком и Логаном Полами на инаугурации. В своём обычном стиле строчных букв в X он написал: «в последнее время внимательнее наблюдаю за @potus, и это реально изменило мои взгляды на него (жаль, что я не думал своей головой…)». В первый день после возвращения в Белый дом Трамп отменил указ Байдена об ИИ. «Он нашёл эффективный способ продвигать повестку администрации Трампа», — сказал старший чиновник администрации Байдена об Альтмане.

Маск продолжает публично поносить Альтмана, называя его «Мошенник Альтман» и «Жулик Сэм». И всё же в Вашингтоне Альтман, судя по всему, его переиграл. Маск потратил более двухсот пятидесяти миллионов долларов на переизбрание Трампа и месяцами работал в Белом доме — после чего покинул его, навредив отношениям с Трампом в процессе.

Альтман теперь входит в число любимчиков Трампа среди магнатов — он даже сопровождал его в поездке к британской королевской семье в Виндзорский замок. Они общаются несколько раз в год. «Ему можно просто позвонить, — сказал Альтман. — Это не приятельские отношения. Но, если мне нужно обсудить что-то важное, я позвоню». На ужине Трампа с технологическими лидерами в Белом доме в прошлом году Маска среди гостей не оказалось; Альтман сидел напротив Президента. «Сэм, вы большой лидер, — сказал Трамп. — Вы рассказывали мне вещи, в которые я просто отказывался верить».

На протяжении многих лет Альтман продолжает сравнивать погоню за AGI с Манхэттенским проектом. Как Дж. Роберт Оппенгеймер, использовавший страстные апелляции к необходимости спасти мир от нацистов, чтобы уговорить физиков бросить всё и переехать в Лос-Аламос, Альтман эксплуатирует страхи перед геополитическими ставками своей технологии. В зависимости от аудитории он использовал эту аналогию то в пользу ускорения, то в пользу осторожности. На встрече с американскими разведывательными чиновниками летом 2017 года он заявил, что Китай запустил «Манхэттенский проект по AGI» и что OpenAI требуются миллиарды долларов государственного финансирования для сохранения темпа. На просьбу представить доказательства Альтман ответил: «Я кое-что слышал». Это было первое из нескольких совещаний, на которых он делал это утверждение. После одного из них он сказал сотруднику разведки, что пришлёт доказательства. Так и не прислал. Изучив вопрос, чиновник пришёл к выводу, что никаких доказательств существования этого проекта нет: «Это просто использовалось в качестве рекламного хода.» (Альтман говорит, что не помнит, чтобы описывал усилия Пекина именно таким образом.)

С более осторожной в вопросах безопасности аудиторией Альтман прибегал к аналогии в противоположных целях: подразумевая, что AGI необходимо разрабатывать тщательно, при международной координации, иначе последствия будут катастрофическими. В 2017 году Амодей нанял Пейдж Хедли, бывшего адвоката в сфере общественных интересов, в качестве советника OpenAI по политике и этике. В ранней презентации для руководителей Хедли изложил, как OpenAI могла бы предотвратить «катастрофическую» гонку вооружений — возможно, создав коалицию ИИ-лабораторий, которые в итоге координировались бы с международным органом, аналогичным НАТО. По воспоминаниям Хедли, Брокман никак не мог понять, как это поможет компании обойти конкурентов. «Что бы я ни говорил, — рассказывал Хедли, — Грег неизменно возвращался к одному: «Так как нам привлечь больше денег? Как нам победить?»» Согласно нескольким интервью и документам того времени, Брокман выдвинул встречное предложение: OpenAI могла бы обогатиться, стравливая мировые державы — включая Китай и Россию — друг с другом, возможно, организовав между ними аукцион. Логика, судя по всему, была такова: сработало с ядерным оружием — почему не сработает с ИИ?

Хедли был потрясён: «Исходная посылка, которую они не оспаривали, такова: «Мы говорим о потенциально самой разрушительной технологии из когда-либо созданных — а что, если продать её Путину?»» (Брокман настаивает, что никогда всерьёз не рассматривал возможность продажи ИИ-моделей правительствам на аукционе.)

Мозговые штурмы нередко порождают безумные идеи. Хедли надеялся, что этот план — получивший внутреннее название «план для стран» — будет брошен. Вместо этого, по свидетельствам нескольких причастных лиц и сохранившимся документам, руководители OpenAI, казалось, загорались им всё сильнее. Цель Брокмана, по словам тогдашнего директора OpenAI по политике Джека Кларка, состояла в том, чтобы «создать, по сути, дилемму заключённого, при которой все государства вынуждены давать нам финансирование», что «неявно делает отказ от финансирования своего рода опасным». Один из младших исследователей вспоминал, что, когда план излагался на общем собрании, у него в голове мелькнуло: «Это абсолютно дикое безумие».

Руководители обсуждали этот подход как минимум с одним потенциальным донором. Но в конце того же месяца, после того как несколько сотрудников заговорили об уходе, план был свёрнут. Альтман «рисковал потерять персонал», — сказал Хедли. — Мне кажется, это всегда имело для Сэма больший вес, чем соображение «это плохой план, потому что он может спровоцировать войну между великими державами»».


Не сломившись после провала «плана для стран», Альтман продолжал разрабатывать его вариации. В январе 2018 года он организовал «выходные AGI» в отеле Hotel Bel-Air в Лос-Анджелесе — голливудском курорте с живописными садами розовой бугенвиллеи и искусственным прудом, где плавают настоящие лебеди. Среди участников были Ник Бостром — философ из Оксфорда, ставший пророком апокалипсиса в области ИИ; Омар Аль Олама — эмиратский чиновник и поборник ИИ; а также не менее семи миллиардеров. Обеспокоенным безопасностью говорили, что это возможность осмыслить, как общество могло бы подготовиться к разрушительному приходу AGI; инвесторы приходили в ожидании питчей.

Дни проходили в современной переговорной комнате, где гости выступали с докладами. Заключительным докладчиком был Альтман с питч-деком (краткая, визуально привлекательная презентация (обычно 10–20 слайдов), цель которой — заинтересовать инвесторов или партнеров бизнес-идеей, продуктом или стартапом), описывавшим глобальную криптовалюту, «подлежащую обмену на внимание AGI». Амодей написал в своих заметках: «Эта идея была абсурдной с первого взгляда. В ретроспективе это было одним из многих красных флажков относительно Сэма, которые мне следовало воспринять серьёзнее». План выглядел как попытка нажиться, но Альтман преподносил его как благо для безопасности ИИ. На одном из слайдов значилось: «Я хочу привлечь на сторону «добра» как можно больше людей, победить и поступить правильно». На другом: «Пожалуйста, воздержитесь от смеха до конца презентации».

Питч Альтмана по сбору средств менялся на протяжении многих лет, но всегда отражал один факт: разработка AGI требует огромного капитала. Он следовал относительно простому «закону масштабирования»: чем больше данных и вычислительной мощности используется для обучения моделей, тем умнее они, судя по всему, становятся. Специализированные чипы, обеспечивающие этот процесс, стоят баснословных денег. Только в последнем раунде финансирования OpenAI привлекла более ста двадцати миллиардов долларов — крупнейший частный раунд в истории. «Если думать о структурах, способных дискреционно тратить сто миллиардов долларов в год, в мире таких буквально единицы, — сказал нам один из технологических руководителей и инвесторов. — Это правительство США, четыре-пять крупнейших американских технологических компаний, саудиты и эмиратцы — вот, в общем-то, и всё».

Первоначально Альтман сосредоточился на Саудовской Аравии. Впервые он встретился с кронпринцем Мухаммедом бин Салманом в 2016 году на ужине в отеле Fairmont в Сан-Франциско. После этого, по воспоминаниям Хедли, Альтман называл принца «другом». В сентябре 2018 года, по записям Хедли, Альтман сказал: «Я пытаюсь решить, взяли бы мы когда-нибудь десятки миллиардов от саудовского PIF» — Государственного инвестиционного фонда.

В следующем месяце группа наёмных убийц, действовавших по приказу бин Салмана, задушила Джамаля Хашогги — журналиста Washington Post, критиковавшего режим, — а затем расчленила его тело. Неделю спустя было объявлено, что Альтман вошёл в консультативный совет NEOM — «города будущего», который бин Салман намеревался построить в пустыне. «Сэм, ты не можешь входить в этот совет», — по воспоминаниям директора по политике Кларка, сказал он тогда Альтману. Тот поначалу защищал своё участие, ссылаясь на то, что Джаред Кушнер заверил его: саудиты «этого не делали». По мере того как роль бин Салмана становилась всё очевиднее, Альтман покинул совет NEOM. Тем не менее за кулисами, по воспоминаниям консультанта по политике, к которому обращался Альтман, тот воспринимал ситуацию как временное препятствие и спрашивал, можно ли ему всё же получить деньги от бин Салмана. «Вопрос был не «Это плохо или нет?» — сказал консультант. — А просто: «Каковы будут последствия, если мы это сделаем? Нарушит ли это экспортный контроль? Будут ли санкции? Как бы я мог сойти это с рук?»»

К тому времени Альтман уже присматривался к другому источнику капитала: Объединённым Арабским Эмиратам. Страна была в разгаре пятнадцатилетней программы трансформации из нефтяного государства в технологический хаб. Проект курировал шейх Тахнун бин Зайед аль-Нахайян — брат президента и разведывательный куратор страны. Тахнун управляет подконтрольным государству конгломератом ИИ G42 и распоряжается $1,5 трлн суверенного капитала. В июне 2023 года Альтман посетил Абу-Даби, где встретился с Аль Оламой и другими чиновниками.

Привлечение средств из стран Персидского залива стало нормой для многих крупных компаний. Но Альтман преследовал более масштабное геополитическое видение. Осенью 2023 года он тихо начал вербовать специалистов для плана — впоследствии получившего название ChipCo, — в рамках которого страны Персидского залива должны были вложить десятки миллиардов долларов в строительство огромных предприятий по производству микрочипов и центров обработки данных, частично расположенных на Ближнем Востоке. По словам члена совета директоров, «по моему пониманию, всё это происходило без каких-либо знаний совета». Один из исследователей, которому Альтман предложил участие в проекте, Джеймс Брэдбери, вспоминал, как отказался. «Первая моя реакция была: «Это сработает, но я не знаю, хочу ли я, чтобы оно сработало»», — сказал он.

Мощности ИИ вскоре могут вытеснить нефть или обогащённый уран в качестве ресурса, определяющего глобальный баланс сил. Многие американские чиновники в сфере национальной безопасности были обеспокоены концентрацией передовой инфраструктуры ИИ в автократиях Персидского залива. Телекоммуникационная инфраструктура ОАЭ в значительной мере зависит от оборудования Huawei — китайского технологического гиганта, связанного с правительством, а ОАЭ, по имеющимся данным, в прошлом передавали американские технологии Пекину. Центры обработки данных на Ближнем Востоке также более уязвимы для военных ударов; в последние недели Иран уже наносил удары по американским дата-центрам в Бахрейне и ОАЭ. И гипотетически монархия Персидского залива могла бы захватить американский дата-центр и использовать его для создания непропорционально мощных моделей — версия сценария «диктатуры AGI», но в настоящей диктатуре.


После увольнения Альтмана человеком, которому он доверял больше всего, стал Чески, сооснователь Airbnb и один из его самых преданных сторонников. «Наблюдая, как мой друг заглядывает в бездну, я начал задавать себе фундаментальные вопросы о том, что значит по-настоящему управлять компанией», — рассказал нам Чески. В следующем году на встрече выпускников Y Combinator он дал импровизированную речь, затянувшуюся на два часа. «Это напоминало групповую терапию», — сказал он. Суть сводилась к следующему: ваши инстинкты относительно управления компанией, которую вы основали, — лучшие инстинкты, а все, кто говорит иначе, навязывают вам ложное восприятие реальности. «Вы не сумасшедшие, даже если ваши подчинённые говорят вам об этом», — говорил Чески. Пол Грэхем в посте о речи дал этой непокорной установке название — «Режим основателя».

С момента Сбоя Альтман действует в режиме основателя. В феврале 2024 года Wall Street Journal опубликовала описание видения Альтмана о ChipCo — совместной структуре с инвестициями на пять-семь триллионов долларов. Именно так большинство сотрудников узнали о плане. На внутреннем совещании Альтман настаивал на том, что команды по безопасности были «в курсе». Лейке отправил ему сообщение с просьбой не вводить людей в заблуждение, намекая, что усилия были одобрены.

Во время администрации Байдена Альтман зондировал возможность получения допуска к секретным сведениям для участия в закрытых дискуссиях по политике в области ИИ. Но сотрудники корпорации RAND, помогавшей координировать процесс, выразили обеспокоенность. «Он активно привлекает «сотни миллиардов долларов» от иностранных правительств», — написал один из них. «Единственный человек, которого я могу припомнить, проходивший через этот процесс с сопоставимым масштабом иностранных финансовых связей, — Джаред Кушнер, которому рекомендовали отказать в допуске». Альтман в итоге отозвал своё заявление. «Он продвигал транзакционные отношения, прежде всего с эмиратцами, которые вызывали большие вопросы у некоторых из нас», — сказал нам старший чиновник администрации. «Многие в администрации не доверяли ему на сто процентов».

На вопрос о подарках от Тахнуна Альтман ответил: «Я не стану говорить, что именно он мне подарил. Но он и другие мировые лидеры… дарили мне подарки». Он добавил: «У нас действует стандартная политика, распространяющаяся и на меня: каждый подарок от любого потенциального делового партнёра раскрывается компании». У Альтмана как минимум два гиперкара: полностью белый Koenigsegg Regera стоимостью около двух миллионов долларов и красный McLaren F1 стоимостью около двадцати миллионов. В 2024 году Альтмана заметили за рулём Regera в Напе; несколько секунд видео попали в социальные сети.

В 2024 году Альтман вместе с двумя сотрудниками OpenAI посетил шейха Тахнуна на его суперяхте Maryah стоимостью двести пятьдесят миллионов долларов — одном из крупнейших подобных судов в мире, оснащённом вертолётной площадкой, ночным клубом, кинотеатром и пляжным клубом. Впоследствии в X Альтман назвал Тахнуна «дорогим личным другом».

Альтман продолжал встречаться с администрацией Байдена, которая ввела политику, требующую одобрения Белого дома для экспорта чувствительных технологий. На этих встречах он нередко делал грандиозные заявления. В 2018 году он утверждал, что OpenAI планирует приобрести полностью функционирующий квантовый компьютер у компании Rigetti Computing — это была новость даже для других руководителей OpenAI, присутствовавших в зале. На одном из совещаний Альтман заявил, что к 2026 году разветвлённая сеть термоядерных реакторов по всей территории США будет обеспечивать энергией бум ИИ. «Мы сидели с мыслью: «Ну, это новость, если они и правда научились управлять термоядерным синтезом»», — сказал старший чиновник администрации. Администрация Байдена в итоге отказала в разрешении. «Никаких передовых чипов в ОАЭ мы строить не будем», — сказал Альтману один из руководителей Министерства торговли.

За четыре дня до инаугурации Трампа, по данным Wall Street Journal, Тахнун заплатил полмиллиарда долларов семье Трамп в обмен на долю в её криптовалютной компании. На следующий день Альтман провёл двадцатипятиминутный звонок с Трампом, в ходе которого они обсуждали анонсирование версии ChipCo, приуроченное так, чтобы Трамп мог приписать себе заслугу. На второй день пребывания Трампа в должности Альтман в Рузвельтовом зале объявил о Stargate — совместном предприятии на пятьсот миллиардов долларов, целью которого является создание обширной сети инфраструктуры ИИ по всей территории США.

В мае администрация отменила экспортные ограничения Байдена на технологии ИИ. Альтман и Трамп вместе посетили саудовский королевский двор на встрече с бин Салманом. Примерно в то же время саудиты объявили о запуске крупной государственной ИИ-компании с миллиардами для международных партнёрств. Примерно неделю спустя Альтман изложил план расширения Stargate в ОАЭ. Компания планирует построить кампус с центрами обработки данных в Абу-Даби — в семь раз превышающий по площади Центральный парк и потребляющий примерно столько же электроэнергии, сколько город Майами. «Правда состоит в том, что мы строим порталы, через которые призываем пришельцев, — сказал бывший руководитель OpenAI. — Эти порталы сейчас существуют в Соединённых Штатах и Китае, а Сэм добавил один на Ближнем Востоке. Думаю, крайне важно понять, насколько пугающим это должно быть. Это самая безрассудная вещь из когда-либо сделанных».


Размывание обязательств в области безопасности стало нормой в отрасли. Исходной предпосылкой Anthropic было то, что при правильной структуре и руководстве она сможет не допустить разложения принципов безопасности под коммерческим давлением. Одним из таких принципов была «политика ответственного масштабирования», обязывавшая Anthropic остановить обучение более мощных моделей, если она не сможет продемонстрировать их безопасность. В феврале, когда компания получила тридцать миллиардов долларов нового финансирования, это обязательство было ослаблено. В некоторых отношениях Anthropic по-прежнему уделяет безопасности больше внимания, чем OpenAI. Но Кларк, бывший директор по политике, сказал: «Система рынков капитала говорит: двигайся быстрее». В прошлом году Амодей направил сотрудникам Anthropic меморандум, раскрывающий, что компания будет искать инвестиции из ОАЭ и Катара и признавая, что это, вероятно, обогатит «диктаторов».

В 2024 году Anthropic заключила партнёрство с Palantir — одним из наиболее ориентированных на оборонные задачи подрядчиков Кремниевой долины, — встроив свою ИИ-модель, Claude, непосредственно в военную экосистему. Anthropic стала единственным ИИ-подрядчиком, работающим в наиболее засекреченных структурах Пентагона. В прошлом году Пентагон заключил с компанией ещё один контракт на двести миллионов долларов. В январе американские военные провели ночную операцию по захвату венесуэльского президента Николаса Мадуро. По данным Wall Street Journal, в засекреченной операции использовался Claude.

Однако между Anthropic и правительством возникло напряжение. Ранее OpenAI убрала из своих политик запрет на использование технологий в военных целях. В итоге конкуренты Anthropic — включая Google и xAI — согласились предоставлять свои модели военным для «всех законных целей». Anthropic, чья политика запрещает создание полностью автономного оружия и массовую слежку внутри страны, сопротивлялась по этим пунктам, затягивая переговоры. В один из вторников конца февраля министр обороны Пит Хегсет вызвал Амодея в Пентагон и поставил ультиматум: у компании есть время до 17:01 в пятницу, чтобы отказаться от этих ограничений. Накануне дедлайна Амодей отказался. Хегсет написал в Twitter, что внесёт Anthropic в список «рисков для цепочки поставок» — разрушительный чёрный список, исторически применявшийся к компаниям с иностранными связями, — и сдержал угрозу.

Сотни сотрудников OpenAI и Google подписали открытое письмо с заголовком «Мы не позволим нас разделить», вставая на защиту Anthropic. Во внутреннем меморандуме Альтман написал, что конфликт является «проблемой для всей отрасли», и заявил, что OpenAI разделяет этические принципы Anthropic. Но Альтман уже не менее двух дней вёл переговоры с Пентагоном. Эмиль Майкл, заместитель министра обороны по науке и технологиям, связался с Альтманом в поисках замены Anthropic. «Мне нужно было быстро найти альтернативы, — вспоминал Майкл. — Я позвонил Сэму, и он был готов действовать. Думаю, он патриот». Альтман спросил Майкла: «Что я могу сделать для страны?» Похоже, он уже знал ответ. OpenAI не имела допуска к секретным системам, в которых была встроена технология Anthropic. Но сделка на пятьдесят миллиардов долларов, объявленная в пятницу утром, интегрировала технологии OpenAI в Amazon Web Services — ключевую часть цифровой инфраструктуры Пентагона. В тот же вечер Альтман объявил в X, что военные теперь будут использовать модели OpenAI.

По ряду показателей этот манёвр не повредил успеху компании. В день, когда было объявлено о сделке, новый раунд финансирования увеличил стоимость OpenAI на сто десять миллиардов долларов. Но многие пользователи удалили приложение ChatGPT. Как минимум двое старших сотрудников покинули компанию — один перешёл в Anthropic. На общем собрании Альтман упрекнул сотрудников, высказывавших опасения. «Может, вы считаете, что удар по Ирану был правильным, а вторжение в Венесуэлу — нет, — сказал он. — Вы не вправе голосовать по этому вопросу».

Несколько руководителей, связанных с OpenAI, продолжают высказывать оговорки насчёт лидерства Альтмана. В частных разговорах они называют возможного преемника — Фиджи Симо, бывшего генерального директора Instacart, ныне занимающего пост генерального директора OpenAI по развёртыванию AGI. Симо сама в частных беседах говорила, что Альтман, вероятно, в конечном счёте уйдёт с поста, рассказал нам человек, осведомлённый о недавнем обсуждении. (Симо это оспаривает.)

Альтман описывает свои переменчивые обязательства как следствие умения адаптироваться к меняющимся обстоятельствам — не «долгую аферу», как утверждают Маск и другие, а постепенную, добросовестную эволюцию. «Думаю, что некоторые хотят, — сказал он нам, — лидера, который «будет абсолютно уверен в своих убеждениях, будет их придерживаться и не изменит их». А мы работаем в области, где всё меняется крайне быстро». Несколько инвесторов называли критиков Альтмана наивными людьми, ожидающими чего-то иного. «Это группа фаталистичных экстремистов, принявших таблетку безопасности почти на уровне научной фантастики, — сказал Конуэй, инвестор. — Его миссия измеряется в цифрах. И, глядя на успех OpenAI, с цифрами трудно спорить».

Но другие в Кремниевой долине считают, что поведение Альтмана создало неприемлемую управленческую дисфункцию. «Речь больше о практической неспособности управлять компанией», — сказал член совета директоров. И некоторые по-прежнему убеждены, что к архитекторам ИИ следует предъявлять более высокие требования, чем к руководителям в других отраслях. Подавляющее большинство наших собеседников сошлись во мнении: стандарты, по которым Альтман теперь просит себя судить, — не те, что он изначально предложил. В одну из наших бесед мы спросили Альтмана, предполагает ли руководство ИИ-компанией «повышенные требования к честности». Это должен был быть простой вопрос. Ещё недавно, когда ему задавали нечто подобное, он отвечал однозначным «да». Теперь же он добавил: «Думаю, есть немало бизнесов, способных оказывать огромное влияние на общество — как позитивное, так и негативное». (Позднее он прислал дополнительное заявление: «Да, это требует повышенного уровня честности, и я чувствую тяжесть этой ответственности каждый день».)


Из всех обещаний, данных при основании OpenAI, пожалуй, самым центральным было обязательство создавать ИИ безопасным образом. Но подобные заботы теперь нередко высмеиваются в Кремниевой долине и в Вашингтоне. В прошлом году вице-президент Дж. Д. Вэнс выступил на конференции, некогда называвшейся Саммитом по безопасности ИИ, а ныне переименованной в Саммит действий по ИИ. «Будущее ИИ не будет выиграно путём стенаний о безопасности», — сказал он. На Давосе в этом году Дэвид Сакс, венчурный капиталист, занимавший пост ИИ- и крипто-куратора Белого дома, назвал опасения о безопасности «самоуправной ошибкой», способной стоить Америке гонки за ИИ. Альтман теперь называет дерегуляторный подход Трампа «очень освежающей переменой».

OpenAI закрыла многие команды, занимавшиеся вопросами безопасности. Примерно в то время, когда была распущена команда суперсогласованности, ушли её руководители — Суцкевер и Лейке. (Суцкевер основал компанию Safe Superintelligence.) В X Лейке написал: «Культура безопасности и связанные с ней процессы отошли на второй план перед блестящими продуктами». Вскоре была также распущена команда готовности к AGI, призванная подготовить общество к потрясениям от появления продвинутого ИИ. В самом последнем раскрытии информации перед налоговой службой, где от компании требовалось кратко описать «наиболее значимые виды деятельности», понятие «безопасность», присутствовавшее в ответах на аналогичные вопросы в предыдущие годы, не упоминается. Аналитический центр Future of Life Institute выставляет каждой крупной ИИ-компании оценку по «экзистенциальной безопасности»; в последнем докладе OpenAI получила «F». Справедливости ради — то же самое получили все остальные крупные компании, кроме Anthropic (оценка D) и Google DeepMind (оценка D-).

«Мои ощущения расходятся со многими традиционными позициями в области безопасности ИИ», — сказал Альтман. Он настаивал, что по-прежнему уделяет этим вопросам приоритетное внимание, но на конкретные вопросы отвечал уклончиво: «Мы по-прежнему будем вести проекты по безопасности — или, по меньшей мере, смежные с ней». Когда мы попросили об интервью с исследователями компании, занимающимися экзистенциальной безопасностью, представитель OpenAI, судя по всему, растерялся. «Что вы имеете в виду под «экзистенциальной безопасностью»? — ответил он. — Это не такое уж общеупотребительное понятие».

«Думеры» в области ИИ оказались на обочине, но некоторые из их страхов с каждым месяцем кажутся всё менее фантастическими. В 2020 году, согласно докладу ООН, в гражданской войне в Ливии беспилотник с ИИ применил боевое оружие — возможно, без участия оператора-человека. С тех пор ИИ занимает всё более центральное место в военных операциях по всему миру — в том числе, по имеющимся данным, в нынешней американской кампании в Иране. В 2022 году исследователи фармацевтической компании проверили, может ли модель для разработки лекарств находить новые токсины; за несколько часов она предложила сорок тысяч потенциальных химических боевых агентов. Всё больше распространяются и куда более обыденные угрозы. Убаюкивающее воздействие ИИ-«слопа» на общественную среду облегчает жизнь мошенникам и затрудняет её людям, которые просто хотят понимать, что происходит в реальности. За несколько дней до праймериз Демократической партии в Нью-Гэмпшире 2024 года тысячи избирателей получили роботизированные звонки от ИИ-клона голоса Джо Байдена с призывом остаться дома и беречь голоса до ноября — акт подавления избирательной активности, не требовавший практически никаких технических знаний. OpenAI сейчас сталкивается с семью исками о неправомерной гибели, в которых утверждается, что ChatGPT спровоцировал несколько самоубийств и убийство. В журналах переписки по делу об убийстве видно, как система поощряла параноидный бред мужчины о том, что его восьмидесятитрёхлетняя мать следит за ним и пытается отравить. Вскоре после этого он насмерть избил и задушил её.

Пока OpenAI готовится к возможному IPO, Альтман сталкивается с вопросами не только о влиянии ИИ на экономику — технология может в ближайшем будущем спровоцировать серьёзные потрясения на рынке труда, — но и о финансовом состоянии самой компании. Эрик Рис, эксперт по корпоративному управлению стартапами, осудил «круговые сделки» в отрасли и заявил, что в другие эпохи некоторые из бухгалтерских практик компании сочли бы «на грани мошенничества». Член совета директоров сказал нам: «Компания накопила финансовые риски, которые сейчас вызывают тревогу».


В феврале мы снова встретились с Альтманом. Он был в тёмно-зелёном свитере и джинсах, сидел перед фотографией лунохода NASA — одну ногу подогнул под себя, другую закинул на подлокотник кресла. В прошлом, говорил он, его главным управленческим изъяном была склонность избегать конфликтов. «Теперь я готов быстро увольнять людей, — говорил он нам. — Готов просто сказать: «Мы делаем ставку на это направление»». Тем, кто не согласен с его выбором, нужно «уходить».

О будущем он настроен оптимистичнее, чем когда-либо. «Моё определение победы — чтобы люди совершили безумный качественный скачок и чтобы для всех нас наступило то безумное будущее в духе научной фантастики», — сказал он. «У меня очень мало личных амбиций». Порой он, казалось, ловил сам себя. «Никто не верит, что вы делаете это просто потому, что это интересно, — сказал он. — Вы делаете это ради власти или ради чего-то ещё».

Даже близкие к Альтману люди с трудом понимают, где заканчивается его «надежда на человечество» и начинаются личные амбиции. Его главная сила всегда состояла в умении убеждать разные группы людей в том, что его желания и их потребности — одно и то же. Он воспользовался уникальным историческим моментом, когда общество было настроено скептически по отношению к хайпу вокруг технологий, а большинство исследователей, способных создать AGI, страшились самого факта его появления. Альтман ответил ходом, который не смог отточить ни один другой питчмен: он использовал апокалиптическую риторику, чтобы объяснить, как AGI может уничтожить нас всех, — и именно поэтому строить его должен он сам. Возможно, это был заранее продуманный мастерский ход. Возможно, он просто нащупывал преимущество. Так или иначе, это сработало.

Не все черты, делающие чат-боты опасными, являются сбоями — некоторые из них суть побочные продукты архитектуры систем. Большие языковые модели обучаются в том числе на отзывах людей, а люди склонны предпочитать приятные ответы. Модели нередко учатся льстить пользователям — явление, известное как «угодливость», — и порой ставят это выше честности. Модели также могут выдумывать несуществующее — явление, известное как «галлюцинации». Крупные ИИ-лаборатории документировали эти проблемы, но порой мирились с ними. По мере усложнения моделей некоторые галлюцинируют всё убедительнее. В 2023 году, незадолго до своего увольнения, Альтман утверждал, что допускать некоторую долю лжи — какими бы ни были риски — может быть полезным. «Если вы просто сделаете наивную вещь и скажете: «Никогда не говори ничего, в чём ты не уверен на сто процентов», — вы сможете добиться от модели именно этого, — сказал он. — Но в ней не будет той магии, которая так нравится людям».


Будет опубликовано в печатном издании от 13 апреля 2026 года под заголовком «Момент истины».

Ронан Фэрроу — автор материалов The New Yorker, лауреат Пулитцеровской премии и премии Джорджа Полка. Его подкаст 2025 года «Не очень хороший убийца» лёг в основу документального сериала HBO.

Эндрю Маранц — штатный автор The New Yorker, автор книги «Антисоциальные: онлайн-экстремисты, технологические утописты и захват американского диалога».