Журнал The New Yorker опубликовал результаты полуторагодового расследования о Сэме Альтмане и управлении OpenAI: по выводам авторов, на посту CEO он неоднократно вводил в заблуждение коллег и совет директоров, создавая впечатление согласованных решений и искажая реальный статус важных процессов вокруг моделей и рисков ИИ.
Само OpenAI расследование строится вокруг вопроса доверия к человеку, который определяет стратегию одной из ключевых компаний в сфере генеративного ИИ.
Над материалом работали расследователь Ронан Фэрроу и журналист Эндрю Маранц.
Они изучили ранее не публиковавшиеся внутренние служебные записки и около 200 страниц документов, а также провели более 100 интервью. В центре — конкретная механика управленческих решений: как внутри компании оформлялись инициативы, как они представлялись как «уже одобренные», и что именно, по версии источников и документов, расходилось с тем, что сообщалось руководству и контролирующим структурам. В этой логике формулировка «Альтман лгал» у авторов не сводится к единичному эпизоду, а описывается как повторяющийся управленческий паттерн.
Важная часть фактуры — внутренние оценки со стороны исследовательского блока.
В записках, которые связывают с учёными OpenAI, включая Илью Суцкевера, упоминается «устойчивый паттерн нечестности». Параллельно в материалах всплывают обсуждения на уровне стратегии: внутри компании рассматривали сценарии «торгов» вокруг ИИ-технологий в геополитической рамке, где фигурируют Китай и Россия как участники возможных переговоров за доступ к моделям или технологиям. Это не публичная политика, а предмет внутренних разговоров, но сама постановка вопроса добавляет веса теме корпоративного контроля: что именно компания готова обсуждать ради инвестиций и влияния, и кто принимает такие решения.
Отдельный нерв истории — деньги и прозрачность.
На фоне подготовки OpenAI к IPO любые сомнения в честности управленческой коммуникации становятся не абстрактной этической проблемой, а фактором доверия со стороны инвесторов и партнёров. Чем ближе компания к публичным рынкам, тем выше цена расхождения между публичными обещаниями — например, о независимой оценке рисков ИИ — и тем, как эти обещания реализуются внутри. Поэтому интерес к запросам вроде «Альтман OpenAI», «openai конфликт совета директоров» и «Альтман обманул инвесторов» подпитывается не только биографией CEO, но и тем, что спор упирается в управляемость: кто и как контролирует принятие решений по моделям и безопасности. Для аудитории в России эта история цепляет сразу в нескольких плоскостях. Во‑первых, в расследовании прямо присутствует российский контекст как элемент стратегических обсуждений, а значит запрос «openai скандал» здесь читается шире, чем внутрикорпоративный конфликт. Во‑вторых, тема доверия к крупным ИИ-платформам тесно связана с практикой доступа к технологиям и инфраструктуре на фоне ограничений. На этом фоне логика «децентрализации доверия» — через криптографическую проверяемость отчётности и неизменяемые журналы изменений — выглядит не модным словарём, а попыткой ответить на базовую проблему, которую вскрыл The New Yorker: если управленческая информация может искажаться, то рынку и пользователям нужны механизмы проверки не по заявлениям, а по следам в документах и процедурах.