Каждое обещание, которое нарушил Сэм Альтман — с доказательствами
В начале марта 2026 года ветка на Reddit в r/OpenAI собрала то, что копилось годами: структурированную хронологию с доказательными ссылками на заявления Сэма Альтмана и OpenAI, которые позднее были отозваны, опровергнуты или тихо заброшены. Заголовок ветки разошёлся по Hacker News, X и AI-рассылкам за 48 часов.
Это не судебное решение. Это составленное сообществом собрание публичных заявлений, изменений политики и последующих разворотов, организованное в формате, который читатели могут проверить ссылка за ссылкой. Расплывчатое недоверие легко отмахнуть. Датированный список с источниками — сложнее.
Почему эта ветка задела нерв
Время имеет значение. К марту 2026 года OpenAI завершила переход к коммерческой корпорации общественной пользы. Компания оценивалась более чем в 300 миллиардов долларов. Ветка не изобрела новых обвинений — она организовала известные факты в хронологию, сделавшую паттерн видимым.
История некоммерческого происхождения
OpenAI была основана в 2015 году как некоммерческая исследовательская лаборатория. Эта структура разбиралась по частям. Дочерняя компания с ограничением прибыли создана в 2019-м. Лимит повышен. Некоммерческий совет потерял операционный контроль в кризисе лидерства ноября 2023-го. К 2026-му переход завершился.
Противоречие с долей владения
Один из наиболее обсуждаемых пунктов касается доли Альтмана. В показаниях Сенату США в мае 2023-го Альтман заявил, что не владеет акциями OpenAI. Поздние публикации раскрыли косвенные финансовые интересы через инвестиционные фонды. Автор поста отредактировал его с учётом корректировки.
Парадокс регулирования
Позиция Альтмана по регулированию ИИ была — мягко говоря — адаптивной. В 2023-м он был видным техническим CEO, требующим регулирования. К 2025–2026 годам публичная позиция OpenAI сместилась к предупреждениям о чрезмерном регулировании.
Уходы команды безопасности
Между 2023-м и началом 2026-го несколько ключевых членов команд безопасности OpenAI покинули компанию. Команда супервыравнивания, анонсированная с большим шумом в 2023-м, фактически распалась после ухода соруководителей.
Механизм общественной коррекции
Что делает эту ветку структурно интересной — не гнев, а механизм коррекции. Несколько комментаторов оспорили конкретные утверждения. Оригинальный автор отреагировал на критику и отредактировал пост. К моменту вирусного распространения на Hacker News ветка уже прошла раунд общественной проверки фактов.
Что это значит для OpenAI
OpenAI не сменит курс из-за ветки на Reddit. Но ветка кристаллизует то, что отдельные жалобы не могут: задокументированный паттерн риторических обязательств, не переживших столкновение с коммерческой реальностью. Проверка доверия через доказательства становится стандартной практикой в AI-дискурсе, и ни одна компания от неё не застрахована.