Вернуться к блогу
2026-03-26
Toolsify Editorial Team
AI Industry

Каждое обещание, которое нарушил Сэм Альтман — с доказательствами

OpenAISam AltmanAI EthicsAI Industryevery promise sam altman broke with receiptssam altman reveals even more
Sponsored

В начале марта 2026 года ветка на Reddit в r/OpenAI собрала то, что копилось годами: структурированную хронологию с доказательными ссылками на заявления Сэма Альтмана и OpenAI, которые позднее были отозваны, опровергнуты или тихо заброшены. Заголовок ветки разошёлся по Hacker News, X и AI-рассылкам за 48 часов.

Это не судебное решение. Это составленное сообществом собрание публичных заявлений, изменений политики и последующих разворотов, организованное в формате, который читатели могут проверить ссылка за ссылкой. Расплывчатое недоверие легко отмахнуть. Датированный список с источниками — сложнее.

Почему эта ветка задела нерв

Время имеет значение. К марту 2026 года OpenAI завершила переход к коммерческой корпорации общественной пользы. Компания оценивалась более чем в 300 миллиардов долларов. Ветка не изобрела новых обвинений — она организовала известные факты в хронологию, сделавшую паттерн видимым.

История некоммерческого происхождения

OpenAI была основана в 2015 году как некоммерческая исследовательская лаборатория. Эта структура разбиралась по частям. Дочерняя компания с ограничением прибыли создана в 2019-м. Лимит повышен. Некоммерческий совет потерял операционный контроль в кризисе лидерства ноября 2023-го. К 2026-му переход завершился.

Противоречие с долей владения

Один из наиболее обсуждаемых пунктов касается доли Альтмана. В показаниях Сенату США в мае 2023-го Альтман заявил, что не владеет акциями OpenAI. Поздние публикации раскрыли косвенные финансовые интересы через инвестиционные фонды. Автор поста отредактировал его с учётом корректировки.

Парадокс регулирования

Позиция Альтмана по регулированию ИИ была — мягко говоря — адаптивной. В 2023-м он был видным техническим CEO, требующим регулирования. К 2025–2026 годам публичная позиция OpenAI сместилась к предупреждениям о чрезмерном регулировании.

Уходы команды безопасности

Между 2023-м и началом 2026-го несколько ключевых членов команд безопасности OpenAI покинули компанию. Команда супервыравнивания, анонсированная с большим шумом в 2023-м, фактически распалась после ухода соруководителей.

Механизм общественной коррекции

Что делает эту ветку структурно интересной — не гнев, а механизм коррекции. Несколько комментаторов оспорили конкретные утверждения. Оригинальный автор отреагировал на критику и отредактировал пост. К моменту вирусного распространения на Hacker News ветка уже прошла раунд общественной проверки фактов.

Что это значит для OpenAI

OpenAI не сменит курс из-за ветки на Reddit. Но ветка кристаллизует то, что отдельные жалобы не могут: задокументированный паттерн риторических обязательств, не переживших столкновение с коммерческой реальностью. Проверка доверия через доказательства становится стандартной практикой в AI-дискурсе, и ни одна компания от неё не застрахована.

Sponsored