Toda promessa que Sam Altman quebrou — com provas
No início de março de 2026, uma thread no Reddit em r/OpenAI compilou algo que vinha se construindo há anos: uma linha do tempo estruturada, com links para evidências, de declarações feitas por Sam Altman e OpenAI que depois foram retiradas, contraditas ou abandonadas silenciosamente. O título da thread se espalhou pelo Hacker News, X e newsletters de IA em 48 horas.
Isso não é uma sentença judicial. É uma compilação dirigida pela comunidade de declarações públicas, mudanças de política e reversões posteriores, organizada em um formato que os leitores podem inspecionar link por link. Desconfiança vaga é fácil de descartar. Uma lista datada com fontes é mais difícil de ignorar.
Por que essa thread tocou um nervo exposto
O momento importava. Em março de 2026, a OpenAI havia completado sua transição para uma corporação de benefício público com fins lucrativos. A empresa estava avaliada em mais de 300 bilhões de dólares. A thread não inventou novas acusações — organizou fatos conhecidos em uma linha do tempo que tornou o padrão visível.
A história de origem sem fins lucrativos
A OpenAI foi fundada em 2015 como um laboratório de pesquisa sem fins lucrativos. Essa estrutura foi desmontada peça por peça. A subsidiária de lucro limitado foi criada em 2019. O limite foi aumentado. O conselho sem fins lucrativos perdeu o controle operacional durante a crise de liderança de novembro de 2023. Em 2026, a transição estava completa.
A contradição sobre participação acionária
Um dos itens mais discutidos envolve a participação de Altman. Em seu depoimento ao Senado dos EUA em maio de 2023, Altman declarou não possuir ações na OpenAI. Relatórios posteriores revelaram interesses financeiros indiretos por meio de veículos de investimento. Um comentarista questionou o post original, que foi editado para refletir a correção.
O paradoxo da regulamentação
A posição de Altman sobre regulamentação de IA tem sido — para dizer diplomaticamente — adaptativa. Em 2023, era o CEO de tecnologia proeminente pedindo regulamentação. Em 2025-2026, a postura pública da OpenAI havia mudado para alertas sobre regulamentação excessiva.
O mecanismo de correção comunitário
O que torna essa thread estruturalmente interessante não é a raiva — raiva contra empresas de tecnologia é abundante e geralmente de baixa qualidade. É o mecanismo de correção. Múltiplos comentaristas questionaram afirmações específicas. O autor original respondeu a essas críticas e editou o post. Quando a thread viralizou no Hacker News, já havia sido refinada por uma rodada de verificação de fatos da comunidade.
O que isso significa para a OpenAI
A OpenAI não vai mudar de rumo por causa de uma thread no Reddit. Mas a thread cristaliza algo que reclamações individuais não conseguem: um padrão documentado de compromissos retóricos que não sobreviveram ao contato com a realidade comercial. A verificação de confiança por meio de evidências está se tornando uma prática padrão no discurso de IA, e nenhuma empresa está isenta.