返回博客
2026-03-26
Toolsify Editorial Team
AI Industry

Sam Altman 食言清单:每一条都有证据

OpenAISam AltmanAI EthicsAI Industryevery promise sam altman broke with receiptssam altman reveals even more
Sponsored

2026年3月初,Reddit 的 r/OpenAI 版块出现了一个帖子,把多年来积聚的东西摆在了台面上:一个结构化的、附有证据链接的时间线,记录了 Sam Altman 和 OpenAI 做出的、后来被收回、自相矛盾或悄然放弃的声明。帖子标题——"every promise Sam Altman broke with receipts"——在48小时内传遍了 Hacker News、X 和各类 AI 通讯。

这不是法院判决。不是监管裁决。它是一个社区驱动的公开声明、政策变更和后续反转的汇编,以读者可以逐条查验的形式组织。这种格式正是它引起共鸣的原因。模糊的不信任很容易被驳回。一条附有来源的、按日期排列的清单,就没那么容易搪塞了。

为什么这个帖子触动了神经

时机很重要。到2026年3月,OpenAI 已经完成了向营利性公益公司的转型。公司估值超过3000亿美元。GPT-5 及其变体在快速迭代。与政府和国防机构的企业合同已不是秘密。这些都不是秘密。但公司早期的修辞与当前现实之间的差距已经大到有人终于把两者并排放在一起的程度。

Reddit 帖子并没有发明新的指控。它把已知事实组织成一条时间线,让模式变得可见。这种模式——先表态,再反转,然后重新定义——正是驱动参与度的东西。读者不需要同意清单上的每一条,也能认出这个轨迹的形状。

非营利的起源故事

OpenAI 成立于2015年,是一个非营利研究实验室。创始章程强调开放研究、安全性,以及造福人类而非股东的承诺。Altman 反复描述这个结构是刻意为之——是对 AI 权力集中的制衡。

这个结构被一步步拆除。2019年创建了有上限利润的子公司。上限被提高。2023年11月的领导层危机中,非营利董事会失去了运营控制权。到2025年,向完全营利实体的转型已提上日程。2026年初,转型完成。

帖子用链接到原始声明的方式记录了每一步。这个模式不是一次戏剧性的反转,而是一系列渐进式的操作,每一步都以"必要"和"务实"为名,每一步都离最初的承诺更远。

股权矛盾

清单上讨论最多的项目之一涉及 Altman 的股权。在2023年5月美国参议院的听证会上,Altman 表示他没有持有 OpenAI 的股权。从狭义的技术角度来说,这是准确的——他没有直接持股。

但后来的报道揭示了通过投资基金和估值敞口存在的间接经济利益。帖子记录了字面陈述与经济现实之间的差距。一位评论者提出了反对意见,认为原帖夸大了这一说法。帖子随后被编辑以反映这一修正。

这个修正很重要。社区在公开场合完善证据,增加精确度,而不仅仅是积累愤怒。一个能自我修正的帖子比不能修正的帖子更可信。

监管悖论

Altman 在 AI 监管问题上的立场,客气地说,是"与时俱进"的。2023年,他是呼吁监管的知名科技 CEO。他告诉国会,AI 公司应该被许可经营。他支持设立联邦监管机构的想法。

到了2025年和2026年,OpenAI 的公开姿态已经转变。公司传播越来越多地警告过度监管。游说活动瞄准了各州的 AI 安全法案。《欧盟 AI 法案》的实施被描述为负担过重。帖子用具体例子追踪了这一转变,展示了同一位高管如何在大约18个月内从"请监管我们"变成了"请别管太多"。

这并非 OpenAI 独有。许多科技公司遵循同样的曲线:在增长期修辞上拥抱监管,在变现期抵制监管。但 receipts 格式让这种转变更难掩饰。

安全团队的离开

帖子花了大量篇幅记录关键安全和对齐研究人员的离职。2023年到2026年初,OpenAI 安全团队的多位高调成员离开了公司。有些人公开且带批评性地离开。有些人悄然离去。2023年高调宣布的超级对齐团队,在联合负责人离开后实际上被解散了。

这里的证据包括关于对齐研究计算资源分配的原始公告,以及后续关于这些分配并未完全兑现的报道。公开承诺与内部现实之间的差距通过博客文章、采访和泄露的内部通信被记录下来。

一个公平的反驳:公司随时有人离职,离职本身不能自动证明承诺被打破。但这种模式——安全导向的员工离开,援引资源限制和优先级转变——一致性足够强,值得关注。

军事和双重用途

OpenAI 的可接受使用政策在2025年初更新,取消了对军事应用的全面禁止。公司将其描述为澄清而非反转。帖子对此持怀疑态度,指出最初的禁止是作为一种道德立场而非技术限制来呈现的。

帖子链接到 OpenAI 与国防相关组织的合作公告,并与早先关于不开发武器或旨在伤害他人的系统的声明进行了对比。你将此视为务实的演变还是违背承诺,取决于你对"承诺"的阈值。

社区纠错机制

让这个帖子在结构上有趣的不是愤怒——对科技公司的愤怒大量存在且往往质量很低。而是纠错机制。多位评论者对原帖中的具体说法提出了质疑。有些人认为某些条目是解释问题而非明确的反转。另一些人补充了缺失的上下文,软化或复杂化了叙事。

原帖作者对这些批评做出了回应并编辑了帖子。到帖子在 Hacker News 上走红时,它已经经过了一轮社区事实核查的完善。这个过程不保证准确性,但它产出的东西比一般的投诉帖更严谨。

对 OpenAI 意味着什么

OpenAI 不会因为一个 Reddit 帖子而改变方向。公司有3000亿美元估值的势头、大型企业客户和市场认可的产品管线。但帖子将个体投诉无法做到的事情具体化了:一个有据可查的模式——修辞承诺在商业现实面前没有存活下来。

对于开发者和企业买家来说,实际问题不是 Altman 在某种抽象意义上是否值得信赖。而是 OpenAI 当前的承诺——关于定价、API 稳定性、安全实践——是否应该被视为持久的,还是作为可能被修正的临时立场。

receipts 格式隐含地回答了这个问题。如果过去承诺的模式是渐进式退让,那么理性的预期就是当前承诺带有类似的风险。这不是犬儒主义。这是模式识别。

更大的教训

帖子的受欢迎程度反映了 AI 社区评估公司方式的更广泛转变。基准和能力很重要,但信任正在成为一等变量。当开发者在竞争提供商的模型之间选择时,提供商承诺的可靠性——在安全、定价、开放访问方面——越来越多地成为决策因素。

Sam Altman 不是唯一一个可以用这种方式编译过去声明的高管。但他是那个公司最明确地将品牌建立在信任、开放和公共利益之上的人。当证据与品牌相矛盾时,落差格外响亮。

Reddit 帖子是一个持续更新的文档。它仍在不断添加新条目和社区修正。它是否会经得起时间考验,取决于 OpenAI 下一步做什么。但这种格式——公开声明、链接证据、社区修订——很可能会持续下去。通过证据进行信任验证正在成为 AI 领域的标准实践,没有哪家公司可以豁免。

Sponsored