Anthropic 与 Claude:一家押注 AI 安全就是好生意的公司
2021 年 1 月,Dario Amodei 离开了他在 OpenAI 的研究副总裁职位。他的妹妹 Daniela 也一同离开。他们带走了一批机器学习领域最顶尖的人才——这些人曾参与构建 GPT-3,联合发表了该领域被引用最多的安全论文,同时对原雇主的发展方向深感不安。同年,他们创立了 Anthropic。此后,这家公司累计融资超过 73 亿美元,估值突破 600 亿美元,并打造了全球最受关注的 AI 模型之一:Claude。
对于一家核心卖点本质上是"我们会比其他人更谨慎地做这件事"的公司来说,这是一条非同寻常的轨迹。
安全优先的赌注
大多数 AI 公司将安全视为成本中心——产品做完后再打上的补丁。Anthropic 彻底颠覆了这一逻辑。从创立之初,安全研究就不是一个部门,而是产品开发流程本身。团队开发了"宪法 AI"(Constitutional AI),这是一种训练方法论,将有用性、无害性和诚实性等原则通过自我批判和修订的过程直接嵌入模型行为。
宪法 AI 与标准 RLHF(基于人类反馈的强化学习)有何不同?在传统 RLHF 中,人类标注者对模型输出进行排序,模型学习生成排名更高的输出。这种方式有效,但扩展性差——你需要大量标注者,而他们的判断会引入不一致性。宪法 AI 用一套书面原则替代了大部分人类反馈。模型根据这些原则评估自己的输出,进行修订,修订后的版本成为训练信号。其结果是一个更符合既定价值观、训练成本也显著更低的模型。
它完美吗?并不。批评者指出,基于自我批判训练的模型可能会产生盲点,这些盲点反映了你所编写的"宪法"中的偏见。这确实是一个合理的担忧。但该方法在实践中表现良好,Claude 在 HELM 评估套件等安全基准测试中始终名列前茅。
Claude:一个模型家族,而非单一产品
到 2024 年 3 月,Anthropic 发布了 Claude 3,这是一个包含三个模型的家族,每个模型都有不同的性能与成本取舍。起初,这个阵容让一些人感到困惑——为什么 OpenAI 基本只有两个模型(GPT-4 和 GPT-3.5),而 Anthropic 要发布三个?
答案在于定价和延迟。Claude 3 Opus 是重量级选手,在推理基准测试中与 GPT-4 Turbo 相当,但每百万输入 token 的成本为 15 美元,每百万输出 token 为 75 美元。Claude 3 Sonnet 居于中间——大约拥有 Opus 80% 的能力,成本仅为五分之一。而 Claude 3 Haiku 则是速度之王:查询处理时间不到一秒,每百万输入 token 仅需 0.25 美元。
这个产品线真正的高明之处在于,开发者无需切换供应商就能做出精细的成本-性能决策。需要一个快速分类任务?用 Haiku。需要撰写一份需要严谨推理的法律简报?用 Opus。大多数生产场景?Sonnet 完全够用。我个人在不同项目中都使用过这三个模型,对于大多数实际应用场景,Sonnet 和 Opus 之间的差距比你预想的要小。
2024 年晚些时候,Anthropic 进一步推出了 Claude 3.5 Sonnet,它在多个编码基准测试中的表现实际上超过了初代 Opus,同时保持了中等价位。这强烈表明,该公司的架构研究正在以意想不到的方式取得回报。
长上下文的优势
Claude 最独特的特征之一是它的上下文窗口。Claude 3 发布时支持高达 20 万 token 的输入——大约 15 万字,相当于三部长篇小说。相比之下,GPT-4 Turbo 发布时提供 128K token。
为什么上下文长度很重要?因为许多现实任务需要处理大量文档。法律发现阶段需要阅读数千页合同。代码审查要求理解整个代码库,而不仅仅是单个函数。学术研究意味着综合数百页的论文。
我曾将一份 180 页的 SaaS 合同全文喂给 Claude 3 Opus,要求它找出所有可能给买方带来责任风险的条款。它找到了 14 个问题,其中两个我们的法律团队在第一轮审查中遗漏了。它是否像资深律师一样彻底?并不完全——它遗漏了第 12.3 条中一个细微的赔偿问题。但它在 45 秒内完成了律师需要两天的工作,成本还不到一美元。
代价是延迟。即使使用 Anthropic 优化过的推理栈,处理 20 万 token 也需要时间。对于实时聊天应用,你通常最好使用较小的上下文窗口并保持提示简洁。但对于批处理、文档分析和研究工作流,长上下文是一个真正的游戏规则改变者。
企业级布局
Anthropic 的商业策略与 OpenAI 截然不同。OpenAI 通过 ChatGPT 追求消费者市场并构建 GPT 商店,而 Anthropic 则专注于企业集成和开发者工具。
2023 年 9 月宣布的亚马逊合作是关键一步。亚马逊向 Anthropic 投资最高 40 亿美元,并通过 AWS Bedrock 提供 Claude 服务。这笔交易让 Anthropic 接触到了亚马逊庞大的企业客户群——这些公司已经在 AWS 上运行基础架构,希望在不增加额外供应商关系的情况下添加 AI 能力。
谷歌随后也投资了 20 亿美元。同时获得亚马逊和谷歌的背书,给了 Anthropic 在硅谷罕见的筹码:同时与两大云服务提供商建立深度关系,而不被任何一方完全控制。
在开发者端,Anthropic 的 API 定价具有竞争力。Claude API 的价格显著低于 GPT-4,尤其是对于输入密集型工作负载。结合模型家族策略,这让 Claude 成为那些无法承受 GPT-4 高昂定价的初创公司和中型企业的理想选择。
诚实的局限性
在撰写 Anthropic 时不承认其局限性是不诚实的。Claude 的图像理解能力虽然不错,但历史上一直落后于 GPT-4V 的多模态功能。模型可以分析你上传的图像,但无法生成图像——这对创意工作流来说是一个重要的限制。
Claude 的知识截止日期也是一个痛点。在很长一段时间里,Claude 的训练数据有一个硬性截止日期,意味着它无法讨论近期事件。Anthropic 通过集成网络搜索改善了这一点,但仍然不如某些竞争对手的方式那样无缝。
还有一个更深层的哲学问题:一家优先考虑安全的公司,能否跟上那些愿意承担更大风险、更快推进的竞争对手的步伐?到目前为止,Anthropic 一直保持竞争力——Claude 3.5 Sonnet 在多个标准基准测试中匹配或超越了 GPT-4。但压力是持续的,每个季度都会迎来 OpenAI、谷歌、Meta 以及越来越多来自 DeepSeek 和阿里巴巴通义团队等中国实验室的新模型。
Anthropic 的未来方向
截至 2025 年初,Anthropic 正在开发 Claude 4,并积极投入代理式 AI(Agentic AI)——能够执行操作而非仅仅生成文本的系统。他们在 2024 年底发布的计算机使用能力,让 Claude 可以控制桌面环境、点击按钮、填写表格和浏览网页。它目前还比较粗糙——复杂多步骤任务的错误率高于大多数开发者的期望——但它指向了一个未来:AI 助手真正在做工作,而不仅仅是在谈论工作。
该公司在 AI 政策方面也一直积极发声,发布了详细的负责任扩展政策,并倡导他们认为能与安全意识较弱的竞争对手公平竞争的监管框架。这种倡导能否转化为有效的政策还有待观察,但它在经常将监管视为障碍的行业中确实是一个差异化的立场。
Anthropic 的赌注归根结底很简单:随着 AI 系统变得更加强大,那些证明自己值得被信任的公司将赢得市场。这个赌注尚未尘埃落定,但早期回报是积极的。Claude 赢得了需要可靠、安全 AI 的开发者和企业的信任。在一个年增长数千亿美元的市场中,信任可能是最有价值的资产。