返回博客
2024-11-10
AI Research Team
Company

Anthropic 與 Claude:一家押注 AI 安全就是好生意的公司

AnthropicClaudeAI Safety
Sponsored

2021 年 1 月,Dario Amodei 離開了他在 OpenAI 的研究副總裁職位。他的妹妹 Daniela 也一同離開。他們帶走了一批機器學習領域最頂尖的人才——這些人曾參與建構 GPT-3,聯合發表了該領域被引用最多的安全論文,同時對原雇主的發展方向深感不安。同年,他們創立了 Anthropic。此後,這家公司累計融資超過 73 億美元,估值突破 600 億美元,並打造了全球最受關注的 AI 模型之一:Claude。

對於一家核心賣點本質上是「我們會比其他人更謹慎地做這件事」的公司來說,這是一條非同尋常的軌跡。

安全優先的賭注

大多數 AI 公司將安全視為成本中心——產品做完後再打上的補丁。Anthropic 徹底顛覆了這一邏輯。從創立之初,安全研究就不是一個部門,而是產品開發流程本身。團隊開發了「憲法 AI」(Constitutional AI),這是一種訓練方法論,將有用性、無害性和誠實性等原則透過自我批判和修訂的過程直接嵌入模型行為。

憲法 AI 與標準 RLHF(基於人類回饋的強化學習)有何不同?在傳統 RLHF 中,人類標註者對模型輸出進行排序,模型學習生成排名更高的輸出。這種方式有效,但擴展性差——你需要大量標註者,而他們的判斷會引入不一致性。憲法 AI 用一套書面原則替代了大部分人類回饋。模型根據這些原則評估自己的輸出,進行修訂,修訂後的版本成為訓練信號。其結果是一個更符合既定價值觀、訓練成本也顯著更低的模型。

它完美嗎?並不。批評者指出,基於自我批判訓練的模型可能會產生盲點,這些盲點反映了你所編寫的「憲法」中的偏見。這確實是一個合理的擔憂。但該方法在實踐中表現良好,Claude 在 HELM 評估套件等安全基準測試中始終名列前茅。

Claude:一個模型家族,而非單一產品

到 2024 年 3 月,Anthropic 發布了 Claude 3,這是一個包含三個模型的家族,每個模型都有不同的效能與成本取捨。起初,這個陣容讓一些人感到困惑——為什麼 OpenAI 基本只有兩個模型(GPT-4 和 GPT-3.5),而 Anthropic 要發布三個?

答案在於定價和延遲。Claude 3 Opus 是重量級選手,在推理基準測試中與 GPT-4 Turbo 相當,但每百萬輸入 token 的成本為 15 美元,每百萬輸出 token 為 75 美元。Claude 3 Sonnet 居於中間——大約擁有 Opus 80% 的能力,成本僅為五分之一。而 Claude 3 Haiku 則是速度之王:查詢處理時間不到一秒,每百萬輸入 token 僅需 0.25 美元。

這個產品線真正的高明之處在於,開發者無需切換供應商就能做出精細的成本-效能決策。需要一個快速分類任務?用 Haiku。需要撰寫一份需要嚴謹推理的法律簡報?用 Opus。大多數生產場景?Sonnet 完全夠用。我個人在不同專案中都使用過這三個模型,對於大多數實際應用場景,Sonnet 和 Opus 之間的差距比你想像的要小。

2024 年稍晚時候,Anthropic 進一步推出了 Claude 3.5 Sonnet,它在多個編碼基準測試中的表現實際上超過了初代 Opus,同時維持了中等價位。這強烈表明,該公司的架構研究正在以意想不到的方式取得回報。

長上下文的優勢

Claude 最獨特的特徵之一是它的上下文視窗。Claude 3 發布時支援高達 20 萬 token 的輸入——大約 15 萬字,相當於三部長篇小說。相比之下,GPT-4 Turbo 發布時提供 128K token。

為什麼上下文長度很重要?因為許多現實任務需要處理大量文件。法律發現階段需要閱讀數千頁合約。程式碼審查要求理解整個程式碼庫,而不僅僅是單個函式。學術研究意味著綜合數百頁的論文。

我曾將一份 180 頁的 SaaS 合約全文餵給 Claude 3 Opus,要求它找出所有可能給買方帶來責任風險的條款。它找到了 14 個問題,其中兩個我們的法律團隊在第一輪審查中遺漏了。它是否像資深律師一樣徹底?並不完全——它遺漏了第 12.3 條中一個細微的賠償問題。但它在 45 秒內完成了律師需要兩天的工作,成本還不到一美元。

代價是延遲。即使使用 Anthropic 優化過的推理棧,處理 20 萬 token 也需要時間。對於即時聊天應用,你通常最好使用較小的上下文視窗並保持提示簡潔。但對於批次處理、文件分析和研究工作流,長上下文是一個真正的遊戲規則改變者。

企業級佈局

Anthropic 的商業策略與 OpenAI 截然不同。OpenAI 透過 ChatGPT 追求消費者市場並建構 GPT 商店,而 Anthropic 則專注於企業整合和開發者工具。

2023 年 9 月宣布的亞馬遜合作是關鍵一步。亞馬遜向 Anthropic 投資最高 40 億美元,並透過 AWS Bedrock 提供 Claude 服務。這筆交易讓 Anthropic 接觸到了亞馬遜龐大的企業客戶群——這些公司已經在 AWS 上運行基礎架構,希望在不增加額外供應商關係的情況下添加 AI 能力。

谷歌隨後也投資了 20 億美元。同時獲得亞馬遜和谷歌的背書,給了 Anthropic 在矽谷罕見的籌碼:同時與兩大雲服務供應商建立深度關係,而不被任何一方完全控制。

在開發者端,Anthropic 的 API 定價具有競爭力。Claude API 的價格顯著低於 GPT-4,尤其是對於輸入密集型工作負載。結合模型家族策略,這讓 Claude 成為那些無法承受 GPT-4 高昂定價的初創公司和中型企業的理想選擇。

誠實的局限性

在撰寫 Anthropic 時不承認其局限性是不誠實的。Claude 的影像理解能力雖然不錯,但歷史上一直落後於 GPT-4V 的多模態功能。模型可以分析你上傳的影像,但無法生成影像——這對創意工作流來說是一個重要的限制。

Claude 的知識截止日期也是一個痛點。在很長一段時間裡,Claude 的訓練資料有一個硬性截止日期,意味著它無法討論近期事件。Anthropic 透過整合網路搜尋改善了這一點,但仍然不如某些競爭對手的方式那樣無縫。

還有一個更深層的哲學問題:一家優先考慮安全的公司,能否跟上那些願意承擔更大風險、更快推進的競爭對手的步伐?到目前為止,Anthropic 一直保持競爭力——Claude 3.5 Sonnet 在多個標準基準測試中匹配或超越了 GPT-4。但壓力是持續的,每個季度都會迎來 OpenAI、谷歌、Meta 以及越來越多來自 DeepSeek 和阿里巴巴通義團隊等中國實驗室的新模型。

Anthropic 的未來方向

截至 2025 年初,Anthropic 正在開發 Claude 4,並積極投入代理式 AI(Agentic AI)——能夠執行操作而非僅僅生成文字的系統。他們在 2024 年底發布的電腦使用能力,讓 Claude 可以控制桌面環境、點擊按鈕、填寫表格和瀏覽網頁。它目前還比較粗糙——複雜多步驟任務的錯誤率高於大多數開發者的期望——但它指向了一個未來:AI 助手真正在做工作,而不僅僅是在談論工作。

該公司在 AI 政策方面也一直積極發聲,發布了詳細的負責任擴展政策,並倡導他們認為能與安全意識較弱的競爭對手公平競爭的監管框架。這種倡導能否轉化為有效的政策還有待觀察,但它在經常將監管視為障礙的行業中確實是一個差異化的立場。

Anthropic 的賭注歸根結底很簡單:隨著 AI 系統變得更加強大,那些證明自己值得被信任的公司將贏得市場。這個賭注尚未塵埃落定,但早期回報是積極的。Claude 贏得了需要可靠、安全 AI 的開發者和企業的信任。在一個年增長數千億美元的市場中,信任可能是最有價值的資產。

Sponsored