ブログに戻る
2024-11-10
AI Research Team
Company

Anthropic と Claude:AI セキュリティがビジネスとして成功すると確信する企業

AnthropicClaudeAI Safety
Sponsored

2021年1月、Dario Amodei は OpenAI の研究副社長職を退いた。妹の Daniela も同様だった。彼らは機械学習分野で最も優秀な頭脳の一部を引き連れていった——GPT-3 の構築に携わり、同分野で最も引用されている安全に関する論文を共著し、かつての雇用主の方向性に深く懸念を抱いていた人々だ。同年に彼らが設立した Anthropic は、73億ドル以上の資金を調達し、600億ドル以上の評価額に到達し、世界で最も話題を集めたAIモデルの一つを構築した——Claude だ。

「他の誰よりも慎重にこれをやる」という本質的な売り文句を持つ企業としては、驚異的な軌跡だ。

安全を最優先にする賭け

ほとんどのAI企業はセキュリティをコストセンターとして扱う——製品を構築した後に後付けするものだ。Anthropic はこの論理を逆転させた。創業当初から、セキュリティリサーチは一つの部門ではなく、製品開発プロセスそのものだった。チームは Constitutional AI を開発した。これは、有用性、無害性、誠実性などの原則を、自己批判と修正のプロセスを通じてモデルの行動に直接埋め込む訓練方法論だ。

Constitutional AI は標準的な RLHF(人間のフィードバックからの強化学習)とどう違うのか?伝統的な RLHF では、人間のラベラーが出力をランク付けし、モデルは高いランクを得る出力を学習する。これは機能するが、スケールしにくい——大量のラベラーが必要で、その判断には不整合が生じる。Constitutional AI は、そうした人間のフィードックの大部分を書面化された原則のセットで置き換える。モデルはこれらの原則に基づいて自身の出力を評価し、修正し、修正版が訓練シグナルとなる。結果として、定義された価値観により沿った、訓練コストが大幅に低いモデルが生まれる。

完璧か?そうではない。批評家は、自己批判に基づく訓練を受けたモデルが、書いた「憲法」のバイアスを反映した盲点を開発しうると指摘している。正当な懸念だ。しかし、このアプローチは実践でうまく機能しており、Claude は HELM 評価スイートなどのセキュリティベンチマークで常にトップクラスの AI モデルにランクされている。

Claude:一つの製品ではなく、モデルファミリー

2024年3月までに、Anthropic は Claude 3 をリリースしていた。これは本当に異なるトレードオフプロファイルを持つ3つのモデルのファミリーだ。このラインナップは当初、一部の人々を混乱させた——OpenAI が本質的に2つしかモデルを持っていないのに(GPT-4 と GPT-3.5)、なぜ3つもリリースするのか?

答えは価格設定とレイテンシーにある。Claude 3 Opus はヘビー級で、推論ベンチマークでは GPT-4 Turbo に匹敵するが、百万入力トークンあたり15ドル、百万出力トークンあたり75ドルのコストがかかる。Claude 3 Sonnet は中間層——Opus の約80%の能力を5分の1のコストで提供する。そして Claude 3 Haiku はスピードスターだ——クエリを1秒未満で処理し、百万入力トークンあたりわずか0.25ドルのコスト。

このラインナップの真の巧妙さは、プロバイダーを切り替えることなく、きめ細かなコスト-パフォーマンス判断ができることだ。素早い分類タスク?Haiku。慎重な推論を必要とする法的ブリーフィング?Opus。ほとんどのプロダクションユースケース?Sonnet が十分に対応する。私は個人的に異なるプロジェクトで3つすべてを使用してきたが、ほとんどの実世界のアプリケーションにおいて、Sonnet と Opus の差は予想よりずっと小さい。

2024年後半、Anthropic は Claude 3.5 Sonnet でさらに先を行き、ミッドレンジの価格帯を維持しながら、複数のコーディングベンチマークで元の Opus を実際に上回った。これは、同社のアーキテクチャリサーチが予想外の形で実を結んでいることを示す強力なシグナルだった。

長いコンテキストの優位性

Claude の最も特徴的な機能の一つは、そのコンテキストウィンドウだ。Claude 3 のローンチ時には、最大20万トークンの入力に対応していた——約15万語、つまり長編小説3冊分に相当する。比較すると、GPT-4 Turbo はローンチ時に128Kトークンを提供していた。

なぜコンテキストの長さが重要なのか?現実世界の多くのタスクが大量のドキュメントの処理を含むからだ。法的発見手続きは何千ページもの契約書の読み込みを含む。コードレビューは個々の関数だけでなく、リポジトリ全体の理解を必要とする。学術研究は、合わせて数百ページに及ぶ論文の統合を意味する。

私は一度、180ページの SaaS 契約書全体を Claude 3 Opus に渡し、買い手に責任リスクを生じさせる可能性のある条款をすべて特定するよう依頼した。14個の問題を見つけたが、うち2つは法務チームの第一回レビューで見落としていたものだった。シニア弁護士ほど徹底していたか?そうではない——第12.3条の微妙な補償条項を見落としていた。しかし、弁護士が丸2日かかる作業を45秒でこなし、コストは1ドル未満だった。

トレードオフはレイテンシーだ。Anthropic の最適化された推論スタックを使用しても、20万トークンの処理には時間がかかる。リアルタイムチャットアプリケーションには、より小さなコンテキストウィンドウを使用し、プロンプトを簡潔に保つ方が通常は良い。しかし、バッチ処理、ドキュメント分析、リサーチワークフローにとっては、長いコンテキストは真のゲームチェンジャーだ。

企業向け戦略

Anthropic の商業戦略は OpenAI のものとは著しく異なっていた。OpenAI が ChatGPT で消費者の採用を追い求め、GPT のマーケットプレイスを構築する一方で、Anthropic はエンタープライズ統合と開発者ツールに集中した。

2023年9月に発表された Amazon との提携は決定的だった。Amazon は Anthropic に最大40億ドルを投資し、Claude を AWS Bedrock 経由で利用可能にした。この取引により、Anthropic は Amazon の巨大なエンタープライズ顧客基盤へのアクセスを得た——すでに AWS でインフラを運用し、別個のベンダー関係を管理せずに AI 機能を追加したい企業たちだ。

Google が20億ドルの独自投資で続いた。Amazon と Google からの二重の支援により、Anthropic はシリコンバレーでは稀なものを手にした——いずれかに完全に所有されることなく、2大クラウドプロバイダーと同時に深い関係を築くレバレッジだ。

開発者側では、Anthropic の API 定価は競争力があった。Claude API は GPT-4 よりも大幅に安い価格でローンチされ、特に入力集中型のワークロードでは顕著だった。モデルファミリーアプローチと組み合わせることで、GPT-4 のプレミアム価格を許容できないスタートアップや中規模企業にとって、Claude は魅力的な選択肢となった。

正直な限界

Anthropic について書く際にその制約を認めないのは不誠実だ。Claude の画像理解能力は堅実だが、歴史的に GPT-4V のマルチモーダル機能に遅れをとってきた。モデルはアップロードした画像を分析できるが、画像を生成することはできない——クリエイティブワークフローにとって重要な制限だ。

Claude の知識のカットオフ日也是一个痛点。何ヶ月もの間、Claude の訓練データにはハードなカットオフがあり、最近の出来事を議論できなかった。Anthropic はウェブ検索の統合でこれを改善したが、一部の競合他社のアプローチほどシームレスではない。

哲学的な問題もある:セキュリティを優先する企業は、より速く動き、より多くのリスクを取る競合他社に遅れを取らずにやっていけるのか?現時点まで、Anthropic は競争力を維持してきた——Claude 3.5 Sonnet は複数の標準ベンチマークで GPT-4 に匹敵または上回った。しかしプレッシャーは容赦なく、毎四半期ごとに OpenAI、Google、Meta、そして DeepSeek や Alibaba の Qwen チームなど中国のラボからも新しいモデルが登場する。

Anthropic の行く先

2025年初頭、Anthropic は Claude 4 の開発に取り組み、エージェンティック AI——テキストを生成するだけでなく行動を実行できるシステム——に進出している。2024年末にリリースされたコンピュータ使用機能により、Claude はデスクトップ環境の操作、ボタンのクリック、フォームの入力、ウェブサイトのナビゲーションが可能になる。まだ粗い部分はある——複雑なマルチステップタスクのエラー率はほとんどの開発者が望むよりも高い——しかし、AI アシスタントが話をするだけでなく、実際に仕事をする未来を示している。

同社は AI ポリシーについても積極的に発言しており、詳細な責任あるスケーリングポリシーを公開し、セキュリティ意識の低い競合他社と公平に戦える規制を提唱している。この提唱が効果的な政策につながるかどうかはまだわからないが、規制を障害と見なしがちな業界においては真の差別化要因だ。

Anthropic の賭けは究極的にシンプルだ:AI システムがより強力になるにつれて、その力を信頼できると証明した企業が勝つという賭けだ。まだ決着はついていないが、初期の結果は有望だ。Claude は信頼性の高い安全な AI を必要とする開発者と企業の信頼を勝ち取った。そして年間数千億ドル規模で成長する市場において、信頼こそが最も価値のある資産かもしれない。

Sponsored