Anthropic et Claude : l'entreprise qui parie que la sécurité de l'IA est un bon commerce
En janvier 2021, Dario Amodei quitte son poste de vice-président de la recherche chez OpenAI. Sa sœur Daniela fait de même. Ils emmènent avec eux certains des esprits les plus brillants du machine learning — des personnes qui avaient contribué à construire GPT-3, co-écrit certains des articles sur la sécurité les plus cités du domaine, et qui étaient profondément mal à l'aise avec la direction que prenait leur employeur. L'entreprise qu'ils fondent cette même année, Anthropic, lèvera plus de 7,3 milliards de dollars de financement, atteindra une valorisation de plus de 60 milliards de dollars et construira l'un des modèles d'IA les plus commentés au monde : Claude.
C'est une trajectoire remarquable pour une entreprise dont l'argument commercial central est essentiellement : « Nous allons faire ça plus soigneusement que tout le monde. »
La mise sur la sécurité d'abord
La plupart des entreprises d'IA traitent la sécurité comme un centre de coût — quelque chose qu'on ajoute après la construction du produit. Anthropic a inversé cette logique. Dès le départ, la recherche en sécurité n'était pas un département ; c'était le processus de développement du produit lui-même. L'équipe a développé Constitutional AI, une méthodologie d'entraînement qui intègre des principes comme l'utilité, l'innocuité et l'honnêteté directement dans le comportement du modèle à travers un processus d'autocritique et de révision.
Qu'est-ce qui différencie Constitutional AI du RLHF standard (Reinforcement Learning from Human Feedback) ? Dans le RLHF traditionnel, des évaluateurs humains classent les sorties du modèle, et celui-ci apprend à produire des sorties qui obtiennent de meilleurs classements. Ça fonctionne, mais ça passe mal à l'échelle — il faut une armée d'évaluateurs, et leurs jugements introduisent des incohérences. Constitutional AI remplace une grande partie de ce feedback humain par un ensemble de principes écrits. Le modèle évalue ses propres sorties par rapport à ces principes, les révise, et la version révisée devient le signal d'entraînement. Le résultat est un modèle davantage aligné sur les valeurs déclarées et nettement moins coûteux à entraîner.
Est-ce parfait ? Non. Les critiques ont souligné qu'un modèle entraîné sur l'autocritique peut développer des angles morts qui reflètent les biais de la « constitution » qu'on rédige. C'est une préoccupation légitime. Mais l'approche s'est bien comportée en pratique, et Claude se classe régulièrement parmi les meilleurs modèles d'IA sur les benchmarks de sécurité comme la suite d'évaluation HELM.
Claude : une famille de modèles, pas un seul produit
En mars 2024, Anthropic avait lancé Claude 3, une famille de trois modèles avec des profils de compromis réellement différents. La gamme a d'abord déconcerté certains — pourquoi sortir trois modèles alors qu'OpenAI en avait essentiellement deux (GPT-4 et GPT-3.5) ?
La réponse réside dans les prix et la latence. Claude 3 Opus est le poids lourd, comparable à GPT-4 Turbo sur les benchmarks de raisonnement, mais il coûte 15 dollars par million de tokens d'entrée et 75 dollars par million de tokens de sortie. Claude 3 Sonnet se situe au milieu — environ 80 % des capacités d'Opus à un cinquième du coût. Et Claude 3 Haiku est le foudre de guerre : il traite les requêtes en moins d'une seconde et ne coûte que 0,25 dollar par million de tokens d'entrée.
Le vrai génie de cette gamme est qu'elle permet aux développeurs de prendre des décisions granulaires coût-performance sans changer de fournisseur. Une tâche de classification rapide ? Haiku. Un mémoire juridique qui nécessite un raisonnement soigné ? Opus. La plupart des cas d'usage en production ? Sonnet les gère très bien. J'ai personnellement utilisé les trois dans différents projets, et l'écart entre Sonnet et Opus est plus étroit qu'on ne le penserait pour la plupart des applications réelles.
Plus tard en 2024, Anthropic est allé plus loin avec Claude 3.5 Sonnet, qui a réellement dépassé l'Opus original sur plusieurs benchmarks de programmation tout en maintenant le point de prix intermédiaire. C'était un signal fort que la recherche architecturale de l'entreprise portait ses fruits de manière inattendue.
L'avantage du contexte long
L'une des caractéristiques les plus distinctives de Claude est sa fenêtre de contexte. Lors du lancement de Claude 3, il supportait jusqu'à 200 000 tokens d'entrée — environ 150 000 mots, soit environ trois romans complets. À titre de comparaison, GPT-4 Turbo offrait 128K tokens au lancement.
Pourquoi la longueur du contexte est-elle importante ? Parce que de nombreuses tâches du monde réel impliquent le traitement de grands documents. La découverte juridique implique la lecture de milliers de pages de contrats. La revue de code exige la compréhension de dépôts entiers, pas seulement de fonctions individuelles. La recherche académique signifie la synthèse d'articles qui, collectivement, comptent des centaines de pages.
J'ai déjà donné à Claude 3 Opus un contrat SaaS complet de 180 pages en lui demandant d'identifier chaque clause pouvant créer une exposition à la responsabilité pour l'acheteur. Il a trouvé 14 problèmes, dont deux que notre équipe juridique avait manqués lors de sa première lecture. Était-il aussi minutieux qu'un avocat senior ? Pas tout à fait — il a manqué une subtilité d'indemnisation à la section 12.3. Mais il a fait en 45 secondes ce qu'un avocat aurait mis deux journées complètes à faire, et le coût était inférieur à un dollar.
Le compromis est la latence. Traiter 200K tokens prend du temps, même avec la pile d'inférence optimisée d'Anthropic. Pour les applications de chat en temps réel, il est généralement préférable d'utiliser une fenêtre de contexte plus petite et de garder les prompts concis. Mais pour le traitement par lots, l'analyse de documents et les flux de recherche, le long contexte est un véritable game-changer.
La stratégie d'entreprise
La stratégie commerciale d'Anthropic a été notablement différente de celle d'OpenAI. Tandis qu'OpenAI cherchait l'adoption grand public avec ChatGPT et construisait un marché pour les GPTs, Anthropic s'est concentré sur l'intégration d'entreprise et les outils pour développeurs.
Le partenariat avec Amazon, annoncé en septembre 2023, a été décisif. Amazon a investi jusqu'à 4 milliards de dollars dans Anthropic et a rendu Claude disponible via AWS Bedrock. Cet accord a donné à Anthropic l'accès à l'énorme base de clients d'entreprise d'Amazon — des entreprises qui exécutaient déjà leur infrastructure sur AWS et voulaient ajouter des capacités d'IA sans gérer une relation fournisseur séparée.
Google a suivi avec son propre investissement de 2 milliards de dollars. Le double soutien d'Amazon et de Google a donné à Anthropic quelque chose de rare dans la Silicon Valley : un pouvoir de négociation avec deux des plus grands fournisseurs de cloud simultanément, sans être entièrement possédé par l'un ou l'autre.
Côté développeur, la tarification de l'API d'Anthropic a été compétitive. L'API Claude a été lancée à des prix qui inférieures significativement à ceux de GPT-4, en particulier pour les charges de travail intensives en entrée. Combiné à l'approche de famille de modèles, cela a fait de Claude une option attrayante pour les startups et les entreprises de taille moyenne qui ne pouvaient pas se permettre les prix premium de GPT-4.
Les limites honnêtes
Il serait malhonnête d'écrire sur Anthropic sans reconnaître ses contraintes. Les capacités de compréhension d'image de Claude, bien que solides, ont historiquement traîné derrière les fonctionnalités multimodales de GPT-4V. Le modèle peut analyser les images que vous téléchargez, mais il ne peut pas en générer — une limitation qui compte pour les flux de travail créatifs.
Les dates de coupure des connaissances de Claude ont également été un point douloureux. Pendant des mois, les données d'entraînement de Claude avaient une coupure dure qui signifiait qu'il ne pouvait pas discuter d'événements récents. Anthropic a amélioré cela avec l'intégration de la recherche web, mais ce n'est toujours pas aussi fluide que les approches de certains concurrents.
Il y a aussi la question philosophique : une entreprise qui priorise la sécurité peut-elle suivre le rythme de concurrents prêts à aller plus vite et à prendre plus de risques ? Jusqu'ici, Anthropic a réussi à rester compétitif — Claude 3.5 Sonnet a égalé ou dépassé GPT-4 sur plusieurs benchmarks standards. Mais la pression est incessante, et chaque trimestre apporte de nouveaux modèles d'OpenAI, Google, Meta et de plus en plus de laboratoires chinois comme DeepSeek et l'équipe Qwen d'Alibaba.
Où se dirige Anthropic
Début 2025, Anthropic travaille sur Claude 4 et s'aventure dans l'IA agentique — des systèmes capables d'effectuer des actions, pas seulement de générer du texte. Leur capacité d'utilisation informatique, lancée fin 2024, permet à Claude de contrôler un environnement de bureau, de cliquer sur des boutons, de remplir des formulaires et de naviguer sur des sites web. C'est encore approximatif — le taux d'erreur sur les tâches complexes à plusieurs étapes est plus élevé que ce que la plupart des développeurs souhaiteraient — mais cela pointe vers un futur où les assistants IA font un vrai travail plutôt que d'en parler simplement.
L'entreprise s'est également exprimée sur la politique d'IA, publiant des politiques détaillées de mise à l'échelle responsable et plaidant pour une réglementation qu'elle estime nivellerait le terrain de jeu avec des concurrents moins soucieux de la sécurité. Reste à savoir si ce plaidoyer se traduira en politiques efficaces, mais c'est un différenciateur authentique dans une industrie qui considère souvent la réglementation comme un obstacle.
Le pari d'Anthropic est en fin de compte simple : à mesure que les systèmes d'IA deviennent plus puissants, les entreprises qui prouvent qu'on peut leur faire confiance avec ce pouvoir gagneront. C'est un pari qui n'est pas encore tranché, mais les premiers résultats sont prometteurs. Claude a gagné la confiance de développeurs et d'entreprises qui ont besoin d'une IA fiable et sûre. Et sur un marché qui croît de centaines de milliards de dollars par an, la confiance est peut-être l'actif le plus précieux de tous.