Zurück zum Blog
2024-11-10
AI Research Team
Company

Anthropic und Claude: Das Unternehmen, das darauf setzt, dass KI-Sicherheit gutes Geschäft ist

AnthropicClaudeAI Safety
Sponsored

Im Januar 2021 verließ Dario Amodei seine Position als Vizepräsident für Forschung bei OpenAI. Seine Schwester Daniela tat es ihm gleich. Sie nahmen einige der klügsten Köpfe des maschinellen Lernens mit sich — Menschen, die an GPT-3 mitgearbeitet, die am häufigsten zitierten Sicherheitspapiere des Fachgebiets mitverfasst hatten und zutiefst beunruhigt über die Richtung waren, die ihr Arbeitgeber einschlug. Das Unternehmen, das sie noch im selben Jahr gründeten, Anthropic, sollte über 7,3 Milliarden Dollar an Finanzierung aufbringen, eine Bewertung von über 60 Milliarden Dollar erreichen und eines der meistdiskutierten KI-Modelle der Welt entwickeln: Claude.

Das ist eine bemerkenswerte Entwicklung für ein Unternehmen, dessen Kernversprechen im Grunde lautet: „Wir werden das sorgfänger als alle anderen machen."

Die Wette auf Sicherheit zuerst

Die meisten KI-Unternehmen betrachten Sicherheit als Kostenfaktor — etwas, das man nachträglich an das Produkt anbaut. Anthropic drehte diese Logik um. Von Anfang an war Sicherheitsforschung keine Abteilung, sondern der Produktentwicklungsprozess selbst. Das Team entwickelte Constitutional AI, eine Trainingsmethode, die Prinzipien wie Nützlichkeit, Harmlosigkeit und Ehrlichkeit durch Selbstkritik und Revision direkt in das Verhalten des Modells einbettet.

Was unterscheidet Constitutional AI von herkömmlichem RLHF (Reinforcement Learning from Human Feedback)? Beim traditionellen RLHF ordnen menschliche Bewerter Modellausgaben, und das Modell lernt, Ausgaben zu produzieren, die höher eingestuft werden. Das funktioniert, skaliert aber schlecht — man braucht ein Heer von Bewertern, und deren Urteile bringen Inkonsistenzen mit sich. Constitutional AI ersetzt einen Großteil dieses menschlichen Feedbacks durch eine Reihe schriftlicher Prinzipien. Das Modell bewertet seine eigenen Ausgaben anhand dieser Prinzipien, überarbeitet sie, und die überarbeitete Version wird zum Trainingssignal. Das Ergebnis ist ein Modell, das stärker mit den formulierten Werten übereinstimmt und deutlich günstiger zu trainieren ist.

Ist es perfekt? Nein. Kritiker haben darauf hingewiesen, dass ein auf Selbstkritik trainiertes Modell blinde Flecken entwickeln kann, die die Vorurteile der „Verfassung" widerspiegeln. Das ist ein berechtigter Einwand. Aber der Ansatz hat sich in der Praxis bewährt, und Claude schneidet bei Sicherheitsbenchmarks wie der HELM-Evaluierungssuite konstant mit den besten KI-Modellen ab.

Claude: Eine Modellfamilie, nicht ein einzelnes Produkt

Bis März 2024 hatte Anthropic Claude 3 veröffentlicht, eine Familie aus drei Modellen mit unterschiedlichen Kompromissprofilen. Die Aufstellung verwirrte zunächst einige — warum drei Modelle herausbringen, wenn OpenAI im Grunde nur zwei hatte (GPT-4 und GPT-3.5)?

Die Antwort liegt in Preisgestaltung und Latenz. Claude 3 Opus ist das Schwergewicht, vergleichbar mit GPT-4 Turbo bei Reasoning-Benchmarks, kostet aber 15 Dollar pro Million Input-Token und 75 Dollar pro Million Output-Token. Claude 3 Sonnet liegt in der Mitte — etwa 80 Prozent der Opus-Fähigkeiten zu einem Fünftel des Preises. Und Claude 3 Haiku ist der Tempostar: Es verarbeitet Anfragen in unter einer Sekunde und kostet nur 0,25 Dollar pro Million Input-Token.

Die eigentliche Genialität dieser Aufstellung liegt darin, dass Entwickler feingranulare Kosten-Leistungsentscheidungen treffen können, ohne den Anbieter zu wechseln. Eine schnelle Klassifizierung? Haiku. Ein Rechtsgutachten, das sorgfältiges Reasoning erfordert? Opus. Die meisten Produktionsanwendungsfälle? Sonnet reicht völlig aus. Ich persönlich habe alle drei in verschiedenen Projekten eingesetzt, und die Lücke zwischen Sonnet und Opus ist für die meisten realen Anwendungen kleiner, als man erwarten würde.

Später im Jahr 2024 ging Anthropic mit Claude 3.5 Sonnet noch weiter, das den ursprünglichen Opus bei mehreren Coding-Benchmarks tatsächlich übertraf, während es den mittleren Preispunkt beibehiell. Das war ein starkes Signal, dass die Architekturforschung des Unternehmens auf unerwartete Weise Früchte trug.

Der Vorteil langer Kontexte

Eines der markantesten Merkmale von Claude ist sein Kontextfenster. Bei der Veröffentlichung von Claude 3 unterstützte es bis zu 200.000 Token Eingabe — etwa 150.000 Wörter, oder rund drei vollständige Romane. Zum Vergleich: GPT-4 Turbo bot bei der Veröffentlichung 128K Token.

Warum ist die Kontextlänge wichtig? Weil viele reale Aufgaben die Verarbeitung großer Dokumente erfordern. Die juristische Entdeckung umfasst das Lesen tausender Seiten Verträgen. Code-Review erfordert das Verständnis ganzer Repositories, nicht nur einzelner Funktionen. Akademische Forschung bedeutet die Synthese von Papern, die zusammengenommen Hunderte von Seiten umfassen.

Ich habe einmal einem Claude 3 Opus einen gesamten 180-seitigen SaaS-Vertrag gefüttert und es gebeten, jede Klausel zu identifizieren, die Haftungsrisiken für den Käufer schaffen könnte. Es fand 14 Probleme, darunter zwei, die unser Rechtsteam bei der ersten Prüfung übersehen hatte. War es so gründlich wie ein erfahrener Anwalt? Nicht ganz — es übersah eine subtile Entschädigungsnuance in Abschnitt 12.3. Aber es erledigte in 45 Sekunden, wofür ein Anwatt zwei volle Tage gebraucht hätte, und die Kosten lagen unter einem Dollar.

Der Kompromiss ist die Latenz. Die Verarbeitung von 200K Token braucht Zeit, selbst mit Anthropics optimierter Inferenz-Infrastruktur. Für Echtzeit-Chat-Anwendungen ist man in der Regel besser beraten, ein kleineres Kontextfenster zu verwenden und Prompts knapp zu halten. Aber für Stapelverarbeitung, Dokumentenanalyse und Forschungsworkflows ist der lange Kontext ein echter Gamechanger.

Die Unternehmensstrategie

Anthropics kommerzielle Strategie war deutlich anders als die von OpenAI. Während OpenAI mit ChatGPT die Verbraucherakzeptanz suchte und einen Marktplatz für GPTs aufbaute, konzentrierte sich Anthropic auf Unternehmensintegration und Entwicklertools.

Die Amazon-Partnerschaft, die im September 2023 angekündigt wurde, war entscheidend. Amazon investierte bis zu 4 Milliarden Dollar in Anthropic und machte Claude über AWS Bedrock verfügbar. Dieser Deal verschaffte Anthropic Zugang zu Amazons riesiger Unternehmenskundengrundlage — Unternehmen, die bereits ihre Infrastruktur auf AWS betrieben und KI-Funktionen hinzufügen wollten, ohne eine separate Anbieterbeziehung pflegen zu müssen.

Google folgte mit einer eigenen Investition von 2 Milliarden Dollar. Die doppelte Unterstützung durch Amazon und Google gab Anthropic etwas Seltenes im Silicon Valley: Verhandlungsmacht mit zwei der größten Cloud-Anbieter gleichzeitig, ohne vollständig von einem von beiden kontrolliert zu werden.

Auf der Entwicklerseite war Anthropics API-Preisgestaltung wettbewerbsfähig. Die Claude-API wurde zu Preisen gestartet, die GPT-4 deutlich unterboten, insbesondere bei eingabeintensiven Workloads. Kombiniert mit dem Modellfamilienansatz machte das Claude zu einer attraktiven Option für Startups und mittlere Unternehmen, die sich GPT-4s Premium-Preise nicht leisten konnten.

Die ehrlichen Einschränkungen

Es wäre unehrlich, über Anthropic zu schreiben, ohne seine Grenzen anzuerkennen. Claudes Bildverständnisfähigkeiten sind zwar solide, haben historisch aber hinter den multimodalen Funktionen von GPT-4V zurückgelegen. Das Modell kann hochgeladene Bilder analysieren, aber keine Bilder erzeugen — eine Einschränkung, die für kreative Workflows wichtig ist.

Auch Claudes Wissensstichtage waren ein Schmerzpunkt. Monatelang hatte Claudes Trainingsdaten einen harten Stichtag, der bedeutete, dass es aktuelle Ereignisse nicht besprechen konnte. Anthropic hat dies mit der Integration von Websuche verbessert, aber es ist immer noch nicht so nahtlos wie die Ansätze einiger Wettbewerber.

Es gibt auch die philosophische Frage: Kann ein Unternehmen, das Sicherheit priorisiert, mit Wettbewerbern mithalten, die bereit sind, schneller zu handeln und mehr Risiko einzugehen? Bisher hat Anthropic es geschlagen, wettbewerbsfähig zu bleiben — Claude 3.5 Sonnet hat GPT-4 bei mehreren Standard-Benchmarks erreicht oder übertroffen. Aber der Druck ist unerbittlich, und jedes Quartal bringt neue Modelle von OpenAI, Google, Meta und zunehmend von chinesischen Labors wie DeepSeek und Alibabas Qwen-Team.

Wohin Anthropic sich bewegt

Anfang 2025 arbeitet Anthropic an Claude 4 und dringt in den Bereich Agenten-KI vor — Systeme, die Aktionen ausführen können, nicht nur Text generieren. Ihre Computer-Use-Fähigkeit, Ende 2024 veröffentlicht, lässt Claude eine Desktop-Umgebung steuern, Schaltflächen klicken, Formulare ausfüllen und Websites navigieren. Es ist noch holprig — die Fehlerrate bei komplexen mehrstufigen Aufgaben ist höher, als die meisten Entwickler es sich wünschen würden —, aber es deutet auf eine Zukunft hin, in der KI-Assistenten echte Arbeit erledigen, nicht nur darüber reden.

Das Unternehmen hat sich auch in der KI-Politik deutlich positioniert, veröffentlicht detaillierte Richtlinien für verantwortungsvolles Skalieren und setzt sich für Regulierungen ein, die es mit weniger sicherheitsbewussten Wettbewerbern fair aufnehmen ließen. Ob sich dieses Engagement in wirksame Politik umsetzen lässt, bleibt abzuwarten, aber es ist ein echtes Unterscheidungsmerkmal in einer Branche, die Regulierung oft als Hindernis betrachtet.

Anthropics Wette ist letztlich einfach: dass Unternehmen, die nachweisen können, mit dieser Macht vertrauenswürdig umzugehen, gewinnen werden, wenn KI-Systeme leistungsfähiger werden. Es ist eine Wette, die noch nicht entschieden ist, aber die frühen Renditen sind vielversprechend. Claude hat das Vertrauen von Entwicklern und Unternehmen gewonnen, die zuverlässige, sichere KI brauchen. Und in einem Markt, der jährlich um Hunderte von Milliarden Dollar wächst, ist Vertrauen vielleicht das wertvollste Gut von allen.

Sponsored