Anthropic и Claude: компания, ставящая на то, что безопасность ИИ — это прибыльно
В январе 2021 года Дарио Амодеи покинул пост вице-президента по исследованиям в OpenAI. Его сестра Даниэла последовала его примеру. Они ушли не одни — с ними отправились одни из лучших умов в области машинного обучения: люди, которые помогали создавать GPT-3, были соавторами наиболее цитируемых в отрасли работ по безопасности и глубоко беспокоились о направлении, в котором двигался их работодатель. Компания, основанная ими в том же году, Anthropic, в итоге привлекла более 7,3 миллиарда долларов финансирования, достигла оценки свыше 60 миллиардов долларов и создала одну из самых обсуждаемых моделей ИИ в мире — Claude.
Поразительная траектория для компании, ключевой посыл которой по сути звучит так: «Мы будем делать это осторожнее, чем все остальные».
Ставка на безопасность прежде всего
Большинство ИИ-компаний рассматривают безопасность как центр затрат — нечто, что добавляется к продукту после его создания. Anthropic перевернула эту логику. С самого начала исследования в области безопасности были не отделом, а самим процессом разработки продукта. Команда разработала Constitutional AI — методологию обучения, которая встраивает принципы полезности, безвредности и честности прямо в поведение модели через процесс самокритики и переработки.
Чем Constitutional AI отличается от стандартного RLHF (обучение с подкреплением от обратной связи человека)? В традиционном RLHF люди-разметчики ранжируют выходы модели, и модель учится производить выходы, которые получают более высокие оценки. Это работает, но плохо масштабируется — нужна армия разметчиков, а их суждения вносят несогласованность. Constitutional AI заменяет значительную часть этого человеческого обратного связи набором письменных принципов. Модель оценивает свои собственные выходы по этим принципам, перерабатывает их, и переработанная версия становится обучающим сигналом. Результат — модель, более соответствующая заявленным ценностям и значительно дешевле в обучении.
Идеален ли он? Нет. Критики указывали, что модель, обученная на самокритике, может развить слепые зоны, отражающие предубеждения в написанной «конституции». Это обоснованное опасение. Но подход хорошо себя зарекомендовал на практике, и Claude неизменно входит в число лучших моделей ИИ по бенчмаркам безопасности, таким как оценочный пакет HELM.
Claude: семейство моделей, а не один продукт
К марту 2024 года Anthropic выпустила Claude 3 — семейство из трёх моделей с принципиально разными профилями компромиссов. Линейка поначалу сбивала с толку: зачем выпускать три модели, когда у OpenAI фактически две (GPT-4 и GPT-3.5)?
Ответ — в ценообразовании и задержках. Claude 3 Opus — тяжеловес, сопоставимый с GPT-4 Turbo по бенчмаркам рассуждений, но стоит 15 долларов за миллион входных токенов и 75 долларов за миллион выходных. Claude 3 Sonnet — среднее звено: примерно 80% возможностей Opus при пятой части стоимости. Claude 3 Haiku — спринтер: обрабатывает запросы менее чем за секунду и стоит всего 0,25 доллара за миллион входных токенов.
Настоящий гений этой линейки в том, что разработчики могут принимать тонкие решения о соотношении цена-производительность, не меняя провайдера. Быстрая классификация? Haiku. Юридический меморандум, требующий тщательных рассуждений? Opus. Большинство продакшн-сценариев? Sonnet справляется отлично. Я лично использовал все три в разных проектах, и разрыв между Sonnet и Opus для большинства реальных приложений оказывается уже, чем ожидалось.
Позже в 2024 году Anthropic пошла дальше с Claude 3.5 Sonnet, который реально превзошёл первоначальный Opus по нескольким бенчмаркам программирования, сохранив при этом средний ценовой уровень. Это был сильный сигнал о том, что архитектурные исследования компании приносят неожиданные плоды.
Преимущество длинного контекста
Одна из наиболее характерных черт Claude — его контекстное окно. При запуске Claude 3 поддерживал до 200 000 входных токенов — примерно 150 000 слов, или около трёх полноценных романов. Для сравнения, GPT-4 Turbo при запуске предлагал 128K токенов.
Почему важна длина контекста? Потому что многие реальные задачи требуют обработки больших документов. Юридическое обнаружение — это чтение тысяч страниц контрактов. Ревью кода требует понимания целых репозиториев, а не только отдельных функций. Академические исследования — это синтез статей, которые в совокупности насчитывают сотни страниц.
Я однажды загрузил в Claude 3 Opus полный 180-страничный SaaS-контракт и попросил выявить каждый пункт, способный создать ответственность для покупателя. Модель нашла 14 проблем, включая две, которые наш юридический команд пропустил при первой проверке. Был ли он столь же дотошен, как старший юрист? Не совсем — он пропустил тонкий нюанс возмещения убытков в разделе 12.3. Но он сделал за 45 секунд то, что заняло бы у юриста два полных дня, а стоимость составила менее доллара.
Компромисс — в задержках. Обработка 200K токенов занимает время, даже с оптимизированным инференс-стеком Anthropic. Для приложений чата в реальном времени обычно лучше использовать меньшее контекстное окно и держать промпты лаконичными. Но для пакетной обработки, анализа документов и исследовательских рабочих процессов длинный контекст — настоящий прорыв.
Корпоративная стратегия
Коммерческая стратегия Anthropic заметно отличалась от стратегии OpenAI. В то время как OpenAI гналась за потребительским признанием через ChatGPT и строила маркетплейс для GPT, Anthropic сосредоточилась на корпоративной интеграции и инструментах для разработчиков.
Партнёрство с Amazon, объявленное в сентябре 2023 года, стало поворотным моментом. Amazon инвестировал до 4 миллиардов долларов в Anthropic и сделал Claude доступным через AWS Bedrock. Эта сделка дала Anthropic доступ к огромной базе корпоративных клиентов Amazon — компаний, которые уже работали на AWS и хотели добавить ИИ-возможности без отдельных отношений с поставщиком.
Google последовал с собственной инвестицией в 2 миллиарда долларов. Двойная поддержка от Amazon и Google дала Anthropic редкое для Кремниевой долины преимущество: рычаги влияния у двух крупнейших облачных провайдеров одновременно, без полного подчинения ни одному из них.
На стороне разработчиков ценообразование API Anthropic было конкурентоспособным. Claude API был запущен по ценам, значительно уступающим GPT-4, особенно для нагрузок с высокой интенсивностью ввода. В сочетании с подходом семейства моделей это сделало Claude привлекательным вариантом для стартапов и средних компаний, которые не могли позволить себе премиальные цены GPT-4.
Честные ограничения
Было бы нечестно писать об Anthropic, не признавая её ограничений. Возможности понимания изображений у Claude, хотя и солидные, исторически отставали от мультимодальных функций GPT-4V. Модель может анализировать загруженные изображения, но не может генерировать новые — ограничение, важное для творческих рабочих процессов.
Даты отсечки знаний Claude тоже были болевой точкой. Месяцами обучающие данные Claude имели жёсткую отсечку, из-за которой модель не могла обсуждать недавние события. Anthropic улучшила ситуацию интеграцией веб-поиска, но до безшовности конкурентов ещё далеко.
Есть и философский вопрос: может ли компания, ставящая безопасность во главу угла, угнаться за конкурентами, готовыми двигаться быстрее и принимать большие риски? На данный момент Anthropic удерживает конкурентоспособность — Claude 3.5 Sonnet сравнялся или превзошёл GPT-4 по нескольким стандартным бенчмаркам. Но давление неослабное, и каждый квартал приносит новые модели от OpenAI, Google, Meta и всё чаще от китайских лабораторий вроде DeepSeek и команды Qwen от Alibaba.
Куда движется Anthropic
На начало 2025 года Anthropic работает над Claude 4 и входит в область агентного ИИ — систем, способных выполнять действия, а не только генерировать текст. Их возможность использования компьютера, выпущенная в конце 2024 года, позволяет Claude управлять рабочим столом, нажимать кнопки, заполнять формы и перемещаться по веб-сайтам. Это пока сыро — процент ошибок на сложных многошаговых задачах выше, чем хотелось бы большинству разработчиков — но указывает на будущее, в котором ИИ-ассистенты выполняют реальную работу, а не просто говорят о ней.
Компания также активно высказывается по вопросам ИИ-политики, публикуя детальные политики ответственного масштабирования и выступая за регулирование, которое, по их мнению, уравняло бы правила игры с менее ответственными в вопросах безопасности конкурентами. Перейдёт ли эта адвокация в эффективную политику — покажет время, но это настоящий дифференциатор в индустрии, которая часто воспринимает регулирование как препятствие.
Ставка Anthropic в конечном счёте проста: по мере того как ИИ-системы становятся мощнее, побеждать будут те компании, которые докажут, что им можно доверять эту мощь. Ставка ещё не сыграна, но первые результаты обнадёживают. Claude завоевал доверие разработчиков и компаний, которым нужен надёжный и безопасный ИИ. А на рынке, который растёт на сотни миллиардов долларов ежегодно, доверие — пожалуй, самый ценный актив из всех.