Volver al Blog
2024-11-10
AI Research Team
Company

Anthropic y Claude: La empresa que apuesta a que la seguridad en IA es un buen negocio

AnthropicClaudeAI Safety
Sponsored

En enero de 2021, Dario Amodei dejó su puesto como vicepresidente de investigación en OpenAI. Su hermana Daniela le siguió. Se llevaron consigo a algunas de las mentes más brillantes del aprendizaje automático — personas que habían ayudado a construir GPT-3, coautorado algunos de los artículos sobre seguridad más citados del campo, y que estaban profundamente incómodos con la dirección que estaba tomando su empleador. La empresa que fundaron ese mismo año, Anthropic, recaudaría más de 7.300 millones de dólares en financiación, alcanzaría una valoración superior a los 60.000 millones y construiría uno de los modelos de IA más comentados del mundo: Claude.

Es una trayectoria notable para una empresa cuyo argumento central es esencialmente "vamos a hacer esto con más cuidado que los demás."

La apuesta por la seguridad primero

La mayoría de las empresas de IA tratan la seguridad como un centro de costes — algo que se añade después de construir el producto. Anthropic invirtió esa lógica. Desde el principio, la investigación en seguridad no era un departamento; era el propio proceso de desarrollo del producto. El equipo desarrolló Constitutional AI, una metodología de entrenamiento que incorpora principios como la utilidad, la inofensividad y la honestidad directamente en el comportamiento del modelo a través de un proceso de autocrítica y revisión.

¿Qué diferencia a Constitutional AI del RLHF estándar (Reinforcement Learning from Human Feedback)? En el RLHF tradicional, etiquetadores humanos clasifican las salidas del modelo, y este aprende a producir salidas que obtienen clasificaciones más altas. Funciona, pero escala mal — necesitas un ejército de etiquetadores, y sus juicios introducen inconsistencias. Constitutional AI reemplaza gran parte de ese feedback humano con un conjunto de principios escritos. El modelo evalúa sus propias salidas contra esos principios, las revisa, y la versión revisada se convierte en la señal de entrenamiento. El resultado es un modelo más alineado con los valores declarados y significativamente más barato de entrenar.

¿Es perfecto? No. Los críticos han señalado que un modelo entrenado con autocrítica puede desarrollar puntos ciegos que reflejan los sesgos de la "constitución" que escribas. Es una preocupación legítima. Pero el enfoque ha funcionado bien en la práctica, y Claude se clasifica consistentemente entre los mejores modelos de IA en benchmarks de seguridad como la suite de evaluación HELM.

Claude: Una familia de modelos, no un solo producto

En marzo de 2024, Anthropic había lanzado Claude 3, una familia de tres modelos con perfiles de compromiso genuinamente diferentes. La gama confundió a algunos al principio — ¿por qué lanzar tres modelos cuando OpenAI tenía esencialmente dos (GPT-4 y GPT-3.5)?

La respuesta está en el precio y la latencia. Claude 3 Opus es el peso pesado, comparable a GPT-4 Turbo en benchmarks de razonamiento, pero cuesta 15 dólares por millón de tokens de entrada y 75 dólares por millón de tokens de salida. Claude 3 Sonnet está en el medio — aproximadamente el 80% de la capacidad de Opus a una quinta parte del coste. Y Claude 3 Haiku es el velocista: procesa consultas en menos de un segundo y cuesta solo 0,25 dólares por millón de tokens de entrada.

La verdadera genialidad de esta gama es que permite a los desarrolladores tomar decisiones granulares de coste-rendimiento sin cambiar de proveedor. ¿Una tarea de clasificación rápida? Haiku. ¿Un informe legal que requiere razonamiento cuidadoso? Opus. ¿La mayoría de los casos de uso en producción? Sonnet los maneja perfectamente. He usado personalmente los tres en diferentes proyectos, y la brecha entre Sonnet y Opus es más estrecha de lo que esperarías para la mayoría de las aplicaciones del mundo real.

Más adelante en 2024, Anthropic fue más allá con Claude 3.5 Sonnet, que realmente superó al Opus original en varios benchmarks de programación mientras mantenía el punto de precio intermedio. Fue una señal clara de que la investigación de arquitectura de la empresa estaba dando frutos de maneras inesperadas.

La ventaja del contexto largo

Una de las características más distintivas de Claude es su ventana de contexto. Cuando se lanzó Claude 3, admitía hasta 200.000 tokens de entrada — aproximadamente 150.000 palabras, o unas tres novelas completas. En comparación, GPT-4 Turbo ofrecía 128K tokens en su lanzamiento.

¿Por qué importa la longitud del contexto? Porque muchas tareas del mundo real implican procesar grandes documentos. El descubrimiento legal implica leer miles de páginas de contratos. La revisión de código requiere entender repositorios enteros, no solo funciones individuales. La investigación académica significa sintetizar artículos que en conjunto suman cientos de páginas.

Una vez alimenté a Claude 3 Opus con un contrato SaaS completo de 180 páginas y le pedí que identificara cada cláusula que pudiera crear exposición a responsabilidad para el comprador. Encontró 14 problemas, incluyendo dos que nuestro equipo legal había pasado por alto en su primera revisión. ¿Fue tan exhaustivo como un abogado senior? No del todo — pasó por alto una sutileza de indemnización en la Sección 12.3. Pero hizo en 45 segundos lo que habría llevado a un abogado dos días completos, y el coste fue inferior a un dólar.

La compensación es la latencia. Procesar 200K tokens lleva tiempo, incluso con la pila de inferencia optimizada de Anthropic. Para aplicaciones de chat en tiempo real, generalmente es mejor usar una ventana de contexto más pequeña y mantener los prompts concisos. Pero para procesamiento por lotes, análisis de documentos y flujos de investigación, el contexto largo es un cambio de juego genuino.

La estrategia empresarial

La estrategia comercial de Anthropic ha sido notablemente diferente de la de OpenAI. Mientras OpenAI perseguía la adopción del consumidor con ChatGPT y construía un marketplace para GPTs, Anthropic se centró en la integración empresarial y las herramientas para desarrolladores.

La asociación con Amazon, anunciada en septiembre de 2023, fue crucial. Amazon invirtió hasta 4.000 millones de dólares en Anthropic y puso Claude disponible a través de AWS Bedrock. Ese acuerdo dio a Anthropic acceso a la enorme base de clientes empresariales de Amazon — empresas que ya ejecutaban su infraestructura en AWS y querían añadir capacidades de IA sin gestionar una relación con un proveedor separado.

Google siguió con su propia inversión de 2.000 millones. El doble respaldo de Amazon y Google le dio a Anthropic algo raro en Silicon Valley: influencia con dos de los mayores proveedores de nube simultáneamente, sin ser propiedad completa de ninguno de ellos.

En el lado del desarrollador, los precios de la API de Anthropic han sido competitivos. La API de Claude se lanzó a precios que superaban significativamente a GPT-4, particularmente para cargas de trabajo intensivas en entrada. Combinado con el enfoque de familia de modelos, esto hizo de Claude una opción atractiva para startups y empresas medianas que no podían permitirse los precios premium de GPT-4.

Las limitaciones honestas

Sería deshonesto escribir sobre Anthropic sin reconocer sus limitaciones. Las capacidades de comprensión de imágenes de Claude, aunque sólidas, han estado históricamente por detrás de las funciones multimodales de GPT-4V. El modelo puede analizar imágenes que subas, pero no puede generar imágenes — una limitación que importa para los flujos de trabajo creativos.

Las fechas de corte de conocimiento de Claude también han sido un punto doloroso. Durante meses, los datos de entrenamiento de Claude tenían un corte duro que significaba que no podía discutir eventos recientes. Anthropic ha mejorado esto con la integración de búsqueda web, pero sigue sin ser tan fluido como los enfoques de algunos competidores.

También está la pregunta filosófica: ¿puede una empresa que prioriza la seguridad mantener el ritmo con competidores dispuestos a moverse más rápido y asumir más riesgo? Hasta ahora, Anthropic ha logrado mantenerse competitivo — Claude 3.5 Sonnet igualó o superó a GPT-4 en varios benchmarks estándar. Pero la presión es implacable, y cada trimestre trae nuevos modelos de OpenAI, Google, Meta y cada vez más de laboratorios chinos como DeepSeek y el equipo Qwen de Alibaba.

Hacia dónde se dirige Anthropic

A principios de 2025, Anthropic está trabajando en Claude 4 y adentrándose en la IA agente — sistemas que pueden realizar acciones, no solo generar texto. Su capacidad de uso del ordenador, lanzada a finales de 2024, permite a Claude controlar un entorno de escritorio, hacer clic en botones, rellenar formularios y navegar por sitios web. Todavía es tosco — la tasa de error en tareas complejas de múltiples pasos es más alta de lo que la mayoría de los desarrolladores desearían — pero apunta hacia un futuro en el que los asistentes de IA hacen trabajo real en lugar de solo hablar de él.

La empresa también ha sido vocal sobre la política de IA, publicando políticas detalladas de escalado responsable y abogando por regulaciones que creen que nivelarían el campo de juego con competidores menos conscientes de la seguridad. Queda por ver si esa defensa se traduce en políticas efectivas, pero es un diferenciador genuino en una industria que a menudo trata la regulación como un obstáculo.

La apuesta de Anthropic es en última instancia simple: que a medida que los sistemas de IA se vuelvan más poderosos, las empresas que demuestren que pueden ser confiables con ese poder ganarán. Es una apuesta que aún no se ha resuelto, pero los primeros resultados son prometedores. Claude ha ganado la confianza de desarrolladores y empresas que necesitan IA confiable y segura. Y en un mercado que crece en cientos de miles de millones de dólares anuales, la confianza puede ser el activo más valioso de todos.

Sponsored