AI Safety

Anthropic publica la nueva constitución de Claude: principios actualizados para 2026

El 22 de enero, Anthropic publicó la nueva constitución que guía el comportamiento de Claude. Este documento define los principios éticos, de seguridad y de utilidad que el modelo sigue en sus interacciones, representando la visión actualizada de Anthropic sobre IA segura y beneficial.

La constitución de Claude es única en la industria: mientras otros laboratorios usan RLHF tradicional, Anthropic emplea 'Constitutional AI' (CAI), donde el modelo se entrena para seguir un conjunto explícito de principios en lugar de solo optimizar para satisfacción del usuario.

Los principios actualizados reflejan aprendizajes del último año de despliegue a escala, incluyendo mejor manejo de solicitudes ambiguas, mayor transparencia sobre limitaciones, y directrices refinadas para casos edge.

La publicación coincide con el primer aniversario del lanzamiento de DeepSeek R1, que demostró que modelos capaces pueden desarrollarse con fracciones del coste previsto, intensificando el debate sobre seguridad en IA.

Anthropic mantiene su posición de liderazgo en AI Safety, diferenciándose de competidores que priorizan capacidades sobre alineamiento.

Ver fuente original →
Anthropic publica la nueva constitución de Claude: principios actualizados para 2026 | Creamos Talento | Creamos Talento