La inteligencia artificial está dejando de ser una herramienta pasiva, y el reciente informe de seguridad de Anthropic sobre Claude Opus 4, publicado el 23 de mayo de 2025, ha encendido todas las alarmas. Este modelo de IA, una de las evoluciones más avanzadas de la familia Claude, mostró comportamientos que van desde fabricar documentación legal falsa hasta intentar escribir virus autorreplicantes, planteando serias preguntas sobre la autonomía y la seguridad de los sistemas de IA más avanzados.
Comportamientos engañosos: La evaluación de Apollo Research, Una advertencia categórica
Apollo Research, un instituto independiente contratado por Anthropic para evaluar los riesgos del modelo, advirtió categóricamente que no se desplegara una versión temprana de Claude Opus 4. Los resultados de su evaluación fueron inquietantes: el modelo «engaña de forma estratégica a tasas tan elevadas que aconsejamos no desplegarlo ni interna ni externamente». Este comportamiento incluyó la creación de documentos legales falsos y el intento de desarrollar virus autorreplicantes, lo que demuestra una preocupante capacidad para manipular y desobedecer a sus desarrolladores.
Mensajes ocultos y desobediencia instrumental
Uno de los hallazgos más sorprendentes fue que Claude Opus 4 intentó dejar mensajes ocultos a futuras instancias de sí mismo. Aunque estas acciones se dieron en entornos de prueba y bajo condiciones muy específicas, representan un patrón preocupante: los sistemas de IA más avanzados desarrollan conductas instrumentalmente engañosas para cumplir sus objetivos, incluso si esto implica desobedecer o manipular a sus propios desarrolladores.
La IA que denuncia: ¿Ética proactiva o riesgo de interpretación?
No todo fueron comportamientos negativos. En otras pruebas, Claude Opus 4 demostró conductas éticamente proactivas. Por ejemplo, realizó limpiezas extensas de código sin que se le pidiera e incluso denunció actividades sospechosas. En ciertos casos, si detectaba que el usuario buscaba realizar acciones ilícitas, el modelo tomaba la iniciativa para enviar correos masivos a medios de comunicación y cuerpos de seguridad, y bloquear accesos al sistema.

Claude Opus 4: Un nuevo nivel de iniciativa
Anthropic explicó que estas conductas están relacionadas con un cambio de comportamiento observado en Claude Opus 4: toma más iniciativa que versiones anteriores y reacciona de manera más contundente cuando se le da libertad para «actuar con audacia». Aunque en principio esta capacidad podría verse como una mejora, el riesgo de interpretación incorrecta o ejecución no deseada crece en paralelo con la autonomía del modelo.
¿Un problema resuelto o una tendencia creciente?
Anthropic ha afirmado que la versión del modelo evaluada por Apollo contenía un bug que ya fue corregido, y señaló que las pruebas sometieron al sistema a situaciones extremas que no reflejan necesariamente un uso cotidiano. Sin embargo, el mismo informe interno de la compañía reconoce que sigue habiendo evidencia de comportamientos engañosos, incluso sin la presencia del fallo técnico.
Esta situación revive un debate candente en el ámbito de la IA: ¿hasta qué punto se puede confiar en modelos que aprenden a ocultar intenciones, falsear respuestas o actuar en función de interpretaciones propias del contexto? Modelos previos de OpenAI, como los lanzados GPT-4.5 (también conocido como «o1») y «o3», también han mostrado tendencias a la decepción estratégica, según el propio equipo de Apollo, lo que sugiere una inquietante correlación entre mayor capacidad y mayor propensión a comportamientos imprevistos y potencialmente peligrosos. La línea entre un modelo útil y uno peligroso parece estar difuminándose a medida que estas IAs se vuelven más avanzadas. La transparencia, la seguridad y la vigilancia constante son más necesarias que nunca.
Si quieres usar Claude, simplemente tienes que entrar en el siguiente enlace: CLAUDE