Un investigador clave de seguridad de inteligencia artificial abandona la compañía Anthropic con una advertencia sobre riesgo para la humanidad, y se retira para escribir poesía
La seguridad en inteligencia artificial, IA por sus siglas, nació como un campo académico que advertía sobre riesgos de sistemas cada vez más capaces. A su alrededor han crecido debates encendidos, desde la biotecnología hasta la manipulación de información. En los últimos años, varias voces han señalado el choque entre investigación responsable y la presión por lanzar productos. Ese telón de fondo ayuda a entender la carta de despedida de Mrinank Sharma, que hasta ahora lideraba el equipo de «safeguards» en Anthropic, la compañía detrás del modelo de IA Claude, y que decidió marcharse «para trabajar en algo que esté alineado con mi integridad».
Sharma anunció su salida el lunes 9 de febrero de 2026 con un texto enviado a sus compañeros. En él recorre lo que aprendió y lo que le inquieta del rumbo de la IA. Abre con una despedida sobria, “He decidido dejar Anthropic. Mi último día será el 9 de febrero”, agradece “la amabilidad que impregna nuestra cultura” y afirma: “Logré todo lo que quería aquí”. Cita entre sus proyectos “desarrollar defensas para reducir los riesgos del bioterrorismo asistido por IA” y “escribir uno de los primeros ‘casos de seguridad’ en IA”.
En la carta aparece el conflicto que, según él, atraviesa a las grandes tecnológicas. “Durante mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen nuestras acciones”, escribe. Añade que esa tensión existe “en mí, en la organización, donde afrontamos presiones constantes para dejar de lado lo que más importa, y también en la sociedad”. El tono vira de lo corporativo a lo filosófico. “El mundo está en peligro”. No solo por la IA o las armas biológicas, dice, sino por “una serie de crisis interconectadas que se están desplegando ahora mismo.” Y añade: “Parece que nos acercamos a un umbral en el que nuestra sabiduría debe crecer en la misma medida que nuestra capacidad para afectar al mundo, si no queremos afrontar las consecuencias”.
La seguridad de inteligencia artificial y el mundo en peligro
El investigador explica que quiere contribuir de otra forma. Habla de “trabajo alineado con mi integridad,” de “las preguntas que no tienen derecho a desaparecer,” y de poner “la verdad poética junto a la verdad científica como vías de conocimiento igualmente válidas”. Anuncia su intención de estudiar poesía y dedicarse a “la práctica del discurso valiente”. Para cerrar, comparte un poema de William Stafford, “The Way It Is”, como recordatorio de un hilo que uno no debe soltar.
La misiva llega tras varias salidas públicas de la empresa. El propio artículo menciona a Harsh Mehta y a Behnam Neyshabur, que comunicaron en X su marcha para “empezar algo nuevo,” y a Dylan Scandinaro, que pasó a OpenAI como responsable de «preparedness», un área que evalúa escenarios de riesgo. El contexto corporativo tampoco se detiene, con nuevos fichajes, como un CTO de procedencia tecnológica, y con lanzamientos de producto, como Claude Opus 4.6, orientado a productividad y código con una ventana de contexto mayor. El contraste entre la rotación de talento y el acelerón comercial refuerza el subtexto de la carta: la velocidad de la industria aprieta, y los valores se dejan de lado.
Desde un punto de vista divulgativo, conviene desmenuzar algunas expresiones. Cuando Sharma habla de bioterrorismo asistido por IA, se refiere a modelos capaces de ayudar a diseñar o optimizar agentes biológicos, algo que preocupa a reguladores porque baja el listón de conocimientos necesarios. Las “defensas” incluyen filtros de contenidos, pruebas de «red teaming» y controles de uso. Los “casos de seguridad” son documentos que reúnen evidencias, supuestos y mitigaciones, similares a los «safety cases» de la aviación, con el objetivo de argumentar que un sistema puede operar con riesgos aceptables. Su carta no entra en detalles técnicos, pero sí señala la grieta entre declararlo y aplicarlo cuando aparece la presión por crecer.
El guiño a la poesía no es un capricho estético. En campos que combinan incertidumbre técnica y dilemas morales, la literatura se ha usado para explorar límites del lenguaje y del juicio, una forma de escapar del “todo cuantificable”. Sharma sugiere que esa sensibilidad puede acompañar a la ingeniería, no sustituirla, para abordar tecnologías que ya influyen en salud, economía y seguridad.
REFERENCIA
Read an Anthropic AI safety lead’s exit letter: ‘The world is in peril’