“La IA es peligrosa”, advirtió ex líder de seguridad de Anthropic tras renunciar
Planteó preocupaciones sobre el avance tecnológico y la sabiduría colectiva. Su carta invita a reflexionar sobre la ética en la inteligencia artificial.
11/02/2026 | 15:15Redacción Cadena 3
Mrinank Sharma, quien hasta el 9 de febrero dirigió el equipo de investigación en salvaguardas (Safeguards Research Team) de Anthropic, la empresa desarrolladora del modelo Claude, presentó su renuncia tras dos años en la compañía. En una carta pública compartida en su cuenta de X, que rápidamente acumuló millones de visualizaciones, Sharma expresó profundas preocupaciones sobre el rumbo actual de la humanidad.
“El mundo está en peligro. Y no solo por la inteligencia artificial o las armas biológicas, sino por una serie de crisis interconectadas que se desarrollan en este mismo momento”, escribió el investigador. Según él, nos acercamos a un umbral crítico donde el poder tecnológico crece más rápido que la sabiduría colectiva, lo que podría tener consecuencias graves si no se equilibra.
/Inicio Código Embebido/
Today is my last day at Anthropic. I resigned.
— mrinank (@MrinankSharma) February 9, 2026
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
/Fin Código Embebido/
Sharma, doctorado en Machine Learning por la Universidad de Oxford y con experiencia previa en Cambridge, llegó a San Francisco en 2023 con el objetivo de contribuir a la seguridad de la IA. Durante su etapa en Anthropic destacó por avances concretos: analizó las causas de la “adulación” o sycophancy en los modelos de IA, desarrolló y desplegó defensas contra riesgos de bioterrorismo asistido por IA, contribuyó a uno de los primeros “casos de seguridad” en el campo y trabajó en mecanismos de transparencia interna. Su proyecto final exploraba cómo los asistentes de IA podrían “distorsionar nuestra humanidad” o hacernos menos autónomos.
A pesar de reconocer aspectos positivos de la cultura de Anthropic (como la determinación, la brillantez intelectual y la amabilidad), Sharma señaló las dificultades para alinear valores personales con las decisiones diarias. “He visto repetidamente lo difícil que es dejar que nuestros valores rijan nuestras acciones”, afirmó, mencionando presiones internas y externas para priorizar lo inmediato sobre lo esencial.
La carta, de tono reflexivo y poético (con referencias a autores como Rilke, David Whyte, Mary Oliver y William Stafford), no acusa directamente a la empresa, pero insinúa tensiones entre la misión de seguridad y las dinámicas del sector tecnológico. Sharma optó por dejar el cargo para preservar su integridad y explorar preguntas más profundas sobre la existencia humana.
Regresará al Reino Unido, donde planea estudiar poesía, escribir, facilitar comunidades y practicar lo que llama “habla valiente”. “Quiero contribuir de una manera que sienta plenamente alineada con mi integridad y que me permita expresar mis particularidades”, explicó. Admite no saber exactamente qué vendrá después, pero busca “crear un espacio” para ver qué emerge al soltar estructuras previas.
Esta salida se suma a otras renuncias recientes en Anthropic y revive el debate sobre ética y seguridad en la IA. La compañía, fundada por exmiembros de OpenAI, se ha posicionado como líder en enfoques responsables —con mecanismos contra riesgos como el bioterrorismo y la pérdida de control humano—. Su CEO, Dario Amodei, ha advertido públicamente sobre los peligros de avanzar sin marcos éticos sólidos.
Aunque la IA continúa transformando positivamente áreas como la salud, la educación y la ciencia, episodios como este resaltan la urgencia de marcos regulatorios y supervisión comunitaria. Especialistas coinciden en que, con salvaguardas adecuadas, estas tecnologías pueden resolver problemas globales, pero el equilibrio entre poder y responsabilidad sigue siendo el gran desafío.
La renuncia de Sharma no solo visibiliza dilemas internos del sector, sino que invita a una reflexión más amplia sobre cómo la humanidad debe cultivar sabiduría ante un avance tecnológico acelerado.
Lectura rápida
¿Quién renunció y a qué empresa pertenecía?
Mrinank Sharma renunció a Anthropic donde dirigía el equipo de investigación en salvaguardas.
¿Cuándo presentó su renuncia?
El 9 de febrero.
¿Cuáles fueron sus preocupaciones principales?
Sharma expresó que el mundo está en peligro por crisis interconectadas y el crecimiento del poder tecnológico sin sabiduría colectiva.
¿A dónde planea regresar?
Regresará al Reino Unido para estudiar poesía y explorar su integridad personal.
¿Cuál es el contexto de su renuncia?
Su salida se suma a otras renuncias en Anthropic y reaviva el debate sobre ética y seguridad en la IA.





