En vivo

Viva la Radio

Raúl y Geo

Argentina

En vivo

Viva la Radio

Lucas Correa

Rosario

En vivo

Fire Time Recargado

Ushuaia

En vivo

Horario corrido

Flavia Dellamaggiore

En vivo

Los Populares

Colorete Gianola

En vivo

Lista manija

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Sociedad

“La IA es peligrosa”, advirtió ex líder de seguridad de Anthropic tras renunciar

Planteó preocupaciones sobre el avance tecnológico y la sabiduría colectiva. Su carta invita a reflexionar sobre la ética en la inteligencia artificial. 

11/02/2026 | 15:15Redacción Cadena 3

Perspectiva Nacional

“La IA es peligrosa”, advirtió ex líder de seguridad de Anthropic tras renunciar

FOTO: “La IA es peligrosa”, advirtió ex líder de seguridad de Anthropic tras renunciar

Mrinank Sharma, quien hasta el 9 de febrero dirigió el equipo de investigación en salvaguardas (Safeguards Research Team) de Anthropic, la empresa desarrolladora del modelo Claude, presentó su renuncia tras dos años en la compañía. En una carta pública compartida en su cuenta de X, que rápidamente acumuló millones de visualizaciones, Sharma expresó profundas preocupaciones sobre el rumbo actual de la humanidad.

“El mundo está en peligro. Y no solo por la inteligencia artificial o las armas biológicas, sino por una serie de crisis interconectadas que se desarrollan en este mismo momento”, escribió el investigador. Según él, nos acercamos a un umbral crítico donde el poder tecnológico crece más rápido que la sabiduría colectiva, lo que podría tener consecuencias graves si no se equilibra. 

/Inicio Código Embebido/

/Fin Código Embebido/

Sharma, doctorado en Machine Learning por la Universidad de Oxford y con experiencia previa en Cambridge, llegó a San Francisco en 2023 con el objetivo de contribuir a la seguridad de la IA. Durante su etapa en Anthropic destacó por avances concretos: analizó las causas de la “adulación” o sycophancy en los modelos de IA, desarrolló y desplegó defensas contra riesgos de bioterrorismo asistido por IA, contribuyó a uno de los primeros “casos de seguridad” en el campo y trabajó en mecanismos de transparencia interna. Su proyecto final exploraba cómo los asistentes de IA podrían “distorsionar nuestra humanidad” o hacernos menos autónomos.

A pesar de reconocer aspectos positivos de la cultura de Anthropic (como la determinación, la brillantez intelectual y la amabilidad), Sharma señaló las dificultades para alinear valores personales con las decisiones diarias. “He visto repetidamente lo difícil que es dejar que nuestros valores rijan nuestras acciones”, afirmó, mencionando presiones internas y externas para priorizar lo inmediato sobre lo esencial.

La carta, de tono reflexivo y poético (con referencias a autores como Rilke, David Whyte, Mary Oliver y William Stafford), no acusa directamente a la empresa, pero insinúa tensiones entre la misión de seguridad y las dinámicas del sector tecnológico. Sharma optó por dejar el cargo para preservar su integridad y explorar preguntas más profundas sobre la existencia humana.

Regresará al Reino Unido, donde planea estudiar poesía, escribir, facilitar comunidades y practicar lo que llama “habla valiente”. “Quiero contribuir de una manera que sienta plenamente alineada con mi integridad y que me permita expresar mis particularidades”, explicó. Admite no saber exactamente qué vendrá después, pero busca “crear un espacio” para ver qué emerge al soltar estructuras previas.

Esta salida se suma a otras renuncias recientes en Anthropic y revive el debate sobre ética y seguridad en la IA. La compañía, fundada por exmiembros de OpenAI, se ha posicionado como líder en enfoques responsables —con mecanismos contra riesgos como el bioterrorismo y la pérdida de control humano—. Su CEO, Dario Amodei, ha advertido públicamente sobre los peligros de avanzar sin marcos éticos sólidos.

Aunque la IA continúa transformando positivamente áreas como la salud, la educación y la ciencia, episodios como este resaltan la urgencia de marcos regulatorios y supervisión comunitaria. Especialistas coinciden en que, con salvaguardas adecuadas, estas tecnologías pueden resolver problemas globales, pero el equilibrio entre poder y responsabilidad sigue siendo el gran desafío.

La renuncia de Sharma no solo visibiliza dilemas internos del sector, sino que invita a una reflexión más amplia sobre cómo la humanidad debe cultivar sabiduría ante un avance tecnológico acelerado.

Lectura rápida

¿Quién renunció y a qué empresa pertenecía?
Mrinank Sharma renunció a Anthropic donde dirigía el equipo de investigación en salvaguardas.

¿Cuándo presentó su renuncia?
El 9 de febrero.

¿Cuáles fueron sus preocupaciones principales?
Sharma expresó que el mundo está en peligro por crisis interconectadas y el crecimiento del poder tecnológico sin sabiduría colectiva.

¿A dónde planea regresar?
Regresará al Reino Unido para estudiar poesía y explorar su integridad personal.

¿Cuál es el contexto de su renuncia?
Su salida se suma a otras renuncias en Anthropic y reaviva el debate sobre ética y seguridad en la IA.

Lo más visto

Sociedad

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Abrapalabra

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho