En vivo

Primera Plana

Luis Fernández Echegaray

Argentina

En vivo

Primera Plana

Luis Fernández Echegaray

Rosario

En vivo

Clásicos a la Ida

Lucas Correa

En vivo

¡Arriba La Popu!

Ulises Llanos

En vivo

Trasnoche random

Radio

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Podcast

Francisco: los 10 años del Papa argentino

Podcast

Manual para transformar Argentina

Escuchá lo último

Elegí tu emisora

Tecnología

Acusaciones de Anthropic a laboratorios chinos por minería de IA en medio de debates de exportación

Anthropic señaló a tres laboratorios de IA chinos por usar 24,000 cuentas falsas para mejorar sus modelos, mientras EE.UU. considera controles de exportación para limitar el avance de China en IA.

24/02/2026 | 03:55Redacción Cadena 3

Acusaciones de Anthropic a laboratorios chinos por minería de IA en medio de debates de exportación

FOTO: Acusaciones de Anthropic a laboratorios chinos por minería de IA en medio de debates de exportación

Anthropic acusó a tres laboratorios de inteligencia artificial en China de establecer más de 24,000 cuentas falsas con su modelo Claude para mejorar sus propios modelos. Los laboratorios en cuestión son DeepSeek, Moonshot AI y MiniMax, quienes supuestamente generaron más de 16 millones de intercambios con Claude a través de estas cuentas utilizando una técnica conocida como "distilación". Según Anthropic, estos laboratorios se enfocaron en las capacidades más diferenciadas de Claude: razonamiento agentico, uso de herramientas y programación.

Las acusaciones surgieron en medio de debates sobre la rigurosidad de los controles de exportación sobre chips avanzados de IA, una política destinada a frenar el desarrollo de IA en China. La distilación es un método común de entrenamiento que los laboratorios de IA utilizan en sus propios modelos para crear versiones más pequeñas y económicas, pero los competidores pueden usarlo para copiar esencialmente el trabajo de otros laboratorios. OpenAI envió un memorando a los legisladores de la Cámara a principios de este mes acusando a DeepSeek de utilizar la distilación para imitar sus productos.

DeepSeek hizo ruido por primera vez hace un año cuando lanzó su modelo de razonamiento de código abierto R1, que casi igualó a los laboratorios de frontera estadounidenses en rendimiento a una fracción del costo. Se espera que DeepSeek lance pronto su modelo más reciente, DeepSeek V4, que supuestamente puede superar a Claude de Anthropic y a ChatGPT de OpenAI en programación.

La escala de cada ataque varió en alcance. Anthropic registró más de 150,000 intercambios de DeepSeek que parecían dirigidos a mejorar la lógica fundamental y la alineación, específicamente en torno a alternativas seguras para la censura a consultas sensibles a políticas. Moonshot AI tuvo más de 3.4 millones de intercambios enfocados en razonamiento agentico, uso de herramientas, programación y análisis de datos, desarrollo de agentes informáticos y visión por computadora. El mes pasado, la firma lanzó un nuevo modelo de código abierto llamado Kimi K2.5 y un agente de programación.

MiniMax, por su parte, dirigió 13 millones de intercambios hacia la programación agentica, el uso de herramientas y la orquestación. Anthropic afirmó que pudo observar a MiniMax en acción mientras redirigía casi la mitad de su tráfico para absorber capacidades del último modelo de Claude al ser lanzado.

Anthropic sostiene que continuará invirtiendo en defensas que dificulten la ejecución de ataques de distilación y faciliten su identificación, pero hace un llamado a "una respuesta coordinada en toda la industria de IA, proveedores de la nube y responsables de políticas".

Estos ataques de distilación ocurren en un momento en que las exportaciones de chips estadounidenses a China siguen siendo objeto de intensos debates. El mes pasado, la administración Trump permitió formalmente a las empresas estadounidenses como Nvidia exportar chips avanzados de IA (como el H200) a China. Los críticos han argumentado que este aflojamiento de los controles de exportación incrementa la capacidad de computación de IA de China en un momento crítico en la carrera global por la dominación en IA.

Anthropic sostiene que la escala de extracción que realizaron DeepSeek, MiniMax y Moonshot "requiere acceso a chips avanzados". "Los ataques de distilación refuerzan, por lo tanto, la razón para los controles de exportación: limitar el acceso a chips restringe tanto el entrenamiento directo de modelos como la escala de distilación ilícita", según el blog de Anthropic.

Dmitri Alperovitch, presidente del Silverado Policy Accelerator y cofundador de CrowdStrike, comentó que no se sorprende de ver estos ataques. "Ha sido evidente durante un tiempo que parte de la razón del rápido progreso de los modelos de IA chinos ha sido el robo a través de la distilación de modelos de frontera estadounidenses. Ahora lo sabemos con certeza", afirmó Alperovitch. "Esto debería darnos aún más razones convincentes para negarnos a vender chips de IA a ninguna de estas empresas, lo que solo les daría una ventaja adicional".

Anthropic también afirmó que la distilación no solo amenaza con socavar la dominancia de la IA estadounidense, sino que podría crear riesgos para la seguridad nacional. "Anthropic y otras empresas estadounidenses construyen sistemas que evitan que actores estatales y no estatales utilicen la IA para, por ejemplo, desarrollar armas biológicas o llevar a cabo actividades cibernéticas maliciosas", señala el blog de Anthropic. "Los modelos construidos a través de la distilación ilícita probablemente no retendrán esas salvaguardas, lo que significa que capacidades peligrosas pueden proliferar con muchas protecciones eliminadas por completo".

Anthropic advirtió sobre gobiernos autoritarios que despliegan IA de frontera para llevar a cabo operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva, un riesgo que se multiplica si esos modelos son de código abierto.

TechCrunch se puso en contacto con DeepSeek, MiniMax y Moonshot para obtener comentarios.

Lectura rápida

¿Qué acusó Anthropic?
Acusó a laboratorios chinos de usar 24,000 cuentas falsas para mejorar sus modelos de IA.

¿Cuáles son los laboratorios implicados?
Los laboratorios son DeepSeek, Moonshot AI y MiniMax.

¿Qué técnica utilizaron?
Usaron una técnica llamada "distilación" para generar intercambios con Claude.

¿Qué consecuencias tienen estas acusaciones?
Se enmarcan en un debate sobre controles de exportación de chips avanzados a China.

¿Qué dijo Dmitri Alperovitch?
Señaló que el progreso de la IA china se debe al robo a través de distilación de modelos estadounidenses.

Lo más visto

Tecnología

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf

Podcast

Agenda económica

Podcast

Las Claves de Zucho