En vivo

Turno Noche

Gustavo y Chiqui

Argentina

En vivo

Turno Noche

Gustavo y Chiqui

Rosario

En vivo

Una noche más

Melina Uliarte

En vivo

Modo Cuarteto

Agostina y Conrado

En vivo

Especiales temáticos

Radio

Podcast

Amamos Argentina

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Escuchá lo último

Elegí tu emisora

Tecnología

Anthropic presenta herramienta de revisión de código para gestionar el aumento de código AI

La nueva herramienta de Anthropic, llamada Code Review, ayuda a los desarrolladores a gestionar el crecimiento del código generado por inteligencia artificial, identificando errores lógicos y mejorando la calidad del software.

09/03/2026 | 19:55Redacción Cadena 3

Imagen de la herramienta Code Review de Anthropic

FOTO: Imagen de la herramienta Code Review de Anthropic

En el ámbito de la programación, la retroalimentación entre pares resulta esencial para detectar errores tempranamente, mantener la consistencia en la base de código y mejorar la calidad general del software. La aparición de la "vibe coding" —el uso de herramientas de inteligencia artificial que generan rápidamente grandes volúmenes de código a partir de instrucciones en lenguaje natural— ha transformado la forma en que los desarrolladores trabajan. Sin embargo, estas herramientas también han introducido nuevos errores, riesgos de seguridad y código poco comprendido.

Para abordar estos desafíos, Anthropic lanzó el lunes su solución de revisión de código, denominada Code Review, que tiene como objetivo detectar errores antes de que se integren en el código del software. Esta herramienta se encuentra disponible inicialmente en Claude Code, un sistema multiagente diseñado para facilitar la gestión del crecimiento del código generado por inteligencia artificial.

"Hemos observado un gran crecimiento en Claude Code, especialmente en el ámbito empresarial, y una de las preguntas recurrentes de los líderes empresariales es: ¿cómo garantizamos que las solicitudes de extracción que genera Claude Code sean revisadas de manera eficiente?", comentó Cat Wu, responsable de producto de Anthropic, en una entrevista con TechCrunch.

Las solicitudes de extracción son mecanismos que los desarrolladores utilizan para enviar cambios en el código para revisión antes de que estos se integren en el software. Wu destacó que Claude Code ha incrementado drásticamente la producción de código, lo que ha generado un aumento en las revisiones de solicitudes de extracción y ha provocado un cuello de botella en la entrega del código. "Code Review es nuestra respuesta a eso", afirmó.

La nueva herramienta de revisión de código se lanza en un momento crucial para la compañía, que recientemente presentó Code Review para usuarios de Claude para Teams y Claude para Enterprise en una vista previa de investigación. Además, Anthropic presentó dos demandas contra el Departamento de Defensa en respuesta a la designación de la compañía como riesgo de cadena de suministro, lo que podría llevar a la empresa a depender más de su creciente negocio empresarial, que ha visto cuadruplicar sus suscripciones desde el inicio del año.

"Este producto está dirigido principalmente a nuestros usuarios empresariales a gran escala, como Uber, Salesforce y Accenture, que ya utilizan Claude Code y ahora buscan ayuda con la cantidad de solicitudes de extracción que está generando", explicó Wu.

Una vez habilitada, la herramienta se integra con GitHub y analiza automáticamente las solicitudes de extracción, dejando comentarios directamente en el código sobre posibles problemas y sugerencias de corrección. El enfoque se centra en corregir errores lógicos en lugar de cuestiones de estilo, lo que resulta fundamental ya que muchos desarrolladores han experimentado retroalimentación automatizada de IA anteriormente, pero se frustran cuando esta no es inmediatamente aplicable.

"Decidimos que nos enfocaríamos puramente en los errores lógicos. De esta forma, abordamos las cuestiones más prioritarias a corregir", añadió Wu. La IA explica su razonamiento paso a paso, detallando cuál podría ser el problema, por qué podría ser problemático y cómo podría solucionarse. El sistema clasifica la gravedad de los problemas mediante colores: rojo para los más graves, amarillo para problemas potenciales que merecen revisión y púrpura para cuestiones relacionadas con código preexistente o errores históricos.

Wu destacó que este proceso se realiza de manera rápida y eficiente gracias a la arquitectura de múltiples agentes que trabajan en paralelo, cada uno examinando la base de código desde diferentes perspectivas. Un agente final agrega y clasifica los hallazgos, eliminando duplicados y priorizando lo más importante. La herramienta también proporciona un análisis ligero de seguridad, y los líderes de ingeniería pueden personalizar controles adicionales basados en las mejores prácticas internas.

El modelo de precios de Code Review es basado en tokens, y los costos varían según la complejidad del código, aunque Wu estimó que cada revisión costaría entre $15 y $25 en promedio. Esta experiencia premium se considera necesaria a medida que las herramientas de IA generan cada vez más código.

"[Code Review] surge de una enorme demanda del mercado", concluyó Wu. "A medida que los ingenieros desarrollan con Claude Code, están viendo cómo disminuye la fricción para crear una nueva función y están experimentando una demanda mucho más alta de revisiones de código. Esperamos que esto permita a las empresas construir más rápido que nunca y con muchos menos errores que antes", finalizó.

Lectura rápida

¿Qué es Code Review?
Es una herramienta de Anthropic diseñada para detectar errores lógicos en el código generado por inteligencia artificial antes de que se integren en el software.

¿Quiénes son los usuarios de Code Review?
Principalmente empresas a gran escala como Uber, Salesforce y Accenture.

¿Cuándo se lanzó esta herramienta?
Se lanzó el 9 de marzo de 2026.

¿Dónde se integra Code Review?
Se integra con GitHub para analizar automáticamente las solicitudes de extracción.

¿Por qué es importante esta herramienta?
Permite a las empresas gestionar el aumento de código generado por IA, mejorando la calidad del software y reduciendo errores.

Lo más visto

Tecnología

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf