AWS re:Invent 2025: Novedades sobre IA y chips en la conferencia de Amazon
La conferencia anual de Amazon Web Services, re:Invent 2025, presentó avances en IA y chips, destacando la personalización de agentes de IA y nuevos modelos de aprendizaje automático.
03/12/2025 | 21:32Redacción Cadena 3
Amazon Web Services (AWS) concluyó un día más de su conferencia anual re:Invent 2025, donde se presentaron numerosas novedades en productos y servicios, con un enfoque especial en la inteligencia artificial (IA) para empresas. Este año, el evento se centró en mejoras que permiten a los clientes personalizar agentes de IA, incluyendo uno que, según AWS, puede aprender de los usuarios y trabajar de manera independiente durante días.
El evento comenzó el 2 de diciembre con una keynote del CEO de AWS, Matt Garman, quien enfatizó que los agentes de IA pueden desbloquear el "verdadero valor" de la inteligencia artificial. "Los asistentes de IA están comenzando a dar paso a agentes de IA que pueden realizar tareas y automatizar en su nombre", afirmó Garman. "Aquí es donde comenzamos a ver retornos comerciales significativos de sus inversiones en IA".
El 3 de diciembre, la conferencia continuó con el mensaje sobre los agentes de IA y profundizó en historias de éxito de clientes. Swami Sivasubramanian, vicepresidente de Agentic AI en AWS, fue uno de los oradores principales. Durante su charla, destacó que "estamos viviendo tiempos de gran cambio". Sivasubramanian explicó que, por primera vez en la historia, es posible describir lo que se quiere lograr en lenguaje natural, y los agentes generan el plan, escriben el código y ejecutan la solución completa. "Los agentes te dan la libertad de construir sin límites, acelerando cómo puedes pasar de la idea al impacto de manera significativa".
A lo largo de re:Invent 2025, se anunciaron otras novedades. A continuación, se presenta un resumen de los anuncios más destacados. TechCrunch actualizará este artículo con las últimas novedades a medida que avance la conferencia.
Duplicando la apuesta por los LLMs
AWS presentó más herramientas para que los clientes empresariales crean sus propios modelos. En particular, AWS anunció nuevas capacidades para Amazon Bedrock y Amazon SageMaker AI, facilitando la creación de LLMs personalizados. Por ejemplo, AWS introdujo la personalización de modelos sin servidor en SageMaker, lo que permite a los desarrolladores comenzar a construir un modelo sin preocuparse por los recursos computacionales o la infraestructura. Esta personalización se puede acceder a través de un camino autoguiado o mediante un agente de IA.
Además, AWS presentó el ajuste fino por refuerzo en Bedrock, que permite a los desarrolladores elegir un flujo de trabajo preestablecido o un sistema de recompensas, y que Bedrock ejecute automáticamente su proceso de personalización de principio a fin.
Andy Jassy, CEO de Amazon, utilizó la plataforma X para comentar sobre el discurso de apertura de Matt Garman. Su mensaje fue que la generación actual de su chip competidor de Nvidia, Trainium2, ya está generando grandes ingresos. Sus comentarios estaban relacionados con el lanzamiento de su chip de próxima generación, Trainium3, y pronosticó un futuro prometedor en términos de ingresos para el producto.
Ahorros en bases de datos
Entre los numerosos anuncios, uno que ha sido bien recibido es el de los descuentos. AWS lanzó los Planes de Ahorro de Base de Datos, que ayudan a los clientes a reducir los costos de bases de datos en hasta un 35% al comprometerse a un uso constante durante un año. La compañía aseguró que los ahorros se aplicarán automáticamente cada hora al uso elegible en los servicios de bases de datos soportados, y cualquier uso adicional más allá del compromiso se facturará a tarifas bajo demanda.
Corey Quinn, economista jefe de la nube en Duckbill, resumió bien la situación en su blog titulado "Seis años de quejas finalmente dan sus frutos".
Una oferta irresistible: créditos gratuitos
¿Hay alguna manera de que otra herramienta de codificación de IA gane el corazón de los fundadores de startups? Amazon espera que un año de créditos gratuitos lo logre con su oferta, Kiro. La compañía ofrecerá créditos para Kiro Pro+ a startups calificadas que soliciten el trato antes de fin de mes. Sin embargo, solo las startups en etapas tempranas de ciertos países son elegibles.
Un chip de entrenamiento de IA y compatibilidad con Nvidia
AWS presentó una nueva versión de su chip de entrenamiento de IA llamado Trainium3, junto con un sistema de IA llamado UltraServer que lo ejecuta. Este chip mejorado promete hasta cuatro veces más rendimiento tanto en entrenamiento como en inferencia, mientras reduce el consumo de energía en un 40%.
AWS también proporcionó un adelanto: la compañía ya tiene en desarrollo el Trainium4, que podrá trabajar con los chips de Nvidia.
Capacidades ampliadas de AgentCore
AWS anunció nuevas características en su plataforma de construcción de agentes de IA, AgentCore. Una característica notable es la Política en AgentCore, que permite a los desarrolladores establecer límites más fácilmente para los agentes de IA. Además, se anunció que los agentes ahora podrán registrar y recordar cosas sobre sus usuarios. También se anunció que ayudará a sus clientes a evaluar a los agentes a través de 13 sistemas de evaluación preconstruidos.
Un agente de IA incansable
AWS presentó tres nuevos agentes de IA, llamados "agentes Frontier", incluyendo uno llamado "agente autónomo Kiro" que escribe código y está diseñado para aprender cómo trabaja un equipo, para poder operar en gran medida por su cuenta durante horas o días.
Otro de estos nuevos agentes se encarga de procesos de seguridad como revisiones de código, y el tercero realiza tareas de DevOps, como prevenir incidentes al implementar nuevo código en producción. Las versiones de vista previa de los agentes están disponibles ahora.
Nuevos modelos y servicios Nova
AWS está lanzando cuatro nuevos modelos de IA dentro de su familia de modelos Nova, tres de los cuales generan texto y uno que puede crear texto e imágenes. La compañía también anunció un nuevo servicio llamado Nova Forge que permite a los clientes de la nube de AWS acceder a modelos preentrenados, medianamente entrenados o post-entrenados que pueden completar entrenando con sus propios datos propietarios. La gran propuesta de AWS es la flexibilidad y la personalización.
El argumento de Lyft a favor de los agentes de IA
La compañía de transporte compartido fue una de las muchas clientes de AWS que compartieron sus historias de éxito durante el evento, evidenciando cómo los productos afectaron su negocio. Lyft está utilizando el modelo Claude de Anthropic a través de Amazon Bedrock para crear un agente de IA que maneja preguntas y problemas de conductores y pasajeros. La compañía informó que este agente de IA ha reducido el tiempo promedio de resolución en un 87%. Además, Lyft también mencionó un aumento del 70% en el uso del agente de IA por parte de los conductores este año.
Una fábrica de IA para el centro de datos privado
Amazon también anunció "fábricas de IA" que permiten a grandes corporaciones y gobiernos ejecutar sistemas de IA de AWS en sus propios centros de datos. El sistema fue diseñado en colaboración con Nvidia e incluye tanto la tecnología de Nvidia como la de AWS. Las empresas que lo utilicen pueden equiparlo con GPUs de Nvidia, pero también pueden optar por el nuevo chip de IA de Amazon, el Trainium3. Este sistema es la forma en que Amazon aborda la soberanía de datos, o la necesidad de gobiernos y muchas empresas de controlar sus datos y no compartirlos, incluso para utilizar IA.
Patrocinado: Mira las transmisiones de la industria de re:Invent
Consulta las últimas revelaciones sobre todo, desde IA agente y infraestructura en la nube hasta seguridad y mucho más en el evento insignia de Amazon Web Services en Las Vegas. Este video es presentado en asociación con AWS.





