Microsoft advierte que Copilot es solo para entretenimiento, no confiable
La compañía indicó que Copilot puede cometer errores y no debe ser utilizado para consejos importantes. Actualizarán los términos de uso, que datan de octubre de 2025.
05/04/2026 | 17:35Redacción Cadena 3
Microsoft emitió una advertencia sobre su herramienta de inteligencia artificial, Copilot, indicando que esta debe ser considerada solo para entretenimiento y no como una fuente confiable de información. La declaración se enmarca en un contexto donde la compañía busca atraer a clientes corporativos para su uso, pero también ha enfrentado críticas en redes sociales debido a la redacción de sus términos de servicio.
Los términos de uso de Copilot, actualizados por última vez el 24 de octubre de 2025, afirman: "Copilot es para entretenimiento purposes only. Puede cometer errores y puede no funcionar como se espera. No confíes en Copilot para consejos importantes. Usa Copilot bajo tu propio riesgo". Esta afirmación ha generado un debate sobre la fiabilidad de los modelos de IA en general.
Un portavoz de Microsoft declaró a PCMag que la empresa planea actualizar el lenguaje que consideran obsoleto. "A medida que el producto ha evolucionado, ese lenguaje ya no refleja cómo se utiliza Copilot hoy en día y será modificado en nuestra próxima actualización", agregó el portavoz.
La situación de Microsoft no es única. Otras empresas de inteligencia artificial, como OpenAI y xAI, también han incluido advertencias similares en sus términos, sugiriendo a los usuarios que no deben considerar sus salidas como la verdad absoluta. OpenAI señala que sus productos no deben ser utilizados como "un servicio único de verdad o información fáctica".
Lectura rápida
¿Qué dijo Microsoft sobre Copilot?
Microsoft advirtió que Copilot es solo para entretenimiento y puede no funcionar como se espera.
¿Cuándo se actualizaron los términos de uso?
Los términos de uso de Copilot fueron actualizados por última vez el 24 de octubre de 2025.
¿Qué otros servicios han emitido advertencias similares?
OpenAI y xAI también han advertido que sus modelos no deben ser considerados como fuentes confiables.
¿Qué hizo Microsoft ante las críticas?
La compañía anunció que actualizará el lenguaje de sus términos de uso para reflejar el uso actual de Copilot.
¿Por qué es importante esta advertencia?
Es crucial para los usuarios entender que no deben confiar ciegamente en las salidas de la IA para decisiones importantes.





