En vivo

Ahora país

Rodolfo Barili

Argentina

En vivo

Ahora país

Rodolfo Barili

Rosario

En vivo

La Central Deportiva

Nicolás Mai

Santa Fe

En vivo

Hermosa mañana

Mariana y Andrés

En vivo

Los Populares

Colorete Gianola

En vivo

Escenario Principal

Radio

Podcast

Amamos Argentina

Podcast

La mesa de café

Podcast

La otra mirada

Podcast

El dato confiable

Podcast

3x1=4

Podcast

La quinta pata del gato

Podcast

Cuadro de Situación

Podcast

80 años del Cuarteto

Podcast

Nazareno Cruz y el Lobo

Podcast

La Chacarera, el latido del monte

Escuchá lo último

Elegí tu emisora

Mundo

Demandan a chatbot por hacerse pasar por médico en Pensilvania

La demanda sostiene que los chatbots de una empresa de IA engañan a los usuarios haciéndose pasar por médicos con licencia, poniendo en riesgo la salud de los habitantes de Pensilvania.

05/05/2026 | 10:45Redacción Cadena 3

Pensilvania acusa a chatbot de intentar hacerse pasar por médico con licencia

FOTO: Pensilvania acusa a chatbot de intentar hacerse pasar por médico con licencia

HARRISBURG, Pensilvania, EE.UU. — El estado de Pensilvania ha presentado una demanda contra una empresa de inteligencia artificial, alegando que sus chatbots se hacen pasar ilegalmente por médicos, engañando a los usuarios del sistema al hacerles creer que reciben asesoramiento médico de profesionales con licencia.

La acción legal, presentada el pasado viernes, solicita al tribunal estatal que ordene a Character Technologies Inc., la compañía detrás de Character.AI, que detenga el uso de sus chatbots en la práctica ilegal de la medicina y la cirugía.

Según la demanda, un investigador del organismo estatal encargado de otorgar licencias a profesionales creó una cuenta en Character.AI y al buscar la palabra "psiquiatría" encontró una serie de personajes, entre ellos uno que se presentaba como "doctor en psiquiatría".

Este personaje afirmaba tener la capacidad de evaluar al usuario "como un médico" con licencia en Pensilvania, lo que motivó la presentación de la demanda.

El gobernador Josh Shapiro enfatizó en un comunicado que "los habitantes de Pensilvania merecen saber con quién —o con qué— están interactuando en línea, especialmente cuando se trata de su salud". Afirmó que no se permitirá que las empresas utilicen herramientas de IA que induzcan a error a las personas sobre el asesoramiento médico que reciben.

Character Technologies no respondió a las solicitudes de comentarios el lunes. La empresa ya ha enfrentado diversas demandas relacionadas con la seguridad infantil. En enero, Google y Character Technologies acordaron resolver una demanda presentada por una madre de Florida que alegaba que un chatbot llevó a su hijo adolescente a intentar suicidarse. El año pasado, Character.AI prohibió el uso de sus chatbots a menores de edad ante las crecientes preocupaciones sobre los efectos de las conversaciones con inteligencia artificial en niños.

Lectura rápida

¿Qué hizo Pensilvania?
Demandó a una empresa de inteligencia artificial por permitir que sus chatbots se hagan pasar por médicos.

¿Quién es el gobernador?
El gobernador de Pensilvania, Josh Shapiro, expresó su preocupación por la salud de los habitantes del estado.

¿Cuándo se presentó la demanda?
La demanda fue presentada el pasado viernes.

¿Dónde ocurrió el incidente?
En Pensilvania, donde los chatbots de Character Technologies están operando.

¿Por qué es importante?
Porque pone en riesgo la salud de los usuarios que creen recibir asesoramiento médico profesional.

[Fuente: AP]

Lo más visto

Mundo

Opinión

Podcast

La otra mirada

Podcast

La mesa de café

Podcast

La quinta pata del gato

Podcast

3x1=4

Podcast

El dato confiable

Podcast

Política esquina Economía

Podcast

Cuadro de Situación

Podcast

Los editoriales de Alberto Lotuf