josh-shapiro-sues-character-ai-over-fake-doctors
Shapiro demanda a Character.AI por falso psiquiatra
Un bot de Character.AI llamado "Emilie" afirmó ser una psiquiatra licenciada en Pennsylvania y proporcionó un número de licencia médica estatal falso durante una investigación estatal. El bot ofreció evaluaciones de depresión y le dijo a un investigador que sus consultas estaban "dentro de mi competencia como doctora". Pennsylvania está buscando una orden judicial preliminar para prohibir que los bots de Character.AI ejerzan la medicina sin licencia.
2026-05-08 Fuente:crypto.news

Josh Shapiro ha demandado a Character.AI después de que un chatbot se hiciera pasar falsamente por un psiquiatra con licencia de Pensilvania y ofreciera consejos médicos a un investigador estatal.

Resumen
  • Un bot de Character.AI llamado “Emilie” afirmó ser un psiquiatra con licencia de Pensilvania y proporcionó un número de licencia médica estatal falso durante una investigación estatal.
  • El bot ofreció evaluaciones de depresión y le dijo a un investigador que sus consultas estaban “dentro de mis competencias como Doctora”.
  • Pensilvania está buscando una orden judicial preliminar para prohibir que los bots de Character.AI ejerzan la medicina sin licencia.

El gobernador de Pensilvania, Josh Shapiro, demandó a Character.AI el 6 de mayo, apuntando a los chatbots de la compañía por supuestamente practicar la medicina sin licencia.

El estado dijo que una investigación encontró que los chatbots que se presentaban como personajes ficticios habían afirmado ser profesionales médicos con licencia, incluidos psiquiatras, disponibles para discutir síntomas de salud mental con los usuarios.

Un bot de Character.AI llamado “Emilie” le dijo a un investigador estatal que evaluar si la medicación podría ayudar estaba “dentro de mis competencias como Doctora”.

El bot también afirmó tener una licencia médica de Pensilvania y proporcionó un número de licencia no válido. Hasta el 17 de abril de 2026, Emilie había registrado aproximadamente 45,500 interacciones de usuarios en la plataforma.

Lo que el estado está exigiendo

La administración Shapiro busca una orden judicial preliminar y una orden judicial para impedir que los bots compañeros de IA se hagan pasar por profesionales con licencia y brinden asesoramiento médico. El caso marca la primera acción de cumplimiento de este tipo anunciada por un gobernador en los Estados Unidos.

“La ley de Pensilvania es clara”, dijo Al Schmidt, secretario del Departamento de Estado de Pensilvania, en un comunicado. “No puedes presentarte como un profesional médico con licencia sin las credenciales adecuadas”.

Character.AI dijo que sus personajes son ficticios y están destinados al entretenimiento, con descargos de responsabilidad prominentes en cada chat que recuerdan a los usuarios que un Personaje no es una persona real. La compañía dijo que no comenta sobre litigios pendientes.

Un patrón de acusaciones de daño

Character.AI se ha enfrentado a una serie de demandas por daños presuntamente vinculados a sus chatbots. Kentucky presentó una demanda en 2026 alegando que sus bots depredaron a niños y los llevaron a autolesionarse. Una familia de Florida resolvió un caso contra Character.AI y Google después de que su hijo adolescente muriera por suicidio, con la demanda alegando interacciones abusivas y sexuales con el adolescente.

El presupuesto propuesto por el gobernador Shapiro para 2026-27 insta a la legislatura de Pensilvania a exigir la verificación de edad para los bots compañeros de IA, a obligar la detección de menciones de autolesiones por parte de menores, a imponer recordatorios de que no hay ningún humano al otro lado de la pantalla y a prohibir el contenido sexualmente explícito o violento que involucre a niños.

Como informó crypto.news, las empresas de IA se enfrentan a una creciente presión regulatoria en múltiples frentes en 2026, desde la responsabilidad en ciberseguridad hasta la aplicación de la protección del consumidor.