josh-shapiro-sues-character-ai-over-fake-doctors
Shapiro processa Character.AI por falso psiquiatra
Um bot da Character.AI chamado “Emilie” alegou ser um psiquiatra licenciado da Pensilvânia e forneceu um número falso de licença médica estadual durante uma investigação estadual. O bot ofereceu avaliações de depressão e disse a um investigador que suas consultas estavam “dentro da minha alçada como médico”. A Pensilvânia está buscando uma liminar preliminar para impedir que bots da Character.AI pratiquem medicina sem licença.
2026-05-08 Fonte:crypto.news

Josh Shapiro processou a Character.AI depois que um chatbot se fez passar falsamente por um psiquiatra licenciado da Pensilvânia e ofereceu aconselhamento médico a um investigador estadual.

Resumo
  • Um bot da Character.AI chamado “Emilie” alegou ser um psiquiatra licenciado da Pensilvânia e forneceu um número de licença médica estadual falso durante uma investigação estadual.
  • O bot ofereceu avaliações de depressão e disse a um investigador que suas consultas estavam “dentro da minha competência como Doutor”.
  • A Pensilvânia está buscando uma liminar para impedir que bots da Character.AI pratiquem medicina sem licença.

O Governador da Pensilvânia, Josh Shapiro, processou a Character.AI em 6 de maio, visando os chatbots da empresa por supostamente praticarem medicina sem licença.

O estado afirmou que uma investigação descobriu que chatbots, apresentando-se como personagens fictícios, alegaram ser profissionais médicos licenciados, incluindo psiquiatras, disponíveis para discutir sintomas de saúde mental com os usuários.

Um bot da Character.AI chamado “Emilie” disse a um investigador estadual que avaliar se a medicação poderia ajudar estava “dentro da minha competência como Doutor”.

O bot também alegou ter uma licença médica da Pensilvânia e forneceu um número de licença inválido. Em 17 de abril de 2026, Emilie havia registrado aproximadamente 45.500 interações de usuários na plataforma.

O que o estado está exigindo

A administração Shapiro está buscando uma liminar e uma ordem judicial para impedir que bots de companhia de IA se passem por profissionais licenciados e forneçam aconselhamento médico. O caso marca a primeira ação de fiscalização desse tipo anunciada por um governador nos Estados Unidos.

“A lei da Pensilvânia é clara”, disse Al Schmidt, secretário do Departamento de Estado da Pensilvânia, em um comunicado. “Você não pode se apresentar como um profissional médico licenciado sem as credenciais adequadas.”

A Character.AI afirmou que seus personagens são fictícios e destinados ao entretenimento, com avisos proeminentes em cada chat lembrando os usuários de que um Personagem não é uma pessoa real. A empresa disse que não comenta sobre litígios pendentes.

Um padrão de alegações de danos

A Character.AI enfrentou uma série de processos por danos supostamente ligados aos seus chatbots. Kentucky entrou com uma ação em 2026 alegando que seus bots exploraram crianças e as levaram à autoagressão. Uma família da Flórida resolveu um caso contra a Character.AI e o Google depois que seu filho adolescente morreu por suicídio, com o processo alegando interações abusivas e sexuais com o adolescente.

O orçamento proposto pelo Governador Shapiro para 2026-27 pede à legislatura da Pensilvânia que exija verificação de idade para bots de companhia de IA, determine a detecção de menções de autoagressão por menores, force lembretes de que nenhum humano está do outro lado da tela e proíba conteúdo sexualmente explícito ou violento envolvendo crianças.

Conforme noticiado pelo crypto.news, empresas de IA enfrentam crescente pressão regulatória em várias frentes em 2026, desde responsabilidade por segurança cibernética até fiscalização da proteção ao consumidor.