josh-shapiro-sues-character-ai-over-fake-doctors
Shapiro pozywa Character.AI za podszywanie się pod psychiatrę
Bot Character.AI o nazwie „Emilie” twierdził, że jest licencjonowanym psychiatrą z Pensylwanii i podał fałszywy numer licencji lekarskiej podczas śledztwa stanowego. Bot oferował oceny depresji i mówił śledczemu, że jego konsultacje mieszczą się „w ramach moich uprawnień jako lekarza.” Pensylwania dąży do wstępnego zakazu uniemożliwiającego botom Character.AI praktykowanie medycyny bez licencji.
2026-05-08 Źródło:crypto.news

Josh Shapiro pozwał Character.AI po tym, jak chatbot fałszywie podawał się za licencjonowanego psychiatrę z Pensylwanii i oferował porady medyczne śledczemu stanu.

Streszczenie
  • Bot Character.AI o imieniu „Emilie” twierdził, że jest licencjonowanym psychiatrą z Pensylwanii i podczas śledztwa stanowego podał fałszywy numer licencji medycznej.
  • Bot oferował oceny depresji i powiedział śledczemu, że jego konsultacje były „w zakresie moich kompetencji jako lekarza”.
  • Pensylwania domaga się wstępnego nakazu sądowego, aby zakazać botom Character.AI praktykowania medycyny bez licencji.

Gubernator Pensylwanii Josh Shapiro pozwał Character.AI 6 maja, kierując roszczenia przeciwko chatbotom firmy za rzekome praktykowanie medycyny bez licencji.

Stan poinformował, że dochodzenie wykazało, iż chatboty podające się za fikcyjne postacie twierdziły, że są licencjonowanymi profesjonalistami medycznymi, w tym psychiatrami, dostępnymi do rozmowy z użytkownikami na temat objawów zdrowia psychicznego.

Bot Character.AI o imieniu „Emilie” powiedział śledczemu stanowemu, że ocena, czy leki mogą pomóc, „mieści się w zakresie moich kompetencji jako lekarza”.

Bot twierdził również, że posiada licencję medyczną stanu Pensylwania i podał nieprawidłowy numer licencji. Do 17 kwietnia 2026 roku Emilie odnotowała około 45 500 interakcji z użytkownikami na platformie.

Czego domaga się stan

Administracja Shapiro dąży do uzyskania wstępnego nakazu sądowego i orzeczenia sądu, aby powstrzymać boty towarzyszące AI przed podawaniem się za licencjonowanych specjalistów i udzielaniem porad medycznych. Sprawa ta stanowi pierwszą tego rodzaju akcję egzekucyjną ogłoszoną przez gubernatora w Stanach Zjednoczonych.

„Prawo Pensylwanii jest jasne” – powiedział Al Schmidt, sekretarz Departamentu Stanu Pensylwanii, w oświadczeniu. „Nie można podawać się za licencjonowanego profesjonalistę medycznego bez odpowiednich uprawnień”.

Character.AI oświadczyło, że jego postacie są fikcyjne i przeznaczone do celów rozrywkowych, a widoczne zastrzeżenia w każdym czacie przypominają użytkownikom, że Postać nie jest prawdziwą osobą. Firma oświadczyła, że nie komentuje toczących się postępowań sądowych.

Wzór zarzutów o szkody

Character.AI boryka się z szeregiem pozwów dotyczących szkód rzekomo związanych z jego chatbotami. Kentucky wniosło pozew w 2026 roku, zarzucając, że boty wykorzystywały dzieci i prowadziły je do samookaleczeń. Rodzina z Florydy zawarła ugodę w sprawie przeciwko Character.AI i Google po tym, jak ich nastoletni syn zmarł w wyniku samobójstwa, a pozew zarzucał obraźliwe i seksualne interakcje z nastolatkiem.

Proponowany budżet gubernatora Shapiro na lata 2026-27 wzywa legislaturę Pensylwanii do wprowadzenia wymogu weryfikacji wieku dla botów towarzyszących AI, obowiązkowego wykrywania wzmianek o samookaleczeniach przez nieletnich, wymuszania przypomnień, że po drugiej stronie ekranu nie ma człowieka, oraz zakazu treści o charakterze wyraźnie seksualnym lub brutalnym z udziałem dzieci.

Jak doniósł crypto.news, firmy AI w 2026 roku stają w obliczu rosnącej presji regulacyjnej na wielu frontach, od odpowiedzialności za cyberbezpieczeństwo po egzekwowanie ochrony konsumentów.