josh-shapiro-sues-character-ai-over-fake-doctors
شاپیرو از Character.AI به‌خاطر روانپزشک جعلی شکایت کرد
رباتی از Character.AI به نام «امیلی» ادعا کرد که روانپزشک دارای مجوز ایالت پنسیلوانیا است و شماره مجوز پزشکی جعلی ارائه داد در طی یک تحقیق دولتی. این ربات ارزیابی‌های افسردگی ارائه داد و به یک بازرس گفت که مشاوره‌هایش «در چارچوب صلاحیت من به عنوان پزشک» است. ایالت پنسیلوانیا خواستار صدور دستور موقت برای جلوگیری از فعالیت ربات‌های Character.AI در زمینه پزشکی بدون مجوز شده است.
2026-05-08 منبع:crypto.news

جاش شاپیرو از Character.AI شکایت کرده است، پس از آنکه یک چت‌بات به دروغ خود را یک روانپزشک دارای مجوز پنسیلوانیا معرفی کرد و به یک بازرس ایالتی مشاوره پزشکی ارائه داد.

خلاصه
  • یک ربات Character.AI به نام "امیلی" ادعا کرد که یک روانپزشک دارای مجوز پنسیلوانیا است و در طول تحقیقات ایالتی یک شماره مجوز پزشکی جعلی ارائه داد.
  • این ربات ارزیابی افسردگی ارائه داد و به یک بازرس گفت که مشاوره‌هایش "در حیطه اختیارات من به عنوان یک پزشک" است.
  • پنسیلوانیا به دنبال دستور قضایی اولیه برای ممنوعیت فعالیت ربات‌های Character.AI در زمینه پزشکی بدون مجوز است.

جاش شاپیرو، فرماندار پنسیلوانیا، در تاریخ ۶ مه از Character.AI شکایت کرد و چت‌بات‌های این شرکت را به دلیل ادعای طبابت بدون مجوز هدف قرار داد.

ایالت اعلام کرد که تحقیقات نشان داده است چت‌بات‌هایی که خود را شخصیت‌های تخیلی معرفی می‌کنند، ادعا کرده‌اند که متخصصان پزشکی دارای مجوز، از جمله روانپزشکان، هستند و برای بحث در مورد علائم سلامت روان با کاربران در دسترس هستند.

یک ربات Character.AI به نام "امیلی" به یک بازرس ایالتی گفت که ارزیابی اینکه آیا دارو می‌تواند کمک کند یا خیر، "در حیطه اختیارات من به عنوان یک پزشک" است.

این ربات همچنین ادعای مجوز پزشکی پنسیلوانیا را داشت و یک شماره مجوز نامعتبر ارائه داد. تا ۱۷ آوریل ۲۰۲۶، امیلی حدود ۴۵,۵۰۰ تعامل کاربری در این پلتفرم ثبت کرده بود.

آنچه ایالت مطالبه می‌کند

دولت شاپیرو به دنبال دستور قضایی اولیه و حکم دادگاه برای متوقف کردن ربات‌های همراه هوش مصنوعی از وانمود کردن به متخصصان دارای مجوز و ارائه مشاوره پزشکی است. این پرونده اولین اقدام اجرایی از نوع خود است که توسط یک فرماندار در ایالات متحده اعلام شده است.

ال اشمیت، وزیر وزارت امور خارجه پنسیلوانیا، در بیانیه‌ای گفت: "قانون پنسیلوانیا واضح است. شما نمی‌توانید خود را بدون مدارک معتبر، یک متخصص پزشکی دارای مجوز معرفی کنید."

Character.AI اعلام کرد که شخصیت‌های آن تخیلی هستند و برای سرگرمی در نظر گرفته شده‌اند، با سلب مسئولیت‌های برجسته در هر چت که به کاربران یادآوری می‌کند یک "شخصیت" یک انسان واقعی نیست. این شرکت اعلام کرد که در مورد پرونده‌های قضایی در حال بررسی اظهار نظر نمی‌کند.

الگویی از اتهامات مربوط به آسیب

Character.AI با مجموعه‌ای از دعاوی قضایی بر سر آسیب‌های ادعایی مرتبط با چت‌بات‌هایش مواجه شده است. کنتاکی در سال ۲۰۲۶ شکایتی را ثبت کرد و ادعا کرد که ربات‌های این شرکت کودکان را هدف قرار داده و آن‌ها را به سمت خودآزاری سوق داده‌اند. یک خانواده فلوریدایی پس از خودکشی پسر نوجوانشان، پرونده‌ای را علیه Character.AI و گوگل حل و فصل کردند، با این ادعا که تعاملات آزاردهنده و جنسی با نوجوان صورت گرفته است.

بودجه پیشنهادی فرماندار شاپیرو برای سال‌های ۲۰۲۶-۲۷ از قانون‌گذار پنسیلوانیا می‌خواهد که احراز هویت سنی را برای ربات‌های همراه هوش مصنوعی اجباری کند، تشخیص اشارات به خودآزاری توسط خردسالان را الزامی سازد، یادآوری‌هایی را اجبار کند که هیچ انسانی در آن سوی صفحه نمایش نیست، و محتوای صریح جنسی یا خشونت‌آمیز مربوط به کودکان را ممنوع کند.

همانطور که crypto.news گزارش داد، شرکت‌های هوش مصنوعی در سال ۲۰۲۶ با فشار فزاینده‌ای از سوی تنظیم‌گران در جبهه‌های مختلف، از مسئولیت امنیت سایبری گرفته تا اجرای قوانین حمایت از مصرف‌کننده، روبرو هستند.

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!