pennsylvania-sues-character-ai-chatbot-posing-licensed-psychiatrist
پنسیلوانیا از Character.AI بابت ربات چت که خود را روانپزشک مجاز معرفی می‌کند شکایت کرد
جاش شپایرو، فرماندار پنسیلوانیا، گفت این پرونده قضایی ربات‌های هوش مصنوعی را هدف قرار می‌دهد که خود را به دروغ به عنوان متخصصان پزشکی مجاز معرفی می‌کنند.
2026-05-05 منبع:decrypt.co

به طور خلاصه

  • پنسیلوانیا از Character.AI شکایت کرده و مدعی است که این چت‌بات با استفاده از یک شماره مجوز نامعتبر، خود را به عنوان یک روانپزشک مجاز معرفی کرده است.
  • این ایالت می‌گوید چت‌بات مدارک پزشکی جعلی ارائه کرده است.
  • این پرونده به بررسی‌های حقوقی این پلتفرم که پیش از این نیز با شکایت‌های فزاینده‌ای روبرو است، اضافه می‌کند.

پنسیلوانیا شکایتی علیه توسعه‌دهنده هوش مصنوعی مولد Character.AI تنظیم کرده و مدعی است که این شرکت به چت‌بات‌ها اجازه داده تا خود را به عنوان متخصصان پزشکی مجاز معرفی کرده و اطلاعات گمراه‌کننده به کاربران ارائه دهند.

این اقدام، که سه‌شنبه توسط دفتر فرماندار جاش شاپیرو اعلام شد، به دنبال تحقیقاتی است که نشان داد یک چت‌بات ادعا کرده است که روانپزشک مجاز در پنسیلوانیا است و شماره مجوز نامعتبری ارائه کرده است. این ایالت می‌گوید این رفتار قانون عمل پزشکی را نقض می‌کند و به دنبال دستور منع موقت برای توقف آن است.

Character.AI به دلیل پرونده قضایی در جریان، از اظهارنظر درباره جزئیات شکایت خودداری کرد، اما به Decrypt گفت که «بالاترین اولویت آن ایمنی و رفاه کاربرانش است.»

این سخنگو افزود که شخصیت‌های موجود در این پلتفرم توسط کاربران ایجاد شده‌اند، ساختگی هستند و برای سرگرمی و نقش‌آفرینی در نظر گرفته شده‌اند، با «سلب مسئولیت‌های برجسته در هر چت» که بیان می‌کنند آنها افراد واقعی نیستند و نباید برای مشاوره حرفه‌ای به آنها اعتماد کرد.

این سخنگو گفت: «Character.ai توسعه مسئولانه محصول را در اولویت قرار داده و فرآیندهای بازبینی داخلی و تیم قرمز قوی برای ارزیابی ویژگی‌های مربوطه دارد.»

این پرونده در حالی مطرح می‌شود که این شرکت با چالش‌های حقوقی دیگری مربوط به پلتفرم چت‌بات خود روبرو است. در سال 2024، یک مادر فلوریدایی پس از آنکه پسر نوجوانش در پی ماه‌ها تعامل با یک چت‌بات مبتنی بر شخصیت «دنریس تارگرین» از «بازی تاج و تخت» خودکشی کرد، از این شرکت شکایت کرد. این شکایت ادعا می‌کرد که این پلتفرم به آسیب روانی کمک کرده است. این پرونده در ژانویه گذشته حل و فصل شد.

این شرکت همچنین با شکایت‌هایی در مورد ربات‌های ساخته شده توسط کاربر که از افراد واقعی تقلید می‌کنند، مواجه شده است. در یک مورد، یک چت‌بات از شمایل یک قربانی قتل نوجوان استفاده کرد که پس از اعتراض خانواده قربانی، حذف شد.

در پاسخ به این شکایت‌ها، Character AI اقدامات ایمنی جدیدی را معرفی کرد، از جمله سیستم‌هایی که برای شناسایی مکالمات مضر و هدایت کاربران به منابع پشتیبانی طراحی شده‌اند. همچنین برخی از ویژگی‌ها را برای کاربران جوان‌تر محدود کرد.

مقامات پنسیلوانیا می‌گویند این شکایت بخشی از تلاش گسترده‌تر برای اجرای قوانین موجود با گسترش ابزارهای هوش مصنوعی است. این ایالت یک کارگروه اجرای هوش مصنوعی و یک سیستم گزارش‌دهی برای تخلفات احتمالی راه‌اندازی کرده است.

شاپیرو در پیشنهاد بودجه 2026-27 خود از قانونگذاران خواست تا قوانین جدیدی را برای ربات‌های همراه هوش مصنوعی تصویب کنند، از جمله تأیید سن و رضایت والدین، حفاظت‌هایی برای نشانه‌گذاری و ارجاع گزارش‌های خودآزاری یا خشونت به مقامات، یادآوری‌های منظم مبنی بر اینکه کاربران با یک شخص واقعی تعامل ندارند، و ممنوعیت محتوای آشکار جنسی یا خشونت‌آمیز مربوط به خردسالان.

شاپیرو در بیانیه‌ای گفت: «شهروندان پنسیلوانیا حق دارند بدانند با چه کسی - یا چه چیزی - به صورت آنلاین تعامل دارند، به ویژه زمانی که صحبت از سلامتی آنهاست.» «ما به شرکت‌ها اجازه نخواهیم داد ابزارهای هوش مصنوعی را به کار گیرند که مردم را به این باور گمراه کند که در حال دریافت مشاوره از یک متخصص پزشکی مجاز هستند.»

رمزارز های محبوب
همین حالا ثبت‌نام کنید، هیچ به‌روزرسانی‌ای را از دست ندهید!