شکایت والدین از OpenAI به دلیل نقش چتجیپیتی در خودکشی پسرشان
طبق گزارشی از نیویورک تایمز، والدین نوجوانی ۱۶ ساله به نام آدام رین از شرکت OpenAI شکایت کردهاند و این پرونده به عنوان نخستین دادخواست مرگ ناشی از سهلانگاری علیه سازندگان چتجیپیتی شناخته میشود.
براساس اطلاعات منتشر شده، آدام ماهها پیش از مرگ خود از چتجیپیتی برای صحبت درباره برنامههایش جهت پایان دادن به زندگی استفاده کرده بود. اگرچه بسیاری از چتباتهای هوش مصنوعی در مواجهه با موضوعات مربوط به آسیبرسانی به خود یا دیگران بهطور پیشفرض فعال میشوند و کاربران را به تماس با مراکز مشاوره یا خطهای کمک تشویق میکنند، تحقیقات نشان داده که این محافظتها بینقص نیستند.
در مورد آدام، او از نسخه پولی ChatGPT-4o استفاده میکرد. چتبات در بسیاری مواقع او را به کمک گرفتن تشویق میکرد، اما آدام توانست با گفتن اینکه این پرسشها مربوط به داستانی خیالی است که در حال نوشتن آن است، از این محدودیتها عبور کند. OpenAI در وبلاگ رسمی خود به این مسئله واکنش نشان داده و نوشته است:
«ما احساس مسئولیت عمیقی در قبال کمک به افرادی داریم که بیش از همه به آن نیاز دارند و به طور مداوم در حال بهبود نحوه پاسخگویی مدلها در موقعیتهای حساس هستیم.»
با این حال، شرکت پذیرفته که محدودیتهایی در آموزشهای ایمنی وجود دارد. به گفته اپنایآی:
«محافظتهای ما در مکالمات کوتاه و رایج عملکرد بهتری دارند، اما در گفتوگوهای طولانیتر این محافظتها میتوانند کاهش یابند و بخشی از آموزشهای ایمنی مدل تضعیف شود.»
این مشکل تنها مختص OpenAI نیست. شرکت Character.AI نیز به دلیل نقشی مشابه در خودکشی یک نوجوان دیگر با شکایت حقوقی مواجه است. همچنین مواردی از توهمات ناشی از هوش مصنوعی گزارش شده که نشان میدهد فناوریهای مبتنی بر مدلهای زبانی هنوز در تشخیص موقعیتهای بحرانی و جلوگیری از آسیبرسانی، عملکرد کامل و قابل اعتماد ندارند.
این پرونده نقطه عطفی در بحث مسئولیت حقوقی شرکتهای هوش مصنوعی محسوب میشود. هرچند اپنایآی وعده بهبود سیستمهای ایمنی را داده، اما این اتفاق نشان میدهد که فناوریهای هوش مصنوعی بدون چارچوبهای دقیق اخلاقی و نظارتی میتوانند تبعات جدی انسانی داشته باشند. احتمالاً در آینده شاهد افزایش فشار قانونی و اجتماعی برای اعمال نظارت سختگیرانهتر بر چتباتها خواهیم بود.