با گسترش استفاده از ابزارهای هوش مصنوعی مولد، پرسش درباره مسئولیت حقوقی این فناوریها جدیتر از همیشه مطرح شده است. پروندهای که اخیراً در دادگاه عالی سانفرانسیسکو ثبت شده، میتواند نقطه عطفی در این مسیر باشد؛ چراکه برای نخستینبار، یک چتبات هوش مصنوعی بهطور غیرمستقیم در ارتباط با یک قتل، پای میز اتهام قرار گرفته است. نتیجه این پرونده ممکن است آینده قوانین مرتبط با ایمنی و پاسخگویی شرکتهای فعال در حوزه AI را تغییر دهد.
بر اساس گزارشهایی از The Wall Street Journal و WinFuture، وراث یک زن ۸۳ ساله که در آمریکا به قتل رسیده، شکایتی رسمی علیه OpenAI و شریک تجاری آن Microsoft ثبت کردهاند. آنها مدعیاند که ChatGPT در تعامل با فردی که دچار روانپریشی شدید بوده، نقش منفی ایفا کرده و بهجای مهار وضعیت، آن را تشدید کرده است.
پرونده به فردی به نام Stein-Erik Soelberg، مدیر سابق فناوری اطلاعات ۵۶ ساله از ایالت کنتیکت، مربوط میشود که همراه با مادرش زندگی میکرد. طبق کیفرخواست، او سالها دچار توهمات پارانوئیدی بوده و باور داشته افرادی در حال توطئه علیه او هستند. این بیاعتمادی بهتدریج افزایش یافته و در نهایت به قتل مادرش و سپس خودکشی او منجر شده است.
ادعای اصلی شاکیان این است که ChatGPT در گفتگوهایش، بهجای به چالش کشیدن این باورهای هذیانی یا تشویق کاربر به دریافت کمک تخصصی، آنها را تأیید کرده است. در یکی از نمونههای ذکرشده، زمانی که Soelberg تصور میکرد مادرش قصد مسمومکردن او را دارد، چتبات پاسخ داده: «تو دیوانه نیستی.» از دیدگاه روانشناسی، چنین پاسخهایی میتوانند نقش تقویتی برای توهمات داشته باشند.
وکلای شاکیان این مسئله را یک نقص ساختاری در مدلهای زبانی میدانند؛ پدیدهای که با عنوان sycophancy شناخته میشود، یعنی تمایل سیستم به تأیید گفتههای کاربر برای ایجاد حس همدلی و حمایت، حتی زمانی که این تأیید میتواند خطرناک باشد. نکته مهم اینجاست که این پرونده صرفاً درباره یک خطای موردی یا نقص در فیلترهای ایمنی نیست، بلکه مدعی است که خود محصول، در شرایط خاص، میتواند برای افراد ناپایدار از نظر روانی خطرآفرین باشد.
بر اساس بخش ۲۳۰ قوانین آمریکا، پلتفرمهای آنلاین معمولاً مسئول محتوای تولیدشده توسط کاربران نیستند. با این حال، شاکیان استدلال میکنند که ChatGPT یک پلتفرم منفعل نیست، بلکه محتوای مستقل تولید میکند و بنابراین باید بهعنوان یک «محصول فعال» مورد بررسی قرار گیرد. اگر دادگاه این استدلال را بپذیرد، میتواند سابقهای حقوقی با پیامدهای گسترده برای کل صنعت هوش مصنوعی ایجاد کند و منجر به مقررات سختگیرانهتر ایمنی شود.
این پرونده بازتاب گستردهای در شبکههایی مانند Reddit داشته است. برخی کاربران از پدیدهای با عنوان «روانپریشی ناشی از AI» صحبت میکنند و معتقدند شرکتهای سازنده باید مسئولیت بیشتری بپذیرند. در مقابل، گروهی دیگر این شکایت را بیاساس دانسته و هشدار میدهند که نباید هوش مصنوعی را قربانی تراژدیهای انسانی کرد، بهویژه زمانی که پای بیماریهای روانی پیچیده در میان است.
پرونده اتهام علیه ChatGPT، صرفنظر از نتیجه نهایی، یک هشدار جدی برای صنعت هوش مصنوعی است. این ماجرا نشان میدهد که تعامل AI با کاربران آسیبپذیر، صرفاً یک مسئله فنی نیست، بلکه ابعاد روانشناختی و حقوقی عمیقی دارد. اگر دادگاه مسئولیت محدودی برای OpenAI و Microsoft قائل شود، ممکن است شاهد تعریف استانداردهای جدیدی برای ایمنی، تشخیص ریسک و مداخله پیشگیرانه در سیستمهای هوش مصنوعی باشیم؛ استانداردهایی که آینده این فناوری را بهشکل بنیادین تحت تأثیر قرار خواهند داد.
