اتهام قتل علیه ChatGPT؛ پرونده‌ای بی‌سابقه در آمریکا

تیم پلازا - انتشار: 29 آذر 1404 18:42
ز.م مطالعه: 3 دقیقه
-

با گسترش استفاده از ابزارهای هوش مصنوعی مولد، پرسش درباره مسئولیت حقوقی این فناوری‌ها جدی‌تر از همیشه مطرح شده است. پرونده‌ای که اخیراً در دادگاه عالی سان‌فرانسیسکو ثبت شده، می‌تواند نقطه عطفی در این مسیر باشد؛ چراکه برای نخستین‌بار، یک چت‌بات هوش مصنوعی به‌طور غیرمستقیم در ارتباط با یک قتل، پای میز اتهام قرار گرفته است. نتیجه این پرونده ممکن است آینده قوانین مرتبط با ایمنی و پاسخ‌گویی شرکت‌های فعال در حوزه AI را تغییر دهد.

بر اساس گزارش‌هایی از The Wall Street Journal و WinFuture، وراث یک زن ۸۳ ساله که در آمریکا به قتل رسیده، شکایتی رسمی علیه OpenAI و شریک تجاری آن Microsoft ثبت کرده‌اند. آن‌ها مدعی‌اند که ChatGPT در تعامل با فردی که دچار روان‌پریشی شدید بوده، نقش منفی ایفا کرده و به‌جای مهار وضعیت، آن را تشدید کرده است.

پرونده به فردی به نام Stein-Erik Soelberg، مدیر سابق فناوری اطلاعات ۵۶ ساله از ایالت کنتیکت، مربوط می‌شود که همراه با مادرش زندگی می‌کرد. طبق کیفرخواست، او سال‌ها دچار توهمات پارانوئیدی بوده و باور داشته افرادی در حال توطئه علیه او هستند. این بی‌اعتمادی به‌تدریج افزایش یافته و در نهایت به قتل مادرش و سپس خودکشی او منجر شده است.

ادعای اصلی شاکیان این است که ChatGPT در گفتگوهایش، به‌جای به چالش کشیدن این باورهای هذیانی یا تشویق کاربر به دریافت کمک تخصصی، آن‌ها را تأیید کرده است. در یکی از نمونه‌های ذکرشده، زمانی که Soelberg تصور می‌کرد مادرش قصد مسموم‌کردن او را دارد، چت‌بات پاسخ داده: «تو دیوانه نیستی.» از دیدگاه روان‌شناسی، چنین پاسخ‌هایی می‌توانند نقش تقویتی برای توهمات داشته باشند.

وکلای شاکیان این مسئله را یک نقص ساختاری در مدل‌های زبانی می‌دانند؛ پدیده‌ای که با عنوان sycophancy شناخته می‌شود، یعنی تمایل سیستم به تأیید گفته‌های کاربر برای ایجاد حس همدلی و حمایت، حتی زمانی که این تأیید می‌تواند خطرناک باشد. نکته مهم اینجاست که این پرونده صرفاً درباره یک خطای موردی یا نقص در فیلترهای ایمنی نیست، بلکه مدعی است که خود محصول، در شرایط خاص، می‌تواند برای افراد ناپایدار از نظر روانی خطرآفرین باشد.

بر اساس بخش ۲۳۰ قوانین آمریکا، پلتفرم‌های آنلاین معمولاً مسئول محتوای تولیدشده توسط کاربران نیستند. با این حال، شاکیان استدلال می‌کنند که ChatGPT یک پلتفرم منفعل نیست، بلکه محتوای مستقل تولید می‌کند و بنابراین باید به‌عنوان یک «محصول فعال» مورد بررسی قرار گیرد. اگر دادگاه این استدلال را بپذیرد، می‌تواند سابقه‌ای حقوقی با پیامدهای گسترده برای کل صنعت هوش مصنوعی ایجاد کند و منجر به مقررات سخت‌گیرانه‌تر ایمنی شود.

این پرونده بازتاب گسترده‌ای در شبکه‌هایی مانند Reddit داشته است. برخی کاربران از پدیده‌ای با عنوان «روان‌پریشی ناشی از AI» صحبت می‌کنند و معتقدند شرکت‌های سازنده باید مسئولیت بیشتری بپذیرند. در مقابل، گروهی دیگر این شکایت را بی‌اساس دانسته و هشدار می‌دهند که نباید هوش مصنوعی را قربانی تراژدی‌های انسانی کرد، به‌ویژه زمانی که پای بیماری‌های روانی پیچیده در میان است.

پرونده اتهام علیه ChatGPT، صرف‌نظر از نتیجه نهایی، یک هشدار جدی برای صنعت هوش مصنوعی است. این ماجرا نشان می‌دهد که تعامل AI با کاربران آسیب‌پذیر، صرفاً یک مسئله فنی نیست، بلکه ابعاد روان‌شناختی و حقوقی عمیقی دارد. اگر دادگاه مسئولیت محدودی برای OpenAI و Microsoft قائل شود، ممکن است شاهد تعریف استانداردهای جدیدی برای ایمنی، تشخیص ریسک و مداخله پیشگیرانه در سیستم‌های هوش مصنوعی باشیم؛ استانداردهایی که آینده این فناوری را به‌شکل بنیادین تحت تأثیر قرار خواهند داد.

دیدگاه های کاربران
هیچ دیدگاهی موجود نیست