نتایج یک پژوهش جدید نشان میدهد که مدل زبانی GPT-5 توسعهیافته توسط شرکت اوپنایآی (OpenAI) در برخی آزمونهای حقوقی عملکردی دقیقتر از قضات انسانی داشته است. با این حال، پژوهشگران تأکید میکنند که این موضوع به معنای آمادگی کامل هوش مصنوعی برای صدور حکم قضایی نیست.
این تحقیق توسط اریک پازنر (Eric Posner)، استاد حقوق دانشگاه دانشگاه شیکاگو (University of Chicago)، و پژوهشگر همکارش شیوم ساران (Shivam Saran) انجام شده و ادامهای بر مطالعات قبلی آنها درباره نقش هوش مصنوعی در فرآیندهای قضایی محسوب میشود.
از GPT-4o تا GPT-5؛ مسیر پیشرفت قضاوت ماشینی
در پژوهشهای پیشین، این تیم از مدل GPT-4o برای بررسی یک پرونده جنایت جنگی استفاده کرده بود. نتایج آن مطالعه نشان داد که هوش مصنوعی بیشتر شبیه دانشجویان حقوق عمل میکند و بهجای توجه به عوامل احساسی یا اجتماعی، بهطور سختگیرانه به متن قانون پایبند است.
در تحقیق جدید، تمرکز اصلی روی GPT-5 قرار گرفت؛ مدلی که برای بازسازی یک آزمایش قدیمی با حضور ۶۱ قاضی فدرال آمریکا مورد استفاده قرار گرفت. در این آزمون، شرکتکنندگان باید درباره قوانین قابل اجرا در یک پرونده تصادف رانندگی تصمیمگیری میکردند.
عملکرد کامل GPT-5 در آزمون حقوقی
بر اساس نتایج منتشرشده، GPT-5 در تمامی موارد توانست قانون درست را تشخیص دهد و هیچ نشانهای از خطای منطقی یا توهم اطلاعاتی در تحلیلهای خود نشان ندهد. پژوهشگران اعلام کردند که این مدل در ۱۰۰ درصد موارد مطابق قانون عمل کرده است؛ آماری که بهمراتب بالاتر از عملکرد قضات انسانی با نرخ ۵۲ درصد محسوب میشود.
در کنار GPT-5، تنها مدلی که عملکرد مشابهی داشت، نسخه Gemini 3 Pro متعلق به شرکت گوگل (Google) بود. سایر مدلهای هوش مصنوعی، نتایج ضعیفتری در این آزمون ثبت کردند.
آیا هوش مصنوعی جایگزین قاضی میشود؟
نویسندگان این پژوهش معتقدند که نباید این نتایج را بهمعنای برتری مطلق ماشینها تفسیر کرد. آنها توضیح میدهند که قضات انسانی در بسیاری از پروندهها، زمانی که قانون بهصورت «استاندارد» و نه «الزامآور» تعریف شده، از اختیار خود برای در نظر گرفتن شرایط اخلاقی و اجتماعی استفاده میکنند.
به گفته پازنر و ساران، همین انعطافپذیری میتواند نقطه قوت قضاوت انسانی باشد؛ زیرا قاضی قادر است در موارد خاص، از اجرای خشک قانون فاصله بگیرد تا از صدور احکام ناعادلانه جلوگیری شود.
تجربههای آزمایشی و نگرانیهای آینده
سال گذشته، یک دادگاه آزمایشی در دانشگاه کارولینای شمالی در چپل هیل (University of North Carolina at Chapel Hill School of Law) برگزار شد تا نقش هوش مصنوعی در روند دادرسی مورد بررسی قرار گیرد. این اقدام نشان میدهد که استفاده از AI در نظام قضایی، بهطور جدی در حال آزمایش و ارزیابی است.
با وجود موفقیت GPT-5، پژوهشگران هشدار میدهند که مدلهای زبانی بهشدت تحت تأثیر دادههای آموزشی و تنظیمات داخلی هستند و میتوان آنها را به سمت نتایج خاص هدایت کرد. به همین دلیل، واگذاری کامل قضاوت به سیستمهای هوشمند، همچنان با تردیدهای جدی همراه است.
جمعبندی
مطالعات جدید نشان میدهد که GPT-5 در پایبندی به قوانین، حتی از بسیاری از قضات انسانی دقیقتر عمل میکند. با این حال، کارشناسان معتقدند عدالت تنها به اجرای بیچونوچرای قانون محدود نمیشود و قضاوت انسانی، با در نظر گرفتن ابعاد اخلاقی و اجتماعی، همچنان نقشی کلیدی در نظام حقوقی دارد.
