هوش مصنوعی جمینای برای کودکان و نوجوانان «پرخطر» شناخته شد

تیم پلازا - انتشار: 16 شهریور 1404 09:30
ز.م مطالعه: 2 دقیقه
-

سازمان غیرانتفاعی Common Sense Media که بر ایمنی کودکان در حوزه رسانه و فناوری تمرکز دارد، روز جمعه ارزیابی تازه‌ای از محصولات هوش مصنوعی Google Gemini منتشر کرد.

در این گزارش، اگرچه تأکید شده که Gemini به‌وضوح به کودکان می‌گوید یک کامپیوتر است و نه یک دوست (موضوعی که به گفته کارشناسان می‌تواند از بروز توهم و مشکلات روانی در افراد آسیب‌پذیر جلوگیری کند)، اما در عین حال ضعف‌های قابل‌توجهی در سایر بخش‌ها مشاهده شده است.

به‌طور خاص، Common Sense اعلام کرد نسخه‌های «زیر ۱۳ سال» و «تجربه نوجوان» در واقع همان نسخه بزرگسالان Gemini هستند که تنها با چند فیلتر ایمنی تکمیل شده‌اند. این سازمان تأکید کرد برای اینکه هوش مصنوعی واقعاً برای کودکان ایمن باشد، باید از ابتدا با محوریت امنیت و نیازهای آنان طراحی شود.

تحلیل این سازمان نشان داد Gemini همچنان قادر است محتوای «نامناسب و ناایمن» را در اختیار کودکان قرار دهد؛ از جمله اطلاعات مرتبط با مسائل جنسی، مواد مخدر، الکل و حتی توصیه‌های آسیب‌زا درباره سلامت روان. این بخش نگرانی ویژه‌ای برای والدین ایجاد کرده، چرا که در ماه‌های اخیر نقش هوش مصنوعی در برخی موارد خودکشی نوجوانان گزارش شده است.

این گزارش در حالی منتشر شده که شایعاتی از همکاری احتمالی اپل با گوگل برای استفاده از Gemini در نسخه جدید Siri شنیده می‌شود؛ موضوعی که می‌تواند مخاطبان نوجوان بیشتری را در معرض خطر قرار دهد، مگر اینکه اپل تمهیدات ایمنی جدیدی بیندیشد.

در نهایت، Common Sense Media هر دو نسخه کودکان و نوجوانان Gemini را در دسته‌بندی «پرخطر» قرار داد. راب تورنی، مدیر برنامه‌های هوش مصنوعی این سازمان، گفت:

«Gemini در برخی موارد پایه‌ای عملکرد خوبی دارد، اما در جزئیات دچار لغزش است. یک پلتفرم هوش مصنوعی برای کودکان باید با در نظر گرفتن نیازهای هر سن طراحی شود، نه اینکه نسخه تغییر یافته‌ای از محصول بزرگسالان باشد.»

از سوی دیگر، گوگل در واکنش به این گزارش اعلام کرد که سیاست‌ها و ابزارهای حفاظتی مشخصی برای کاربران زیر ۱۸ سال دارد و همواره با کارشناسان بیرونی همکاری می‌کند تا ایمنی سیستم را افزایش دهد. این شرکت با وجود اذعان به برخی نقص‌ها، گفت که تدابیر جدیدی برای رفع مشکلات اعمال کرده است.

Common Sense Media پیش‌تر نیز خدمات هوش مصنوعی دیگر شرکت‌ها از جمله OpenAI، Perplexity، Claude، Meta AI و Character.AI را ارزیابی کرده بود؛ نتایج نشان می‌داد Meta AI و Character.AI «غیرقابل‌قبول»، Perplexity «پرخطر»، ChatGPT «متوسط» و Claude (ویژه کاربران بالای ۱۸ سال) «کم‌خطر» ارزیابی شده‌اند.

دیدگاه های کاربران
هیچ دیدگاهی موجود نیست