هوش مصنوعی جمینای برای کودکان و نوجوانان «پرخطر» شناخته شد
سازمان غیرانتفاعی Common Sense Media که بر ایمنی کودکان در حوزه رسانه و فناوری تمرکز دارد، روز جمعه ارزیابی تازهای از محصولات هوش مصنوعی Google Gemini منتشر کرد.
در این گزارش، اگرچه تأکید شده که Gemini بهوضوح به کودکان میگوید یک کامپیوتر است و نه یک دوست (موضوعی که به گفته کارشناسان میتواند از بروز توهم و مشکلات روانی در افراد آسیبپذیر جلوگیری کند)، اما در عین حال ضعفهای قابلتوجهی در سایر بخشها مشاهده شده است.
بهطور خاص، Common Sense اعلام کرد نسخههای «زیر ۱۳ سال» و «تجربه نوجوان» در واقع همان نسخه بزرگسالان Gemini هستند که تنها با چند فیلتر ایمنی تکمیل شدهاند. این سازمان تأکید کرد برای اینکه هوش مصنوعی واقعاً برای کودکان ایمن باشد، باید از ابتدا با محوریت امنیت و نیازهای آنان طراحی شود.
تحلیل این سازمان نشان داد Gemini همچنان قادر است محتوای «نامناسب و ناایمن» را در اختیار کودکان قرار دهد؛ از جمله اطلاعات مرتبط با مسائل جنسی، مواد مخدر، الکل و حتی توصیههای آسیبزا درباره سلامت روان. این بخش نگرانی ویژهای برای والدین ایجاد کرده، چرا که در ماههای اخیر نقش هوش مصنوعی در برخی موارد خودکشی نوجوانان گزارش شده است.
این گزارش در حالی منتشر شده که شایعاتی از همکاری احتمالی اپل با گوگل برای استفاده از Gemini در نسخه جدید Siri شنیده میشود؛ موضوعی که میتواند مخاطبان نوجوان بیشتری را در معرض خطر قرار دهد، مگر اینکه اپل تمهیدات ایمنی جدیدی بیندیشد.
در نهایت، Common Sense Media هر دو نسخه کودکان و نوجوانان Gemini را در دستهبندی «پرخطر» قرار داد. راب تورنی، مدیر برنامههای هوش مصنوعی این سازمان، گفت:
«Gemini در برخی موارد پایهای عملکرد خوبی دارد، اما در جزئیات دچار لغزش است. یک پلتفرم هوش مصنوعی برای کودکان باید با در نظر گرفتن نیازهای هر سن طراحی شود، نه اینکه نسخه تغییر یافتهای از محصول بزرگسالان باشد.»
از سوی دیگر، گوگل در واکنش به این گزارش اعلام کرد که سیاستها و ابزارهای حفاظتی مشخصی برای کاربران زیر ۱۸ سال دارد و همواره با کارشناسان بیرونی همکاری میکند تا ایمنی سیستم را افزایش دهد. این شرکت با وجود اذعان به برخی نقصها، گفت که تدابیر جدیدی برای رفع مشکلات اعمال کرده است.
Common Sense Media پیشتر نیز خدمات هوش مصنوعی دیگر شرکتها از جمله OpenAI، Perplexity، Claude، Meta AI و Character.AI را ارزیابی کرده بود؛ نتایج نشان میداد Meta AI و Character.AI «غیرقابلقبول»، Perplexity «پرخطر»، ChatGPT «متوسط» و Claude (ویژه کاربران بالای ۱۸ سال) «کمخطر» ارزیابی شدهاند.