تغییرات تیم ایمنی اوپن‌ای‌آی هم‌زمان با افزایش نگرانی‌ها در مورد خطرات هوش مصنوعی

تیم پلازا - انتشار: 7 دی 1404 19:07
ز.م مطالعه: 3 دقیقه
-

اوپن‌ای‌آی، یکی از تاثیرگذارترین شرکت‌های فعال در حوزه هوش مصنوعی، اعلام کرده که به دنبال جذب مدیر جدیدی برای هدایت بخش آمادگی در برابر ریسک‌های نوظهور است. این نقش کلیدی در زمانی تعریف می‌شود که مدل‌های پیشرفته هوش مصنوعی نه تنها فرصت‌های تازه‌ای ایجاد کرده‌اند، بلکه چالش‌های پیچیده‌ای نیز به همراه آورده‌اند. اظهارات اخیر سم آلتمن، مدیرعامل اوپن‌ای‌آی، نشان می‌دهد که این شرکت نسبت به پیامدهای اجتماعی، امنیتی و روانی فناوری‌های خود آگاه است و تلاش دارد با ساختاردهی بهتر، پاسخ موثرتری به این نگرانی‌ها بدهد.

سم آلتمن در پستی در شبکه اجتماعی ایکس اعلام کرد که مدل‌های هوش مصنوعی در حال رسیدن به مرحله‌ای هستند که چالش‌های واقعی ایجاد می‌کنند. او به طور مشخص به تاثیر احتمالی این مدل‌ها بر سلامت روان کاربران اشاره کرد و همچنین هشدار داد که برخی سیستم‌ها آن‌قدر در حوزه امنیت رایانه‌ای توانمند شده‌اند که می‌توانند آسیب‌پذیری‌های حیاتی را شناسایی کنند. به گفته آلتمن، هدف اوپن‌ای‌آی این است که توانمندی‌های پیشرفته در اختیار مدافعان امنیت سایبری قرار بگیرد، بدون آنکه ابزارهای مشابه برای حمله و سوءاستفاده مورد استفاده قرار گیرد. این نگاه، نشان‌دهنده تلاشی برای ایجاد توازن میان پیشرفت فنی و کاهش خطرات احتمالی است.

نقش مدیر آمادگی در ساختار اوپن‌ای‌آی

طبق آگهی شغلی منتشرشده، مدیر آمادگی مسئول اجرای چارچوب آمادگی اوپن‌ای‌آی خواهد بود. این چارچوب، رویکرد شرکت برای شناسایی، پایش و آماده‌سازی در برابر قابلیت‌های پیشرفته‌ای است که می‌توانند خطرات شدید و گسترده ایجاد کنند. اوپن‌ای‌آی نخستین بار در سال ۲۰۲۳ (۱۴۰۲) از تشکیل تیم آمادگی خبر داد و اعلام کرد که این تیم وظیفه بررسی ریسک‌های فاجعه‌بار را بر عهده دارد. این ریسک‌ها می‌توانند از تهدیدهای فوری مانند حملات فیشینگ آغاز شوند و تا سناریوهای پیچیده‌تر و نظری مانند تهدیدهای هسته‌ای ادامه پیدا کنند.

تغییرات تیم ایمنی اوپن‌ای‌آی همزمان با افزایش نگرانی‌ها در مورد خطرات هوش مصنوعی

تغییرات داخلی و خروج مدیران ایمنی

کمتر از یک سال پس از راه‌اندازی این تیم، الکساندر مدری، مدیر وقت آمادگی، به نقشی جدید در حوزه استدلال هوش مصنوعی منتقل شد. علاوه بر این، برخی دیگر از مدیران مرتبط با ایمنی و آمادگی نیز اوپن‌ای‌آی را ترک کرده‌اند یا به موقعیت‌های دیگری خارج از این حوزه منتقل شده‌اند. این تغییرات باعث شده توجه‌ها دوباره به ثبات ساختار ایمنی در این شرکت جلب شود.

به‌روزرسانی چارچوب آمادگی و فشار رقابتی

اوپن‌ای‌آی اخیرا چارچوب آمادگی خود را به‌روزرسانی کرده و اعلام کرده است که ممکن است در صورت عرضه یک مدل پرریسک توسط رقبا بدون محافظت‌های مشابه، الزامات ایمنی خود را تعدیل کند. این موضوع نشان می‌دهد رقابت فشرده در صنعت هوش مصنوعی می‌تواند بر تصمیمات ایمنی نیز تاثیر بگذارد.

همزمان با این تحولات، چت‌بات‌های مولد هوش مصنوعی با انتقادهای فزاینده‌ای درباره تاثیر بر سلامت روان مواجه شده‌اند. برخی شکایت‌های حقوقی مدعی شده‌اند که چت‌جی‌پی‌تی باعث تقویت توهم کاربران، افزایش انزوای اجتماعی و حتی در مواردی منجر به خودکشی شده است. اوپن‌ای‌آی اعلام کرده که همچنان در حال بهبود توانایی سیستم‌ها برای تشخیص نشانه‌های پریشانی عاطفی و اتصال کاربران به منابع حمایتی واقعی است.

استخدام مدیر جدید آمادگی در اوپن‌ای‌آی را می‌توان نشانه‌ای از جدی‌تر شدن چالش‌های هوش مصنوعی دانست. این اقدام نشان می‌دهد که با رشد توانایی مدل‌ها، نیاز به نظارت، چارچوب‌گذاری و تصمیم‌گیری مسئولانه بیش از گذشته احساس می‌شود. موفقیت این رویکرد تا حد زیادی به شفافیت، ثبات مدیریتی و توانایی اوپن‌ای‌آی در ایجاد تعادل میان نوآوری و ایمنی وابسته خواهد بود.

دیدگاه های کاربران
هیچ دیدگاهی موجود نیست