اوپنایآی، یکی از تاثیرگذارترین شرکتهای فعال در حوزه هوش مصنوعی، اعلام کرده که به دنبال جذب مدیر جدیدی برای هدایت بخش آمادگی در برابر ریسکهای نوظهور است. این نقش کلیدی در زمانی تعریف میشود که مدلهای پیشرفته هوش مصنوعی نه تنها فرصتهای تازهای ایجاد کردهاند، بلکه چالشهای پیچیدهای نیز به همراه آوردهاند. اظهارات اخیر سم آلتمن، مدیرعامل اوپنایآی، نشان میدهد که این شرکت نسبت به پیامدهای اجتماعی، امنیتی و روانی فناوریهای خود آگاه است و تلاش دارد با ساختاردهی بهتر، پاسخ موثرتری به این نگرانیها بدهد.
سم آلتمن در پستی در شبکه اجتماعی ایکس اعلام کرد که مدلهای هوش مصنوعی در حال رسیدن به مرحلهای هستند که چالشهای واقعی ایجاد میکنند. او به طور مشخص به تاثیر احتمالی این مدلها بر سلامت روان کاربران اشاره کرد و همچنین هشدار داد که برخی سیستمها آنقدر در حوزه امنیت رایانهای توانمند شدهاند که میتوانند آسیبپذیریهای حیاتی را شناسایی کنند. به گفته آلتمن، هدف اوپنایآی این است که توانمندیهای پیشرفته در اختیار مدافعان امنیت سایبری قرار بگیرد، بدون آنکه ابزارهای مشابه برای حمله و سوءاستفاده مورد استفاده قرار گیرد. این نگاه، نشاندهنده تلاشی برای ایجاد توازن میان پیشرفت فنی و کاهش خطرات احتمالی است.
نقش مدیر آمادگی در ساختار اوپنایآی
طبق آگهی شغلی منتشرشده، مدیر آمادگی مسئول اجرای چارچوب آمادگی اوپنایآی خواهد بود. این چارچوب، رویکرد شرکت برای شناسایی، پایش و آمادهسازی در برابر قابلیتهای پیشرفتهای است که میتوانند خطرات شدید و گسترده ایجاد کنند. اوپنایآی نخستین بار در سال ۲۰۲۳ (۱۴۰۲) از تشکیل تیم آمادگی خبر داد و اعلام کرد که این تیم وظیفه بررسی ریسکهای فاجعهبار را بر عهده دارد. این ریسکها میتوانند از تهدیدهای فوری مانند حملات فیشینگ آغاز شوند و تا سناریوهای پیچیدهتر و نظری مانند تهدیدهای هستهای ادامه پیدا کنند.
تغییرات داخلی و خروج مدیران ایمنی
کمتر از یک سال پس از راهاندازی این تیم، الکساندر مدری، مدیر وقت آمادگی، به نقشی جدید در حوزه استدلال هوش مصنوعی منتقل شد. علاوه بر این، برخی دیگر از مدیران مرتبط با ایمنی و آمادگی نیز اوپنایآی را ترک کردهاند یا به موقعیتهای دیگری خارج از این حوزه منتقل شدهاند. این تغییرات باعث شده توجهها دوباره به ثبات ساختار ایمنی در این شرکت جلب شود.
بهروزرسانی چارچوب آمادگی و فشار رقابتی
اوپنایآی اخیرا چارچوب آمادگی خود را بهروزرسانی کرده و اعلام کرده است که ممکن است در صورت عرضه یک مدل پرریسک توسط رقبا بدون محافظتهای مشابه، الزامات ایمنی خود را تعدیل کند. این موضوع نشان میدهد رقابت فشرده در صنعت هوش مصنوعی میتواند بر تصمیمات ایمنی نیز تاثیر بگذارد.
همزمان با این تحولات، چتباتهای مولد هوش مصنوعی با انتقادهای فزایندهای درباره تاثیر بر سلامت روان مواجه شدهاند. برخی شکایتهای حقوقی مدعی شدهاند که چتجیپیتی باعث تقویت توهم کاربران، افزایش انزوای اجتماعی و حتی در مواردی منجر به خودکشی شده است. اوپنایآی اعلام کرده که همچنان در حال بهبود توانایی سیستمها برای تشخیص نشانههای پریشانی عاطفی و اتصال کاربران به منابع حمایتی واقعی است.
استخدام مدیر جدید آمادگی در اوپنایآی را میتوان نشانهای از جدیتر شدن چالشهای هوش مصنوعی دانست. این اقدام نشان میدهد که با رشد توانایی مدلها، نیاز به نظارت، چارچوبگذاری و تصمیمگیری مسئولانه بیش از گذشته احساس میشود. موفقیت این رویکرد تا حد زیادی به شفافیت، ثبات مدیریتی و توانایی اوپنایآی در ایجاد تعادل میان نوآوری و ایمنی وابسته خواهد بود.
