خالق OpenAI ChatGPT تیم جدیدی را برای بررسی خطرات هوش مصنوعی تشکیل می دهد
OpenAI، خالق ChatGPT، طیف کاملی از خطرات امنیتی مرتبط با هوش مصنوعی را جدی می گیرد و تیم خود را طبق برنامه آماده می کند.
OpenAI، شرکت تحقیقاتی و استقرار هوش مصنوعی (AI) که پشت ChatGPT قرار دارد، ابتکار جدیدی را برای ارزیابی طیف وسیعی از خطرات مرتبط با هوش مصنوعی راهاندازی کرده است، این شرکت در 25 اکتبر اعلام کرد که OpenAI در حال ایجاد تیم جدیدی برای ردیابی، ارزیابی، پیشبینی و محافظت در برابر خطرات فاجعه بار احتمالی ناشی از هوش مصنوعی.
بخش جدید OpenAI، به نام Readiness، به طور خاص بر روی تهدیدات بالقوه هوش مصنوعی مرتبط با تهدیدات شیمیایی، بیولوژیکی، رادیولوژیکی و هسته ای، و همچنین متقاعدسازی فردی، امنیت سایبری، و تکثیر و سازگاری مستقل تمرکز خواهد کرد. تیم آمادگی، به رهبری الکساندر مادری، سعی خواهد کرد به سؤالاتی پاسخ دهد، مانند اینکه سیستمهای هوش مصنوعی در هنگام سوء استفاده چقدر خطرناک هستند و اینکه آیا عوامل مخرب میتوانند وزنهای مدل هوش مصنوعی سرقت شده را به کار گیرند یا خیر.
OpenAI نوشت: ما بر این باوریم که مدلهای هوش مصنوعی مرزی که فراتر از قابلیتهای پیشرفتهترین مدلهای موجود هستند، پتانسیل سودمندی برای تمام بشریت را دارند، و اضافه کرد که طیف کاملی از خطرات ایمنی مرتبط با هوش مصنوعی را از From Systems جدی میگیریم. دورترین مرزهای فراهوشی برای حمایت از ایمنی سیستمهای هوش مصنوعی بسیار توانمند، ما در حال توسعه رویکرد خود برای آمادگی در برابر خطرات فاجعهبار هستیم.
طبق این پست وبلاگ، OpenAI اکنون به دنبال استعدادهایی با تخصص های فنی متنوع برای تیم آمادگی جدید خود است و علاوه بر این، این شرکت در حال راه اندازی یک چالش آمادگی هوش مصنوعی برای جلوگیری از سوء استفاده فاجعه آمیز و 25000 دلار اعتبار API برای 10 پیشنهاد برتر خود است.
OpenAI قبلاً گفته بود که قصد دارد در ژوئیه 2023 تیم جدیدی را تشکیل دهد که به مقابله با تهدیدات بالقوه هوش مصنوعی اختصاص دارد. خطرات بالقوه مرتبط با هوش مصنوعی به طور مکرر برجسته شده است، همراه با ترس از اینکه هوش مصنوعی با وجود اذعان به این خطرات، پتانسیل این را دارد که از همه افراد باهوش تر شود. شرکتهایی مانند OpenAI در سالهای اخیر فعالانه در حال توسعه فناوریهای هوش مصنوعی جدید بودهاند که به نوبه خود نگرانیهای بیشتری را ایجاد کرده است.
در ماه مه 2023، سازمان غیرانتفاعی مرکز ایمنی هوش مصنوعی نامه ای سرگشاده در مورد خطر هوش مصنوعی منتشر کرد و از جامعه خواست تا خطرات انقراض هوش مصنوعی را به عنوان یک اولویت جهانی، در میان سایر خطرات اجتماعی مانند همه گیری ها و جنگ هسته ای کاهش دهد.