موسسه ایمنی هوش مصنوعی بریتانیا در حال سرمایه گذاری در یک مکان جدید در ایالات متحده است
بریتانیا در حال گسترش موسسه ایمنی هوش مصنوعی خود در سانفرانسیسکو است تا از استعدادهای فنی منطقه خلیج بهره ببرد و مشارکت های ایمنی جهانی هوش مصنوعی را تقویت کند.
موسسه ایمنی هوش مصنوعی بریتانیا قرار است با یک مکان جدید در ایالات متحده در سطح بین المللی گسترش یابد. در 20 مه، وزیر فناوری بریتانیا، میشل دانل، اعلام کرد که مؤسسه اولین دفتر خارج از کشور خود را در تابستان امسال در سانفرانسیسکو افتتاح خواهد کرد، انتخاب استراتژیک یک دفتر در سانفرانسیسکو به بریتانیا اجازه داد تا از ثروت استعدادهای فناوری در منطقه خلیج استفاده کند. به همراه یکی از بزرگترین آزمایشگاه های هوش مصنوعی (AI) واقع در لندن، در این اطلاعیه آمده است که بازیکنان در ایالات متحده برای تقویت امنیت جهانی هوش مصنوعی برای منافع عمومی.
دانلان گفت که شعبه لندن مؤسسه ایمنی هوش مصنوعی در حال حاضر تیمی متشکل از 30 نفر دارد که در مسیر توسعه و کسب تخصص بیشتر، به ویژه در ارزیابی ریسک برای مدلهای هوش مصنوعی مرزی هستند، و افزود که این پیشرفت نشان دهنده رهبری و دیدگاه بریتانیا برای هوش مصنوعی است. ایمنی در عمل است، این لحظه مهمی در توانایی بریتانیا برای کشف خطرات و پتانسیل هوش مصنوعی از منظر جهانی است، مشارکت ما با ایالات متحده را تقویت می کند و راه را برای سایر کشورها هموار می کند تا از تجربیات ما بهره مند شوند. جهان، این اجلاس اولین در نوع خود خواهد بود که بر ایمنی هوش مصنوعی در مقیاس جهانی پس از اجلاس برجسته ایمنی هوش مصنوعی بریتانیا که در نوامبر 2023 در لندن برگزار شد، تمرکز خواهد کرد. با صداهای پیشرو در فضای هوش مصنوعی، از جمله رئیس مایکروسافت، مدیر عامل OpenAI، برد اسمیت، مدیر عامل گوگل، سم آلتمن و ایلان ماسک.
در این آخرین اطلاعیه، بریتانیا همچنین اعلام کرد که مجموعهای از آخرین نتایج تست ایمنی این موسسه را که بر روی پنج مدل هوش مصنوعی در دسترس عموم انجام شده است، منتشر میکند و مدلها را شناسایی نمیکند و میگوید که نتایج بر اساس یافتهها است نه اینکه آنها را ایمن معرفی کند یا ناامن، ارائه تصویری فوری از قابلیتهای مدلها، برخی از یافتهها شامل این بود که چندین مدل قادر به مقابله با چالشهای امنیت سایبری بودند، اگرچه برخی دیگر با مدلهای پیشرفتهتر دست و پنجه نرم میکردند، دانش دکتری در شیمی و زیستشناسی داشتند، به این نتیجه رسیدند که همه مدلهای آزمایششده در برابر جیلبریک های اولیه بسیار آسیب پذیر هستند و مدل های آزمایش شده قادر به انجام کارهای پیچیده و زمان بر بدون نظارت انسان نیستند.
ایان هوگارت، رئیس موسسه، گفت که این ارزیابیها به ارزیابی تجربی قابلیتهای مدل کمک میکند، ایمنی هوش مصنوعی هنوز یک زمینه بسیار جوان و نوظهور است، این نتایج تنها بخش کوچکی از رویکرد ارزیابی است که AISI در حال توسعه است.