با نزدیکتر شدن اتحادیه اروپا به یک قرارداد نظارتی، مقررات هوش مصنوعی در کانون توجه قرار گرفته است
نگرانیها در مورد سوء استفاده احتمالی از هوش مصنوعی، ایالات متحده، بریتانیا، چین و G7 را بر آن داشته تا مقررات این فناوری را افزایش دهند، اما اروپا در حال حاضر پیشرو است.
رشد توسعه هوش مصنوعی مولد (AI) دولتهای سراسر جهان را بر آن داشته است که برای تنظیم فناوریهای نوظهور عجله کنند، روندی که همزمان با تلاشهای اتحادیه اروپا برای اجرای اولین مجموعه جامع قوانین هوش مصنوعی در جهان، قانون هوش مصنوعی اتحادیه اروپا است. بر اساس گزارشها، پس از چندین تاخیر، مذاکرهکنندگان بر روی مجموعهای از کنترلها برای ابزارهای هوش مصنوعی مانند ChatGPT OpenAI و Bard Google در 7 دسامبر توافق کردند.
نگرانیها در مورد سوء استفاده احتمالی از این فناوری همچنین ایالات متحده، بریتانیا، چین و سایر کشورهای G7 را بر آن داشت تا کار خود را برای تنظیم مقررات هوش مصنوعی افزایش دهند و دولت استرالیا در ژوئن یک مشاوره هشت هفتهای را برای دریافت بازخورد در مورد ابزارهای هوش مصنوعی پرخطر راهاندازی کرد. باید ممنوع شود، با رایزنی تا 26 ژوئیه تمدید شد.از منظر اخلاقی، نیاز به مقررات خاص یا ترکیبی از هر دو رویکرد را بررسی کرد.
در همین حال، با اقدامات موقتی که از 15 آگوست شروع شد، چین مقرراتی را برای نظارت بر صنعت هوش مصنوعی معرفی کرد که از ارائهدهندگان خدمات میخواهد قبل از معرفی محصولات هوش مصنوعی به بازار انبوه، ارزیابیهای امنیتی انجام دهند. پس از دریافت مجوزهای دولتی، چهار شرکت فناوری چینی از جمله بایدو و SenseTime بر اساس گزارش ناظر حریم خصوصی Politico، ناظر حریم خصوصی فرانسه، کمیسیون ملی اطلاعات و آزادی، یا CNIL، در ماه مارس گفت که در حال بررسی چندین شکایت در ChatGPT پس از ممنوعیت موقت چت بات در ماه مارس است. ایتالیا به دلیل نقض قوانین حفظ حریم خصوصی، علیرغم هشدارها.
آژانس حفاظت از داده های ایتالیا آغاز یک تحقیق حقیقت یاب را در 22 نوامبر اعلام کرد که فرآیندهای جمع آوری داده ها را برای آموزش الگوریتم های هوش مصنوعی مورد بررسی قرار می دهد و به دنبال تأیید اجرای اقدامات امنیتی مناسب در وب سایت های عمومی و خصوصی است. برای جلوگیری از حذف دادههای شخصی توسط وب برای آموزش هوش مصنوعی شخص ثالث، ایالات متحده، بریتانیا، استرالیا و 15 کشور دیگر اخیراً دستورالعملهای جهانی برای کمک به محافظت از مدلهای هوش مصنوعی در برابر دستکاری منتشر کردند که از شرکتها میخواهد مدلهای شما را با خیال راحت طراحی کنند.