متا با بررسی های قانونی روبرو است زیرا پیشرفت های هوش مصنوعی نگرانی ها را در مورد ایمنی کودکان افزایش می دهد
نگرانی در مورد ایمنی کودک در میان پیشرفت های سریع در هوش مصنوعی از جمله متن و هوش مصنوعی به وجود می آید.
گروهی متشکل از 34 ایالت آمریکا از صاحبان فیس بوک و اینستاگرام شکایت کرده و این شرکت را به دستکاری نادرست خردسالانی که از این پلتفرم ها استفاده می کنند، متهم می کنند، پیشرفتی که در بحبوحه پیشرفت های سریع در هوش مصنوعی (AI) که شامل متن و هوش مصنوعی است. ایالت های مختلف از جمله کالیفرنیا، نیویورک، اوهایو، داکوتای جنوبی، ویرجینیا و لوئیزیانا ادعا می کنند که متا از الگوریتم های خود برای ترویج رفتار اعتیاد آور استفاده می کند و از طریق ویژگی های درون برنامه ای بر سلامت روان کودکان تأثیر منفی می گذارد.
علیرغم اظهارنظرهای اخیر دانشمند ارشد هوش مصنوعی متا، شاکیان ایالتی در حال طرح شکایت هستند و وکلای ایالتی به دنبال خسارات مختلف، استرداد و غرامت برای هر ایالت ذکر شده در سند هستند که ارقامی از 5000 تا 25000 دلار در هر حادثه ادعایی متغیر است.
در همین حال، بنیاد واچ اینترنت مستقر در بریتانیا (IWF) نسبت به گسترش هشدار دهنده مواد سوء استفاده جنسی از کودکان (CSAM) تولید شده توسط هوش مصنوعی ابراز نگرانی کرده است، با گزارش اخیر IWF که بیش از 20254 تصویر CSAM تولید شده توسط هوش مصنوعی را برای وب تاریک در مدت زمان محدود نشان می دهد. بیش از یک ماه، هشدار می دهد که این موج محتوای مخرب پتانسیل سیل اینترنت را دارد.
او خواستار همکاری جهانی برای مبارزه با CSAM با پیشنهاد یک استراتژی چند جانبه، از جمله اصلاح قوانین موجود، بهبود آموزش اجرای قانون و اجرای نظارت نظارتی بر مدلهای هوش مصنوعی شد. در مورد توسعه دهندگان هوش مصنوعی، IWF توصیه می کند که هوش مصنوعی از تولید محتوای کودک آزاری منع شود، مدل های مرتبط را حذف کرده و بر حذف چنین محتوایی از مدل های خود تمرکز کنند.
پیشرفتها در تولیدکنندههای تصویر هوش مصنوعی، ایجاد کپیهای واقعی از انسان را بسیار بهبود بخشیده است، با پلتفرمهایی مانند OpenAI's Midjourney، Runway، Stable Diffusion و Dall E نمونههای محبوبی از ابزارهایی هستند که قادر به ایجاد تصاویر واقعی هستند.