گوگل برای محافظت از حریم خصوصی داده ها، یک مسابقه “حفظ حافظه ماشینی” را اجرا می کند
در اقدامی جسورانه برای محافظت از حقوق حریم خصوصی داده ها، گوگل به زودی مسابقه «Unlearning ماشینی» را برگزار خواهد کرد. هدف این ابتکار توسعه الگوریتمهایی است که دادههای حساس را از سیستمهای هوش مصنوعی حذف میکند و استانداردهای جهانی مربوط به حقوق حریم خصوصی دادهها را برآورده میکند. این مسابقه نوآورانه برای همه شرکت کنندگان آزاد است و از اواسط ژوئیه تا اواسط سپتامبر ادامه خواهد داشت.
به گزارش کوین اکسو و به نقل از cryptopolitan، یادگیری ماشینی جزء حیاتی برای هوش مصنوعی محسوب می شود که با تولید محتوای جدید، مشکلات پیش بینی و پاسخگویی به سوالات و مسائل پیچیده را حل کرده است. با این حال، نگرانی ها در مورد نقض حریم خصوصی داده ها به طور چشمگیری افزایش یافته است. سودجویان از ضعفهای الگوریتمهای یادگیری ماشینی برای تهدیدات سایبری، مسمومیت دادهها، ممانعت از دسترسی آنلاین، سرقت هویت از طریق تشخیص چهره، و ایجاد جعلیهای عمیق متقاعدکننده استفاده میکنند.
با در نظر گرفتن این چالش ها، گوگل با ابتکار جدید خود در خط مقدم کنترل بیشتر افراد بر روی اطلاعات حساس خود قرار دارد. یادگیری ماشینی شامل آموزش الگوریتمهایی برای فراموش کردن دادههایی است که قبلاً با آنها مواجه شدهاند تا عملکرد کلی آنها حفظ شود. با فراموشی انتخابی، Google این امکان را فراهم می کند که مجموعه داده های خاصی را از سیستم های یادگیری ماشین خود حذف کند تا تطبیق داده ها را تسهیل کند و در عین حال عملکرد را حفظ کند.
رعایت مقررات داده ها
پاک کردن ماشین با چشم انداز همیشه در حال تحول مقررات داده ها و حقوق مردم سازگار است. مقامات حفاظت از داده ها می توانند شرکت ها را مجبور به حذف داده های به دست آمده غیرقانونی کنند. طبق دستورالعملهای مقررات حفاظت از دادههای عمومی اروپا (GDPR)، افراد میتوانند در صورت نگرانی در مورد اطلاعاتی که ارائه میدهند، درخواست حذف دادههای خود از شرکتها را داشته باشند.
پاک کردن ماشین به افراد اجازه می دهد از داده های خود محافظت کنند و از سوء استفاده مهاجمان جلوگیری کنند. با حذف داده های خود از الگوریتم های هوش مصنوعی، کاربران می توانند کنترل بیشتری بر اطلاعات خود داشته باشند و خطرات مرتبط با استفاده از هوش مصنوعی را به حداقل برسانند. علاوه بر این، چنین چیزی با «حق فراموش شدن» (RTBF) نیز سازگار است، که به Google اجازه میدهد با رعایت اولویتهای حریم خصوصی به کاربرانی که درخواست حذف دادههایشان را دارند خدمات دهد.
محافظت در برابر خطرات هوش مصنوعی
علاوه بر انطباق با مقررات، یادگیری ماشین مکانیزم دفاعی در برابر خطرات بالقوه هوش مصنوعی را فراهم می کند. با حذف داده های شخصی از الگوریتم ها، افراد می توانند از خود در برابر استفاده غیراخلاقی و مخرب از اطلاعات خود محافظت کنند و خطرات مرتبط با فناوری های هوش مصنوعی را کاهش دهند.
تلاش گوگل برای رقابت در زمینه یادگیری ماشینی گام مهمی در حفاظت از حریم خصوصی داده ها است. با آموزش الگوریتم هایی برای فراموش کردن اطلاعات آموخته شده قبلی، افراد کنترل بیشتری بر روی داده های حساس خود به دست می آورند. رقابت یادگیری ماشین نشان دهنده تعهد گوگل به انطباق با داده ها و تقویت یک رویکرد مهم برای محافظت از حریم خصوصی در برابر هوش مصنوعی است. همانطور که این زمینه به تکامل خود ادامه می دهد، یادگیری ماشینی این پتانسیل را دارد که استانداردهای حفظ حریم خصوصی داده ها را دوباره تعریف کند و افراد را در عصر دیجیتال توانمند کند.