به گفته یک کارشناس بلاک چین و هوش مصنوعی IBM، ChatGPT چندین خطر کلیدی برای استفاده سازمانی دارد
جری کومو از IBM Automation، مشکلات بالقوه برای مشاغلی که از ChatGPT استفاده می کنند را تشریح می کند و چندین حوزه مشکل را فهرست می کند.
جری کومو، مدیر ارشد فناوری IBM Automation، اخیراً یک پست وبلاگی منتشر کرده است که در آن استدلال می کند که چندین خطر مرتبط با استفاده از ChatGPT برای یک سازمان وجود دارد، اما در نهایت چندین حوزه خطر کلیدی وجود دارد که مشاغل باید قبل از اجرای ChatGPT در نظر بگیرند. فقط داده های غیر حساس با ChatGPT ایمن هستند.
بر اساس این پست، کومو نوشت، هنگامی که داده های شما وارد ChatGPT می شود، هیچ کنترل یا دانشی در مورد نحوه استفاده از آن ندارید، که می تواند به طور ناخواسته مشاغل را از نظر قانونی در معرض خطر قرار دهد.
طبق پست وبلاگ IBM، کومو در ادامه به خطرات مربوط به مالکیت معنوی و احتمال نشت اطلاعات در مورد نقض قراردادهای منبع باز اشاره کرد: اگر اطلاعات حساس شخص ثالث یا شرکت داخلی وارد ChatGPT شود، بخشی از مدل داده ربات چت و می توان آن را با دیگرانی که سوالات مرتبط می پرسند به اشتراک گذاشت.
Cointelegraph برای اظهار نظر در مورد بیانیه بالا با OpenAI تماس گرفت و پاسخ ایمیل زیر را از یک نماینده روابط عمومی دریافت کرد، این داده ها با دیگرانی که سوالات مرتبط می پرسند به اشتراک گذاشته نخواهد شد، نماینده همچنین به اسناد موجود اشاره کرد. ویژگی های حریم خصوصی ChatGPT ذکر شده است، از جمله یک پست وبلاگ که توانایی کاربران وب را برای خاموش کردن سابقه چت خود توضیح می دهد.
طبق API OpenAI ChatGPT، اشتراکگذاری داده بهطور پیشفرض خاموش است، اما منتقدان خاطرنشان کردند که مکالمات در نسخه وب بهطور پیشفرض ذخیره میشوند، کاربران همچنین باید از ذخیره مکالمات خود انصراف دهند، یک ویژگی راحت برای ادامه از جایی که متوقف شدهاند. و از داده های خود برای آموزش مدل استفاده کنید، در حال حاضر هیچ گزینه ای برای ذخیره مکالمات بدون رضایت برای اشتراک گذاری داده ها وجود ندارد.