OpenAI پاسخ گرمی به پیشنهادات هوش مصنوعی سفارشی دریافت می کند
این شرکت گفت که تسهیلات تنظیم دقیق و داده های آموزشی مورد استفاده برای تنظیم دقیق از طریق یک API تنظیم با قدرت GPT 4 و سیستم تنظیم تجزیه و تحلیل می شوند.
OpenAI گزینه تنظیم GPT 3.5 Turbo را معرفی کرد که به توسعه دهندگان هوش مصنوعی (AI) اجازه می دهد تا با استفاده از داده های بومی عملکرد را در وظایف خاص افزایش دهند.
OpenAI گفت که از طریق یک فرآیند تنظیم دقیق، توسعه دهندگان می توانند قابلیت های GPT 3.5 Turbo را مطابق با نیاز خود سفارشی کنند، به عنوان مثال، یک توسعه دهنده می تواند از GPT 3.5 Turbo برای تولید کد سفارشی یا خلاصه کردن هوشمندانه مجموعه داده های قانونی به زبان آلمانی استفاده کند عملیات تجاری مشتری
اعلامیه اخیر واکنش محتاطانه ای را از سوی توسعه دهندگان برانگیخت، با اظهار نظری که به Joshua Segeren کاربر X نسبت داده شد، که گفت در حالی که معرفی تنظیم دقیق GPT 3.5 Turbo جالب بود، اما بر اساس مشاهدات او در مورد بهبود یافته، راه حل کاملی نبود. درخواست ها. استفاده از پایگاههای داده برداری برای جستجوی معنایی یا مهاجرت به GPT 4 اغلب نتایج بهتری نسبت به آموزش سفارشی دارد، اما عواملی مانند هزینههای راهاندازی و نگهداری مداوم وجود دارد.
مدلهای پایه GPT 3.5 توربو از 0.0004 دلار به ازای هر 1000 توکن شروع میشوند (واحدهای پایه که توسط مدلهای زبان پیشرفته مدیریت میشوند)، اما نسخههای پیشرفته از طریق تنظیم دقیق، هزینه بالاتری معادل 0.012 دلار در هر 1000 توکن دریافت میکنند، و خروجی 0.016 دلار است Apply است 1000 توکن. به علاوه یک هزینه آموزشی اولیه مربوط به حجم داده ها.
این ویژگی همچنین برای شرکتها و توسعهدهندگانی که هدفشان ایجاد تعاملات شخصی با کاربر است، مهم است، برای مثال سازمانها میتوانند مدل را مطابق با صدای برندشان تنظیم کنند و اطمینان حاصل کنند که ربات چت شخصیت و لحنی ثابتی را نشان میدهد که مکمل برند هویت است و استفاده مسئولانه را تضمین میکند. از ابزارهای تنظیم دقیق، داده های آموزشی مورد استفاده برای تنظیم دقیق از طریق API تعدیل آنها و سیستم تعدیل که توسط GPT 4 ارائه می شود، مورد بررسی قرار می گیرد، این کار پشتیبانی می شود. ویژگی های امنیتی مدل پیش فرض در طول فرآیند تنظیم دقیق انجام می شود.
این سیستم تلاش میکند تا دادههای آموزشی بالقوه خطرناک را شناسایی و حذف کند، در نتیجه اطمینان حاصل میکند که خروجی دقیق با هنجارهای امنیتی تعیینشده OpenAI مطابقت دارد، که همچنین به این معنی است که OpenAI سطح مشخصی از کنترل روی دادههایی را که کاربران به مدلها وارد میکنند، دارد.