الأخبار التكنولوجية والاستعراضات والنصائح!

كيف تميزه طبيعة GPT-4 القابلة للتوجيه عن نماذج اللغات الكبيرة السابقة (LLMs)؟

ستساعدك المقالة التالية: كيف تميزه طبيعة GPT-4 القابلة للتوجيه عن نماذج اللغات الكبيرة السابقة (LLMs)؟

يحظى إصدار GPT 4 الجديد من OpenAI بالكثير من الاهتمام بالفعل. يعد هذا النموذج الأخير إضافة رائعة لجهود OpenAI وهو أحدث معلم في الارتجال في التعلم العميق. تأتي GPT 4 بإمكانيات جديدة نظرًا لطبيعتها متعددة الوسائط. على عكس الإصدار السابق ، GPT 3.5 ، الذي يتيح فقط لـ ChatGPT أخذ المدخلات النصية ، يقبل أحدث GPT-4 النص وكذلك الصور كإدخال. تعرض GPT-4 ، بهندسة المحولات ، أداءً على مستوى الإنسان نظرًا لطبيعتها الأكثر موثوقية وإبداعًا مقارنة بسابقاتها.

عندما نتحدث عن نموذج GPT 4 الخاص بـ OpenAI ، فقد تم تسميته بأنه أكثر قابلية للتوجيه مقارنة بالإصدارات السابقة. مؤخرًا في أ Twitter thread ، اسمه باحث في الذكاء الاصطناعي كاميرون ر وولف ناقش مفهوم قابلية التوجيه في نماذج اللغة الكبيرة (LLMs) ، وتحديداً في حالة أحدث GPT 4. يشير التوجيه بشكل أساسي إلى القدرة على التحكم في سلوك نموذج اللغة أو تعديله. يتضمن ذلك جعل LLM تتبنى أدوارًا مختلفة ، أو اتباع تعليمات معينة وفقًا للمستخدم ، أو التحدث بنبرة معينة.

تتيح قابلية التوجيه للمستخدم تغيير سلوك LLM عند الطلب. في تغريدته ، ذكر كاميرون أيضًا كيف أن إصدار GPT-3.5 الأقدم المستخدم من قبل ChatGPT المشهور لم يكن قابلاً للتوجيه وله قيود على تطبيقات الدردشة. تجاهلت في الغالب رسائل النظام ، وشكلت حواراتها في الغالب شخصية أو نغمة ثابتة. على العكس من ذلك ، فإن GPT-4 أكثر موثوقية وقدرة على اتباع التعليمات التفصيلية.

في GPT-4 ، قدمت OpenAI عناصر تحكم إضافية داخل بنية GPT. تتيح رسائل النظام الآن للمستخدمين تخصيص أسلوب ومهام الذكاء الاصطناعي بشكل مرغوب. يمكن للمستخدم أن يصف بشكل ملائم نغمة الذكاء الاصطناعي واختيار الكلمات والأسلوب من أجل تلقي استجابة أكثر تحديدًا وتخصيصًا. أوضح المؤلف أن GPT-4 يتم تدريبه من خلال التدريب المسبق تحت الإشراف الذاتي والضبط الدقيق المستند إلى RLHF. يتضمن التعلم المعزز من ردود الفعل البشرية (RLHF) تدريب نموذج اللغة باستخدام التغذية المرتدة من المقيّمين البشريين ، والتي تعمل كإشارة مكافأة لتقييم جودة النص الذي تم إنشاؤه.

لجعل GPT-4 أكثر قابلية للتوجيه وأكثر أمانًا وأقل احتمالية لإنتاج معلومات خاطئة أو خادعة ، استعانت OpenAI بخبراء في مجالات متعددة لتقييم سلوك النموذج وتقديم بيانات أفضل للضبط الدقيق المستند إلى RLHF. يمكن لهؤلاء الخبراء المساعدة في تحديد وتصحيح الأخطاء أو التحيزات في استجابات النموذج ، مما يضمن إخراجًا أكثر دقة وموثوقية.

يمكن استخدام قابلية التوجيه بعدة طرق ، مثل استخدام رسالة نظام GPT -4 لإجراء استدعاءات معينة لواجهة برمجة التطبيقات. يمكن للمستخدم أن يأمره بالكتابة بأسلوب أو نغمة مختلفة ، أو صوت من خلال ذكر مطالبات مثل “أنت خبير بيانات” وجعله يشرح مفهوم علم البيانات. عند تعيينه كـ “مدرس سقراطي” وسؤاله عن كيفية حل معادلة خطية ، أجاب GPT-4 بالقول ، “لنبدأ بتحليل المعادلات.” في الختام ، توفر قابلية توجيه GPT-4 تحكمًا أكبر في سلوك LLM ، مما يتيح تطبيقات أكثر تنوعًا وفعالية. لا يزال بإمكانه أن يهلوس الحقائق ويرتكب أخطاء منطقية ، لكنه لا يزال تطورًا مهمًا للغاية في صناعة الذكاء الاصطناعي.