الأخبار التكنولوجية والاستعراضات والنصائح!

يرث GPT-4 الحقائق “الهلوسة” والأخطاء المنطقية من نماذج GPT السابقة

ستساعدك المقالة التالية: يرث GPT-4 الحقائق “الهلوسة” والأخطاء المنطقية من نماذج GPT السابقة

حذرت شركة OpenAI المستخدمين من أن أحدث نموذج لغوي ، GPT-4 ، لا يزال غير موثوق به تمامًا ويمكن أن “يهلوس” الحقائق ويرتكب أخطاء منطقية. تحث الشركة المستخدمين على توخي الحذر عند استخدام مخرجات نموذج اللغة ، خاصة في “السياقات عالية المخاطر”.

ومع ذلك ، فإن الخبر السار هو أن GPT-4 يقلل بشكل كبير من الهلوسة بالنسبة للنماذج السابقة. تدعي شركة OpenAI أن نتائج GPT-4 أعلى بنسبة 40٪ من أحدث GPT-3.5 في تقييمات الوقائع العدائية الداخلية.

عبر OpenAI

“لقد أحرزنا تقدمًا في المعايير الخارجية مثل TruthfulQA ، التي تختبر قدرة النموذج على فصل الحقيقة عن مجموعة من العبارات غير الصحيحة المختارة بالخصوم. يتم إقران هذه الأسئلة بإجابات غير صحيحة من الناحية الواقعية وجذابة من الناحية الإحصائية ، “كتب OpenAI في منشور مدونة.

على الرغم من هذا التحسن ، لا يزال النموذج يفتقر إلى المعرفة بالأحداث التي حدثت بعد سبتمبر 2021 وأحيانًا يرتكب أخطاء منطقية بسيطة ، تمامًا مثل النماذج السابقة. بالإضافة إلى ذلك ، يمكن أن يكون ساذجًا بشكل مفرط في قبول بيانات خاطئة واضحة من المستخدمين ويفشل في المشكلات الصعبة ، مثل إدخال ثغرات أمنية في التعليمات البرمجية الخاصة به. كما أنها لا تتحقق من صحة المعلومات التي تقدمها.

مثل سابقاتها ، يمكن لـ GPT-4 إصدار نصائح ضارة أو رمز عربات التي تجرها الدواب أو معلومات غير دقيقة. ومع ذلك ، فإن القدرات الإضافية للنموذج تؤدي إلى أسطح مخاطر جديدة يجب فهمها. لتقييم مدى هذه المخاطر ، تم إشراك أكثر من 50 خبيرًا من مختلف المجالات ، بما في ذلك مخاطر محاذاة الذكاء الاصطناعي ، والأمن السيبراني ، والمخاطر البيولوجية ، والثقة والسلامة ، والأمن الدولي ، لاختبار النموذج بطريقة عكسية. ثم تم استخدام ملاحظاتهم وبياناتهم لتحسين النموذج ، مثل جمع بيانات إضافية لتعزيز قدرة GPT-4 على رفض الطلبات المتعلقة بكيفية تصنيع المواد الكيميائية الخطرة.

تتمثل إحدى الطرق الرئيسية التي تقلل بها OpenAI من المخرجات الضارة في دمج إشارة إضافية لمكافأة السلامة أثناء تدريب RLHF (التعلم المعزز من التعليقات البشرية). تقوم الإشارة بتدريب النموذج على رفض طلبات المحتوى الضار ، على النحو المحدد في إرشادات استخدام النموذج. يتم تقديم المكافأة بواسطة مصنف GPT-4 الذي لا يطلق عليه الرصاص ، والذي يحكم على حدود السلامة وأسلوب الإكمال في المطالبات المتعلقة بالسلامة.

قالت OpenAI أيضًا إنها قللت من ميل النموذج للاستجابة لطلبات المحتوى غير المسموح به بنسبة 82٪ مقارنة بـ GPT-3.5 ، وتستجيب GPT-4 للطلبات الحساسة مثل المشورة الطبية وإيذاء النفس وفقًا لسياسات الشركة بنسبة 29٪ في كثير من الأحيان.

عبر OpenAI

على الرغم من أن تدخلات OpenAI زادت من صعوبة استنباط السلوك السيئ من GPT-4 ، إلا أنه لا يزال ممكنًا ، ولا تزال هناك عمليات كسر حماية يمكنها إنشاء محتوى ينتهك إرشادات الاستخدام.

“نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر انتشارًا ، فإن تحقيق درجات عالية من الموثوقية في هذه التدخلات سيصبح أمرًا بالغ الأهمية بشكل متزايد. في الوقت الحالي ، من الضروري استكمال هذه القيود بتقنيات الأمان في وقت النشر مثل مراقبة إساءة الاستخدام “، أضافت الشركة.

تتعاون OpenAI مع باحثين خارجيين لفهم وتقييم التأثيرات المحتملة لـ GPT-4 والنماذج اللاحقة لها. يقوم الفريق أيضًا بتطوير تقييمات للقدرات الخطرة التي قد تظهر في أنظمة الذكاء الاصطناعي المستقبلية. مع استمرارهم في دراسة الآثار الاجتماعية والاقتصادية المحتملة لـ GPT-4 وأنظمة الذكاء الاصطناعي الأخرى ، ستشارك OpenAI نتائجهم ووجهات نظرهم مع الجمهور في الوقت المناسب.

اقرأ أكثر: