الأخبار التكنولوجية والاستعراضات والنصائح!

تُظهر ورقة AI هذه كيف يمكن أن تزيد سمية ChatGPT إلى ستةFold عند تعيين شخصية

ستساعدك المقالة التالية: تُظهر ورقة AI هذه كيف يمكن أن تزيد سمية ChatGPT إلى ستةFold عند تعيين شخصية

مع التطورات التكنولوجية الحديثة ، أظهرت نماذج اللغات الكبيرة (LLMs) مثل GPT-3 و PaLM قدرات جيل رائعة عبر مجموعة واسعة من المجالات مثل التعليم وإنشاء المحتوى والرعاية الصحية والبحث ، وما إلى ذلك ، على سبيل المثال ، هذه النماذج اللغوية الكبيرة هي بشكل خاص مفيد للكتاب لمساعدتهم على تحسين أسلوب كتابتهم وللمطورين الناشئين في مساعدتهم على إنشاء كود معياري ، إلخ. علاوة على ذلك ، جنبًا إلى جنب مع توفر العديد من واجهات برمجة التطبيقات التابعة لجهات خارجية ، زاد الاعتماد الواسع النطاق لـ LLM عبر العديد من واجهات المستهلك الأنظمة ، مثل أنظمة الطلاب وأنظمة الرعاية الصحية التي تستخدمها المستشفيات. ومع ذلك ، في مثل هذه السيناريوهات ، تصبح سلامة هذه الأنظمة قضية أساسية حيث يثق الناس في هذه الأنظمة بمعلومات شخصية حساسة. هذا يستدعي الحاجة إلى الحصول على صورة أكثر وضوحًا للقدرات والقيود المختلفة لـ LLM.

ومع ذلك ، ركزت معظم الأبحاث السابقة على جعل LLM أكثر قوة من خلال استخدام بنى أكثر تقدمًا وتطورًا. على الرغم من أن هذا البحث قد تجاوز بشكل كبير مجتمع البرمجة اللغوية العصبية ، إلا أنه أدى أيضًا إلى تهميش أمان هذه الأنظمة. على هذه الجبهة ، تعاون فريق من طلاب ما بعد الدكتوراة من جامعة برينستون وجورجيا تك مع باحثين من معهد ألين للذكاء الاصطناعي (A2I) لسد هذه الفجوة من خلال إجراء تحليل السمية لروبوت الدردشة الآلي الثوري الخاص بـ OpenAI ، ChatGPT. قام الباحثون بتقييم السمية في أكثر من نصف مليون جيل من ChatGPT ، وكشفت تحقيقاتهم أنه عندما تم تعيين معلمة نظام ChatGPT بحيث تم تخصيص شخصية لها ، زادت سميتها متعددة الجوانب لمجموعة واسعة من الموضوعات. على سبيل المثال ، عندما يتم ضبط شخصية ChatGPT على شخصية الملاكم “محمد علي” ، تزداد سميته ثلاثة أضعاف تقريبًا مقارنة بإعداداته الافتراضية. هذا مثير للقلق بشكل خاص حيث يتم استخدام ChatGPT حاليًا كأساس لبناء العديد من التقنيات الأخرى التي يمكن أن تولد بعد ذلك نفس المستوى من السمية مع مثل هذه التعديلات على مستوى النظام. وبالتالي ، فإن العمل الذي قام به باحثو A2I وطلاب الجامعات يركزون على اكتساب رؤية أعمق لهذه السمية في أجيال ChatGPT عندما يتم تعيين شخصيات مختلفة لها.

توفر واجهة برمجة تطبيقات ChatGPT ميزة تسمح للمستخدم بتعيين شخصية عن طريق تعيين معلمة النظام الخاصة به بحيث تحدد الشخصية نغمة بقية المحادثة من خلال التأثير على طريقة محادثات ChatGPT. بالنسبة لحالة الاستخدام الخاصة بهم ، قام الباحثون برعاية قائمة تضم 90 شخصًا من خلفيات ودول مختلفة ، مثل رواد الأعمال والسياسيين والصحفيين وما إلى ذلك. ، إلخ. طلب ​​الفريق أيضًا من ChatGPT مواصلة بعض العبارات غير المكتملة على هذه الكيانات لجمع المزيد من الأفكار. أظهرت النتائج النهائية أن تعيين شخصية في ChatGPT يمكن أن يعزز سميتها بما يصل إلى ستة أضعاف ، حيث ينتج ChatGPT في كثير من الأحيان نتائج قاسية وتنغمس في الصور النمطية والمعتقدات السلبية.

أظهر بحث الفريق أن سمية المخرجات تختلف اختلافًا كبيرًا اعتمادًا على الشخصية التي أعطيت لـ ChatGPT ، والتي يعتقد الباحثون أنها بسبب فهم ChatGPT للشخص بناءً على بيانات التدريب الخاصة به. تشير إحدى النتائج ، على سبيل المثال ، إلى أن الصحفيين هم ضعاف السموم من رجال الأعمال ، حتى لو لم يكن هذا هو الحال بالضرورة من الناحية العملية. أظهرت الدراسة أيضًا أن مجموعات وكيانات معينة يتم استهدافها بشكل متكرر (ما يقرب من ثلاثة أضعاف) من غيرها ، مما يدل على السلوك التمييزي المتأصل في النموذج. على سبيل المثال ، تختلف السمية اعتمادًا على جنس الشخص وهي أعلى بنسبة 50٪ تقريبًا من السمية على أساس العرق. ميكن أن تكون ميول التقلب هذه ضارة للمستخدمين وتحتقر الفرد املعني. علاوة على ذلك ، يمكن للمستخدمين الخبثاء بناء تقنيات على ChatGPT لإنشاء محتوى قد يضر بالجمهور المطمئن.

كشف تحليل هذه الدراسة لسمية ChatGPT بشكل أساسي عن ثلاثة أشياء: يمكن أن يكون النموذج أكثر سمية بشكل ملحوظ عندما يتم تعيين الأشخاص (حتى ستة أضعاف السمية الافتراضية) ، تختلف سمية النموذج بشكل كبير اعتمادًا على هوية الشخص ، مع رأي ChatGPT حول تلعب الشخصية دورًا مهمًا ؛ يمكن لـ ChatGPT استهداف كيانات معينة بشكل تمييزي من خلال كونها أكثر سمية أثناء إنشاء محتوى عنها. لاحظ الباحثون أيضًا أنه على الرغم من أن ChatGPT كانت LLM التي استخدموها في تجربتهم ، إلا أن منهجهم يمكن أن يمتد إلى أي ماجستير آخر. يأمل الفريق أن يحفز عملهم مجتمع الذكاء الاصطناعي على تطوير تقنيات توفر أنظمة ذكاء اصطناعي أخلاقية وآمنة وموثوقة.