الأخبار التكنولوجية والاستعراضات والنصائح!

تعرف على OpenAssistant: نموذج محادثة مفتوح المصدر يتكون من حوالي 161 ألفًا من مجموعة محادثة على غرار المساعد البشري من صنع الإنسان وبتعليقات توضيحية ، بما في ذلك 35 لغة مختلفة

ستساعدك المقالة التالية: تعرف على OpenAssistant: نموذج محادثة مفتوح المصدر يتكون من حوالي 161 ألفًا من مجموعة محادثة على غرار المساعد البشري من صنع الإنسان وبتعليقات توضيحية ، بما في ذلك 35 لغة مختلفة

شهدت السنوات الأخيرة تطورًا ملحوظًا في الذكاء الاصطناعي (AI) ، خاصة في معالجة اللغة الطبيعية. هناك صيغة بسيطة في صميم أهم التطورات:

  • خذ بنية أساسية قائمة على المحولات.
  • قم بتوسيع عمق وعرض المعلمات.
  • استخدم مجموعة تدريب أكبر بكثير.

على الرغم من قدرتها الواضحة على المستوى البشري لتلائم بيانات التدريب والتعميم اعتمادًا على الغرض المبرمج ، يحتاج الجمهور العام إلى أن يكون أكثر نشاطًا في قبول النماذج. السبب الرئيسي هو عدم تطابق توقعات النموذج مع التطبيق الفعلي.

يعد ChatGPT مثالًا ممتازًا على هذا النوع من نهج الأسلوب المساعد ، وقد يُعزى الارتفاع السريع في شعبيته ليس فقط إلى المهارات الرائعة التي أظهرها في سياقات مختلفة ولكن أيضًا إلى سهولة استخدامه. لجعل تنبؤات النموذج تتماشى مع الواقع ، نمنحه التعلم المعزز من ردود الفعل البشرية (RLHF) والأمثلة البشرية للتطبيق المطلوب. بصفته مدربًا في RLHF ، فإن الإنسان يوزع المديح أو النقد كرد فعل.

تشكل البيانات التركيبية التي تشتمل على تعليمات يتم إنشاؤها تلقائيًا عن طريق الاستعلام عن نماذج اللغة أكثر مجموعات البيانات المتاحة للجمهور. لسوء الحظ ، فإن تعقيد مجموعات البيانات وأصالتها وجودتها مقيدة باعتمادها على مجموعة ثابتة من أنواع التعليمات المسموح بها. حتى مع الحجم الكبير والتدريب المسبق ، ستفشل النماذج في إنتاج مساعدين فعالين ومفيدين وآمنين للذكاء الاصطناعي إذا كانت تفتقر إلى الاتساع الكافي والجودة الكافية للبيانات. تم تقديم مجموعة بيانات OpenAssistant Conversations وإتاحتها للجمهور لإضفاء الطابع الديمقراطي على دراسة مشكلة محاذاة نماذج اللغات الكبيرة. ينتج توزيع هذه المعلومات على المجتمع الأكاديمي عن حملة واسعة النطاق مفتوحة المصدر وحشد المصادر تهدف إلى تشجيع المزيد من الدراسة المتنوعة في هذا المجال المهم.

يقوم الباحثون بتقييم مجموعة البيانات بدقة ، مع مراعاة المخاوف الأخلاقية والمتعلقة بالسلامة. يقوم الباحثون أيضًا بضبط وتوزيع العديد من نماذج المساعدة والأفضليات لتعزيز وتوفير الوصول والدراسة في هذا المجال. نتيجة لهذا الانفتاح ، يمكن تحسين القطع الأثرية الصادرة من خلال الدورات التكرارية ، مما يؤدي إلى جو بحثي أكثر تعاونًا وترحيبيًا.

جمع البيانات وهيكلها

شجرة المحادثة (CT) هي بنية البيانات الأساسية ، حيث تقع عقدها في تبادلات المحادثة الفردية. تمثل عقدة جذر CT الموجه الأولي للموجه. قام الباحثون بإعطاء أسماء لمقدم المناقشة والأدوار المساعدة لتوفير الوضوح. يمكن لمستخدم بشري أو كمبيوتر أن يلعب دور الوافد والمساعد. لهذا السبب ، يمكننا حفظ “المستخدمين” لمساعدينا البشريين.

ساهم أكثر من 13000 شخص في مشروع التعهيد الجماعي لتجميع البيانات المستخدمة لإنشاء مجموعة بيانات OpenAssistant Conversations. تم استخدام واجهة تطبيق الويب 5 لجمع البيانات. لقد قام بتبسيط الإجراء إلى خمس مراحل: المطالبة ، وتسمية المطالبات ، وإضافة رسائل الرد كموجه أو مساعد ، وتصنيف الردود ، وتسجيل إجابات المساعد. كان الإشراف على المحتوى وتصفية البريد العشوائي جزءًا لا يتجزأ من سير عمل التعليقات التوضيحية المستخدمة لتنظيم مجموعة البيانات ، مما يضمن جودتها العالية وأمانها.

يتم تضمين أشجار الرسائل في جمع البيانات هذا. تبدأ كل شجرة رسائل برسالة سريعة في جذرها ويمكن أن تتوسع لتشمل أي عدد من الرسائل الفرعية التي تمثل الردود.

“المساعد” و “الموجه” هما قيمتان محتملتان لسمة دور الرسالة. من الموجه إلى العقدة الطرفية ، تتوقف مسؤوليات “الحاضن” و “المساعد” بانتظام.

محددات

تتضمن المشكلات المتعلقة بمجموعة البيانات التوزيع غير المتكافئ للمساهمات بين المستخدمين ، والمعلومات التي يحتمل أن تكون خطرة ، والذاتية المتأصلة في التعليقات والتحيزات الثقافية.

  • نظرًا لشفافية البحث ، ستكون هناك صعوبات جديدة في إزالة أي تحيزات من البيانات. يملأ المجموعة شروح من خلفيات اجتماعية واقتصادية وثقافية مختلفة.
  • تميل التعليقات التوضيحية من المستخدمين الأكثر نشاطًا إلى تحريف مجموعة البيانات نحو عكس تفضيلات هؤلاء المستخدمين. نتيجة لذلك ، قد تفتقر مجموعة البيانات إلى تنوع الآراء الذي نتج عن توزيع أكثر عدالة للمساهمات.
  • بينما تم اتخاذ تدابير لاكتشاف التعليقات المسيئة وإزالتها من مجموعة البيانات ، يجب أن يكون النظام آمنًا تمامًا. لا يزال هناك احتمال أن تحتوي مجموعة البيانات على بيانات حساسة قد تسبب ضررًا.
  • إن إدراك أن إجراءات المحاذاة الحالية ليست خالية من العيوب ويمكن أن تزيد من بعض التحيزات أمر مهم لأن محاذاة LLM هي عنصر أساسي في أبحاث الذكاء الاصطناعي.

يدرك الباحثون أن النماذج اللغوية المعقدة للغاية قد يكون لها تأثيرات بعيدة المدى على المجتمع. ونتيجة لذلك ، فإنهم يشعرون أنه من الضروري الدفاع عن الانفتاح والمخاوف الأخلاقية أثناء إنشاء مثل هذه النماذج ونشرها. يمكن أن تولد هذه النماذج معلومات غير دقيقة عن الأشخاص أو المواقع أو الحقائق (المعروفة أحيانًا باسم “الهلوسة”). بالإضافة إلى إنشاء معلومات ضارة أو حقيرة ، يمكن أن تنتهك LLM أيضًا الحدود التي وضعها مستخدموها. على الرغم من أن تقنيات مثل RLHF يمكن أن تساعد في بعض العيوب ، إلا أنها قد تؤدي إلى تفاقم أخرى. لتحفيز دراسة المحاذاة في LLMs ، قدم الباحثون مجموعة بيانات OpenAssistant Conversations.

قد يجد المرء مجموعة متنوعة من النماذج والبيانات المرتبطة بها هنا.

لطفا أنظر هنا لمزيد من المعلومات والأمثلة.

يُظهر ChatGPT أن محاذاة نماذج اللغات الكبيرة (LLMs) مع التفضيلات البشرية يحسن بشكل كبير قابلية الاستخدام ويؤدي إلى الاعتماد السريع. لجعل LLM أكثر سهولة وإفادة في مجموعة واسعة من المجالات ، تم تطوير مناهج المحاذاة مثل الضبط الدقيق تحت الإشراف (SFT) والتعلم المعزز من ردود الفعل البشرية (RLHF). تتطلب تقنيات المحاذاة الحديثة مثل RLHF بيانات ردود فعل بشرية عالية الجودة ، ومع ذلك فإن هذه البيانات مكلفة وعادة ما تظل سرية. أصدر الباحثون OpenAssistant Conversations ، وهي عبارة عن مجموعة محادثة من صنع الإنسان ومزودة بتعليقات توضيحية ، لإضفاء الطابع الديمقراطي على الأبحاث حول المحاذاة على نطاق واسع.