الأخبار التكنولوجية والاستعراضات والنصائح!

تعرف على Lamini AI: محرك LLM ثوري يمكّن المطورين من تدريب نماذج لغة على مستوى المحادثة GPT بسهولة

ستساعدك المقالة التالية: تعرف على Lamini AI: محرك LLM ثوري يمكّن المطورين من تدريب نماذج لغة على مستوى المحادثة GPT بسهولة

يعد تدريس ماجستير إدارة الأعمال من البداية أمرًا صعبًا نظرًا للوقت الطويل المطلوب لفهم سبب فشل النماذج التي تم ضبطها بدقة ؛ تقاس دورات التكرار للضبط الدقيق لمجموعات البيانات الصغيرة عادةً بالأشهر. على النقيض من ذلك ، فإن التكرارات الضبطية للمطالبة تحدث في ثوانٍ ، ولكن بعد بضع ساعات ، تتوقف مستويات الأداء. لا يمكن ضغط وحدات الجيجابايت من البيانات الموجودة في المستودع في مساحة الموجه.

باستخدام بضعة أسطر فقط من التعليمات البرمجية من مكتبة Lamini ، يمكن لأي مطور ، وليس فقط أولئك المهرة في التعلم الآلي ، تدريب LLMs عالية الأداء التي تتساوى مع ChatGPT على مجموعات البيانات الضخمة. تم إصدار تحسينات هذه المكتبة بواسطة Lamini.ai ، وهي تتجاوز ما يمكن للمبرمجين الوصول إليه حاليًا وتشمل تقنيات معقدة مثل RLHF وتقنيات مباشرة مثل قمع الهلوسة. من نماذج OpenAI إلى النماذج مفتوحة المصدر على HuggingFace ، يجعل Lamini تنفيذ مقارنات نماذج أساسية مختلفة بسطر واحد من التعليمات البرمجية أمرًا بسيطًا.

خطوات تطوير LLM الخاص بك:

  • Lamini هي مكتبة تسمح بالمطالبات والمخرجات النصية التي تم ضبطها بدقة.
  • سهولة الضبط و RLHF باستخدام مكتبة Lamini القوية
  • هذا هو أول مولد بيانات مستضاف معتمد للاستخدام التجاري على وجه التحديد لإنشاء البيانات المطلوبة لتدريب LLMs التي تتبع التعليمات.
  • LLM مجاني ومفتوح المصدر يمكنه اتباع التعليمات باستخدام البرنامج أعلاه بأقل جهد برمجة.

يعد فهم النماذج الأساسية للغة الإنجليزية مناسبًا لحالات استخدام المستهلك. ومع ذلك ، عند تعليمهم المصطلحات والمعايير الخاصة بمجال عملك ، فإن الضبط الفوري لا يكفي دائمًا ، وسيحتاج المستخدمون إلى تطوير LLM الخاصة بهم.

يمكن لـ LLM التعامل مع حالات المستخدم مثل ChatGPT باتباع الخطوات التالية:

  1. استخدام التعديل الفوري لـ ChatGPT أو نموذج آخر بدلاً من ذلك. قام الفريق بتحسين أفضل موجه ممكن لسهولة الاستخدام. ضبط سريع بين النماذج باستخدام واجهات برمجة التطبيقات الخاصة بمكتبة Lamini ؛ التبديل بين نماذج OpenAI ونماذج مفتوحة المصدر بسطر واحد من التعليمات البرمجية.
  2. قم بإنشاء كمية هائلة من بيانات الإدخال والإخراج. ستوضح هذه الطريقة التي يجب أن تتفاعل بها مع البيانات التي تتلقاها ، سواء باللغة الإنجليزية أو JSON. أصدر الفريق مستودعًا به بضعة أسطر من التعليمات البرمجية التي تستخدم مكتبة لاميني لإنتاج 50 ألف نقطة بيانات من أقل من 100. يحتوي المستودع على مجموعة بيانات 50 ألف متاحة للجمهور.
  3. تعديل نموذج البدء باستخدام بياناتك المكثفة. بالإضافة إلى منشئ البيانات ، فإنهم يتشاركون أيضًا في LLM مضبوط من Lamini والمدرَّب على البيانات التركيبية.
  4. وضع النموذج المعدل بدقة من خلال RLHF. تلغي Lamini متطلبات فريق عمل كبير للتعلم الآلي (ML) ووضع العلامات البشرية (HL) لتشغيل RLHF.
  5. ضعه في السحابة. ما عليك سوى استدعاء نقطة نهاية API في تطبيقك.

بعد تدريب نموذج Pythia الأساسي بإرشادات إنتاج 37k (بعد تصفية 70k) ، أصدروا تعليمات مفتوحة المصدر تتبع LLM. يوفر Lamini جميع مزايا RLHF والضبط الدقيق دون متاعب السابق. قريباً ، سيكون مسؤولاً عن الإجراء بأكمله.

الفريق متحمس لتبسيط عملية التدريب للفرق الهندسية وتعزيز أداء LLM بشكل كبير. إنهم يأملون في أن يتمكن المزيد من الأشخاص من بناء هذه النماذج بما يتجاوز العبث بالمطالبات إذا كان من الممكن جعل دورات التكرار أسرع وأكثر كفاءة.