الأخبار التكنولوجية والاستعراضات والنصائح!

هل يمكن للنماذج اللغوية الصغيرة أن تقدم أداءً عاليًا؟ تعرف على StableLM: نموذج لغة مفتوح المصدر يمكنه إنشاء نص ورمز يوفر أداءً عاليًا مع …

ستساعدك المقالة التالية: هل يمكن للنماذج اللغوية الصغيرة أن تقدم أداءً عاليًا؟ تعرف على StableLM: نموذج لغة مفتوح المصدر يمكنه إنشاء نص ورمز يوفر أداءً عاليًا مع …

Stability AI هي شركة ناشئة في مجال الذكاء الاصطناعي تشتهر بتقنية الذكاء الاصطناعي لتوليد الصور المستقرة. قدمت اليوم نموذجًا جديدًا للغة مجانية ومفتوحة المصدر يسمى StableLM. يتم تقديم النموذج بثلاثة أحجام مختلفة من المعلمات لمرحلة ألفا: ثلاثة مليارات وسبعة مليارات وخمسة عشر مليارًا وخمسة وستين مليارًا. بموجب قواعد ترخيص CC BY-SA-4.0 ، يمكن للمطورين مراجعة واستخدام وتعديل نماذج StableLM الأساسية للمشاريع الشخصية والتجارية.

تم إصدار نموذج صورة الانتشار المستقر الرائد ، والذي يوفر بديلاً أكثر انفتاحًا وقابلية للتطوير وشفافية للذكاء الاصطناعي الخاص ، للجمهور في عام 2022 بفضل جهود Stability AI. أصدرت منظمة Stability AI مجموعة نماذج StableLM ، مما يعزز مهمتها لإضفاء الطابع الديمقراطي على قدرات الذكاء الاصطناعي الأساسية. ستعمل نماذج StableLM على تزويد التطبيقات المختلفة بإمكانيات إنشاء النصوص والأكواد. إنها توضح كيف يمكن تدريب النماذج الصغيرة والفعالة على الأداء الجيد.

سمح عمل الفريق السابق مفتوح المصدر مع EleutherAI ، وهو مركز أبحاث غير هادف للربح ، بوضع الأساس لإصدار StableLM. تم استخدام مجموعة بيانات Pile مفتوحة المصدر لتدريب العديد من نماذج اللغات الشائعة ، مثل GPT-J و GPT-NeoX ومجموعة Pythia. Cerebras-GPT و Dolly-2 هما مثالان فقط على العديد من نماذج اللغة مفتوحة المصدر الجديدة التي تتوسع في هذه النماذج السابقة.

تستند مجموعة البيانات التجريبية المستخدمة لتعليم StableLM إلى The Pile ، باستثناء أكبر بثلاث مرات عند 1.5 تريليون رمز. على الرغم من احتوائه على 3-7 مليار معلمة فقط (يبلغ عدد المعلمات GPT-3 175 مليارًا) ، فإن StableLM يحقق أداءً ممتازًا بشكل غير متوقع في مهام المحادثة والتشفير بفضل ثراء مجموعة البيانات هذه. سيتم الإعلان عن المعلومات الموجودة في مجموعة البيانات في وقت لاحق.

لقد أصدروا مجموعة من نماذج البحث المُحسّنة للاستخدام في إعدادات الفصل الدراسي. ستستخدم هذه النماذج المحسّنة أولاً بيانات من خمس مجموعات بيانات وكلاء محادثات مفتوحة المصدر تم إصدارها مؤخرًا: Alpaca و GPT4All و Dolly و ShareGPT و HH. بعد ترخيص Alpaca من Stanford ، تتوفر هذه النماذج الدقيقة بموجب ترخيص CC BY-NC-SA 4.0 غير تجاري للبحث الأكاديمي.

يصور StableLM رؤية الفريق لتطوير تقنية ذكاء اصطناعي منفتحة وسهلة الوصول ومفيدة من خلال القدرات التالية:

  1. الشفافية: لتأكيد الأداء ، وإنشاء نهج القابلية للتفسير ، وتحديد المخاطر ، والمساعدة في إنشاء الضمانات ، يمكن للباحثين “النظر تحت الغطاء”. بدون الكشف عن المعلومات الخاصة أو التخلي عن السلطة على قدرات الذكاء الاصطناعي ، يمكن للشركات والوكالات الحكومية تعديل (أو “تعديل”) هذه النماذج مفتوحة المصدر لتناسب احتياجاتهم.
  2. إمكانية الوصول: يبني الفريق على الحافة للأشخاص العاديين لاستخدام نماذجهم على أجهزتهم. بدلاً من الاعتماد على الخدمات الحصرية من عدد قليل من الشركات ، قد يستخدم المطورون هذه النماذج لإنشاء تطبيقات تعمل مع نطاق أوسع من الأجهزة المتاحة للجمهور. تنتشر الفوائد الاقتصادية للذكاء الاصطناعي بين مجموعة كبيرة من المستخدمين والمبدعين بهذه الطريقة. النماذج المقترحة مفتوحة ومحددة ، مما يسمح للباحثين والأكاديميين بتجاوز حدود النماذج المغلقة من حيث القابلية للتفسير والسلامة.
  3. يدعم: تم تصميم هذه النماذج لمساعدة العملاء وليس لاستبدالهم. بدلاً من البحث عن الذكاء الخارق ، يركز الفريق على تحسين قدرة الذكاء الاصطناعي على تنفيذ مهام محددة في سياقات العالم الحقيقي. إنهم يبنون الموارد التي تمكن عامة الناس والشركات من تسخير إمكانات الذكاء الاصطناعي لتعزيز الابتكار وزيادة الإنتاج وتوسيع الآفاق الاقتصادية.

يسلط الفريق الضوء على أن جودة الردود التي يتلقاها المستخدم قد تختلف ، وقد تحتوي على لغة أو آراء غير سارة ، كما هو الحال مع أي نموذج لغة كبير تم اختباره مسبقًا يفتقر إلى الضبط الدقيق والتعلم المعزز. النطاق ، والبيانات المتزايدة ، وتعليقات المجتمع ، والتحسين كلها عوامل يجب أن تؤدي إلى تحسن كبير.