الأخبار التكنولوجية والاستعراضات والنصائح!

نفيديا تكشف النقاب عن AI Tech للمهارات الذكية

قد يكسب هذا الموقع عمولات تابعة من الروابط الموجودة في هذه الصفحة. تعليمات الاستخدام. Jen-Hsun Huang من Nvidia تعلن عن DGX-1 في GTC 2016

الآن وبعد أن أصبح كل جهاز محمول قابل للتطبيق تقريبًا قد تبناه أو قام على الأقل بتجربة التحكم الصوتي ، أصبحت AI للمحادثة الحدود الجديدة بسرعة. بدلاً من التعامل مع استعلام واحد وتقديم استجابة أو إجراء واحد ، تهدف AI للمحادثة إلى توفير نظام تفاعلي في الوقت الفعلي يمكن أن يشمل أسئلة وإجابات وتعليقات متعددة. في حين أن اللبنات الأساسية لـ AI للمحادثة ، مثل BERT و RoBERTa لنمذجة اللغة ، تشبه تلك الخاصة بالتعرف على الكلام مرة واحدة ، فإن المفهوم يأتي بمتطلبات أداء إضافية للتدريب والاستدلال وحجم النموذج. واليوم ، أصدرت نفيديا ثلاث تكنولوجيات مفتوحة المصدر مصممة لمعالجة هذه القضايا.

تدريب أسرع من بيرت

نفيديا DGX SuperPODفي حين أنه من الممكن في كثير من الحالات استخدام نموذج لغة مُدرَّب مسبقًا للمهام الجديدة ببعض الموالفة ، فإن إعادة التدريب المثالية في سياق معين أمر ضروري. لقد أثبتت Nvidia أنه بإمكانها الآن تدريب BERT (نموذج لغة الإشارة من Google) في أقل من ساعة على DGX SuperPOD الذي يتكون من 1،472 وحدة معالجة جرافيك Tesla V100-SXM3-32GB و 92 خادم DGX-2H و 10 Mellanox Infiniband لكل عقدة. لا ، لا أريد أن أحاول حتى أن أقدّر قيمة الإيجار بالساعة لأحد هؤلاء. ولكن نظرًا لأن نماذج مثل هذه تستغرق عادةً أيامًا للتدريب حتى على مجموعات GPU المتطورة ، فإن هذا سيساعد بالتأكيد على توفير الوقت لتسويق الشركات التي يمكنها تحمل التكلفة.

أسرع استنتاج نموذج اللغة

بالنسبة للمحادثات الطبيعية ، فإن معيار الصناعة هو وقت استجابة يبلغ 10 مللي ثانية. إن فهم الاستعلام والتوصل إلى رد مقترح ليس سوى جزء واحد من العملية ، لذلك يجب أن يستغرق الأمر أقل من 10 مللي ثانية. من خلال تحسين BERT باستخدام TensorRT 5.1 ، فإن Nvidia يستنتج أنه في 2.2 مللي ثانية على Nvidia T4. الطريف هو أن T4 هو في الواقع في متناول أي مشروع جاد. لقد استخدمتها في Google Compute Cloud لنظام إنشاء النصوص الخاص بي. خادم ظاهري 4 vCPU مع T4 مستأجر لما يزيد قليلاً عن دولار واحد في الساعة عندما فعلت المشروع.

دعم حتى أكبر النماذج

هناك حاجة إلى الاستدلال الأسرع لمنظمة العفو الدوليةيتمثل أحد كعب أخيل الشبكات العصبية في ضرورة وجود جميع معلمات النموذج (بما في ذلك عدد كبير من الأوزان) في الذاكرة مرة واحدة. هذا يحد من تعقيد النموذج الذي يمكن تدريبه على وحدة معالجة الرسومات بحجم ذاكرة الوصول العشوائي. في حالتي ، على سبيل المثال ، سطح المكتب الخاص بي Nvidia GTX 1080SEEAMAZON_ET_135 راجع Amazon التجارة ET يمكن أن تدرب فقط النماذج التي تناسب 8GB لها. يمكنني تدريب الموديلات الأكبر على وحدة المعالجة المركزية الخاصة بي ، والتي تحتوي على ذاكرة RAM أكبر ، ولكنها تستغرق وقتًا أطول. نموذج اللغة GPT-2 الكامل به 1.5 مليار معلمة ، على سبيل المثال ، والإصدار الموسَّع به 8.3 مليار.

نفيديا ، على الرغم من ذلك ، توصلت إلى وسيلة للسماح لعدة وحدات معالجة الرسومات للعمل في مهمة نمذجة اللغة بشكل متواز. كما هو الحال مع الإعلانات الأخرى اليوم ، فقد فتحوا الكود مفتوح المصدر لتحقيق ذلك. سأكون فضوليًا حقًا إذا كانت التقنية خاصة بنماذج اللغة أو يمكن تطبيقها للسماح بتدريب GPU متعدد لفئات أخرى من الشبكات العصبية.

جنبا إلى جنب مع هذه التطورات وإطلاق الكود على GitHub ، أعلنت نفيديا أنها ستشارك مع مايكروسوفت لتحسين نتائج بحث Bing ، وكذلك مع Clinc على وكلاء الصوت ، و Passage AI على chatbots ، و RecordSure على تحليلات المحادثة.

اقرأ الآن: