الأخبار التكنولوجية والاستعراضات والنصائح!

تتطابق Lake Cascade Lake مع DL Boost وجها لوجه مع Titan RTX من Nvidia في اختبارات الذكاء الاصطناعي

قد يكسب هذا الموقع عمولات تابعة من الروابط الموجودة في هذه الصفحة. تعليمات الاستخدام. تتطابق Lake Cascade Lake مع DL Boost وجها لوجه مع Titan RTX من Nvidia في اختبارات الذكاء الاصطناعي 1

على مدار الأعوام القليلة الماضية ، تحدثت Intel عن خوادم Cascade Lake التابعة لها مع DL Boost (المعروف أيضًا باسم VNNI ، تعليمات Vector Neural Net). هذه القدرات الجديدة هي مجموعة فرعية من AVX-512 وتهدف إلى تسريع أداء وحدة المعالجة المركزية على وجه التحديد في تطبيقات AI. تاريخياً ، فضلت العديد من تطبيقات الذكاء الاصطناعي وحدات معالجة الرسومات على وحدات المعالجة المركزية. كانت بنية وحدات معالجة الرسومات (GPU) – المعالجات المتوازية بشكل كبير مع الأداء المنخفض لمؤشر ترابط واحد – مناسبة بشكل كبير لمعالجات الرسومات بدلاً من وحدات المعالجة المركزية (CPU). توفر وحدات المعالجة المركزية (CPU) مزيدًا من موارد التنفيذ لكل مؤشر ترابط ، ولكن حتى وحدات المعالجة المركزية متعددة النواة اليوم تتضاءل بسبب التوازي المتوفر في وحدة معالجة GPU متطورة.

قارن Anandtech بين أداء Cascade Lake و Epyc 7601 (سيتم تجاوزه قريبًا عن طريق وحدات المعالجة المركزية AMD في روما التي تبلغ 7nm لكن لا يزال يمثل خادم AMD الرائد حتى اليوم) و RTX Titan. يناقش المقال ، الذي كتبه يوهان دي جيلاس الممتاز ، أنواعًا مختلفة من الشبكات العصبية خارج شبكات CNN (الشبكات العصبية التلافيفية) التي يتم تقييمها عادةً ، وكيف يتمثل جزء أساسي من استراتيجية إنتل في التنافس ضد نفيديا في أحمال العمل حيث لا تكون وحدات معالجة الرسومات قوية أو لا يمكنها حتى الآن تلبية الاحتياجات الناشئة للسوق بسبب القيود المفروضة على سعة الذاكرة (لا تزال وحدات معالجة الرسومات لا تتطابق مع وحدات المعالجة المركزية هنا) ، أو استخدام نماذج AI "الخفيفة" التي لا تتطلب أوقات تدريب طويلة ، أو نماذج AI التي تعتمد على النماذج الإحصائية للشبكات غير العصبية.

تعتبر إيرادات مراكز البيانات المتزايدة عنصرا حاسما في دفع إنتل الشامل إلى الذكاء الاصطناعي والتعلم الآلي. وفي الوقت نفسه ، تحرص نفيديا على حماية سوق تنافسه حاليًا تقريبًا. استراتيجية إنتل AI واسعة وتشمل منتجات متعددة ، من Movidius و Nervana إلى DL Boost على Xeon ، إلى خط Xe القادم من وحدات معالجة الرسومات. تسعى Nvidia إلى إظهار أنه يمكن استخدام وحدات معالجة الرسومات لمعالجة حسابات AI في نطاق أوسع من أعباء العمل. تعمل Intel على بناء قدرات AI جديدة في المنتجات الحالية ، مع إدخال أجهزة جديدة تأمل أن تؤثر على السوق ، وتحاول بناء أول وحدة معالجة جرافيكية جادة لتحدي العمل الذي تقوم به AMD و Nvidia عبر مساحة المستهلك.

ما تظهره معايير Anandtech ، بشكل إجمالي ، هو أن الفجوة بين Intel و Nvidia تظل واسعة – حتى مع DL Boost. استخدم هذا الرسم البياني لاختبار الشبكة العصبية المتكررة شبكة طويلة المدى للذاكرة (LSTM) كشبكة عصبية. وهناك نوع من أنواع RNN و LSTM "يتذكر" بشكل انتقائي على مدى فترة زمنية محددة. "كما استخدمت Anandtech ثلاثة تكوينات مختلفة لاختباره – Tensorflow خارج الصندوق مع كوندا ، و Tensorflow المحسّن من Intel مع PyPi ، و تم تحسين إصدار Tensorflow من المصدر باستخدام Bazel ، باستخدام أحدث إصدار من Tensorflow.

تتطابق Lake Cascade Lake مع DL Boost وجها لوجه مع Titan RTX من Nvidia في اختبارات الذكاء الاصطناعي 2

صورة عن طريق Anandtech

تتطابق Lake Cascade Lake مع DL Boost وجها لوجه مع Titan RTX من Nvidia في اختبارات الذكاء الاصطناعي 3

صورة عن طريق Anandtech

يلتقط هذا الزوج من الصور التحجيم النسبي بين وحدات المعالجة المركزية وكذلك المقارنة مع RTX Titan. كان الأداء خارج النطاق ضعيفًا جدًا على AMD ، رغم أنه تحسن مع الشفرة المحسّنة. لقد ارتفع أداء Intel كأنه صاروخ عندما تم اختبار الإصدار المحسن من المصدر ، ولكن حتى الإصدار الذي تم تحسينه من حيث المصدر لم يتطابق مع أداء Titan RTX جيدًا. يلاحظ De Gelas: "ثانياً ، لقد اندهشنا تمامًا من أن Titan RTX كان أسرع بثلاث مرات من إعداد Xeon الثنائي" ، الذي يخبرك بشيء عن كيفية عمل هذه المقارنات ضمن المقالة الأكبر.

لا يكفي DL Boost لسد الفجوة بين Intel و Nvidia ، لكن في الإنصاف ، ربما لم يكن من المفترض أن يكون كذلك. هدف Intel هنا هو تحسين أداء الذكاء الاصطناعي كافية على Xeon لجعل تشغيل عبء العمل هذا معقولًا على الخوادم التي سيتم استخدامها في الغالب لأشياء أخرى ، أو عند إنشاء طرز AI التي لا تتناسب مع قيود GPU الحديثة. هدف الشركة على المدى الطويل هو التنافس في سوق AI باستخدام مجموعة من المعدات ، وليس فقط Xeons. مع Xe ليست جاهزة تمامًا بعد ، فإن التنافس في مساحة HPC الآن يعني التنافس مع Xeon.

بالنسبة لأولئك الذين يتساءلون عن AMD ، لا تتحدث AMD حقًا عن تشغيل أحمال عمل AI على وحدات المعالجة المركزية (Epyc) لوحدات المعالجة المركزية (Epyc) ، لكنها ركزت على مبادرة RocM لتشغيل كود CUDA على OpenCL. لا تتحدث AMD عن هذا الجانب من أعمالها كثيرًا ، لكن نفيديا تهيمن على السوق لتطبيقات الجرافيك AI و HPC. يريد كل من AMD و Intel قطعة من المساحة. في الوقت الحالي ، يبدو أن كلاهما يقاتل شاقًا للمطالبة به.

اقرأ الآن: