قدمت Nvidia حاسوبها العملاق في حدث ISC High Performance في Frankfurt Main ، والذي قفز على الفور إلى المركز 22 في قائمة التصنيف العالمي. لكن الأمر الأكثر إثارة للاهتمام من الأداء ، هو النهج وراء DGX SuperPOD: فهو يربط 96 DGX-2 المقدمة بالفعل قبل عام.
مثل مكوناته الفردية البالغ عددها 96 ، كل مجموعة على 16 وحدة معالجة الرسومات Volta (Tesla V100 32 GB) ، لذلك فإن DGX SuperPOD مصمم أساسًا لحساب AI ، يوضح Nvidia.
داخل DGX-2 ، يتم توصيل 81،920 تظليل من وحدات معالجة الرسومات الـ16 عبر NVSwitch ، والتي تضم في حد ذاتها 2 مليار الترانزستورات. كل DGX-2 تستخدم Intel Xeon Platinum 8174 مع 24 قلب. لعرض نظام المكعب ، ودعا نفيديا سعر الشراء حوالي 400،000 دولار أمريكي قبل الضرائب. يضيف DGX SuperPOD ما يقرب من 40 مليون دولار.
أثناء الانتقال إلى بنية ARM لأجهزة الكمبيوتر العملاقة exascale المستقبلية ، تُظهر مجموعة Nvidia مرونة حلول تسريع GPU الخاصة بالذكاء الاصطناعي من خلال الإعلان عن وصول جهاز الكمبيوتر العملاق DGX SuperPOD القوي.
بفضل قوة المعالجة البالغة 9.4 بيتافلوبس ، تم تصنيفها كأكبر 22 حاسوبًا فائقًا في العالم ، ولكنها لم تتطلب سوى ثلاثة أسابيع من التنفيذ ، مقارنةً بما بين 6 إلى 9 أشهر لأجهزة الكمبيوتر العملاقة القياسية. قاعدة الخادم.
يعتمد هذا النظام على 96 نظامًا Nvidia DGX-2H يدمج كل منها 16 مسرعات Nvidia Tesla V100 (أي 1536 Tesla V100 للنظام بأكمله) ومتصلة بتقنيات Mellanox ، مع ميزة التصميم المعياري.
سيكون الهدف الأساسي من DGX SuperPOD هو تدريب الشبكات العصبية العميقة للذكاء الاصطناعي لسيارات السوق المستقلة في المستقبل. مع 1 تيرابايت من البيانات التي يتم إنشاؤها كل يوم بواسطة كل مركبة وتتبعها على مدى عدة سنوات ، فهذه هي كميات هائلة من البيانات التي تحتاج إلى معالجة وتحليل للحد من نقاط الضعف المحتملة في الذكاء الاصطناعي في بعض السيناريوهات وإعادة تدريب الشبكات. الخلايا العصبية لجعلها أكثر كفاءة.
تقدم Nvidia قدرات المعالجة ، مع مثال على تدريب الشبكة العصبية ResNet-50 في أقل من دقيقتين عندما استغرق الأمر 25 يومًا في عام 2015 عندما تم تكليفه بمعالجة GPU Nvidia.