الأخبار التكنولوجية والاستعراضات والنصائح!

شرح المصطلحات اللغوية المتخصصة في التعلم العميق – نحو الذكاء الاصطناعي

ستساعدك المقالة التالية: شرح المصطلحات اللغوية المتخصصة في التعلم العميق – نحو الذكاء الاصطناعي

نُشر في الأصل على نحو AI ، الشركة الرائدة في العالم في مجال الذكاء الاصطناعي والأخبار التقنية والإعلام. إذا كنت تقوم ببناء منتج أو خدمة متعلقة بالذكاء الاصطناعي ، فنحن ندعوك للتفكير في أن تصبح راعيًا للذكاء الاصطناعي. في نحو الذكاء الاصطناعي ، نساعد في توسيع نطاق الشركات الناشئة في مجال الذكاء الاصطناعي والتكنولوجيا. دعنا نساعدك على إطلاق التكنولوجيا الخاصة بك للجماهير.

12 تعريفًا رئيسيًا مهمًا للمفاهيم المتعلقة بالشبكات العصبية الاصطناعية والتعلم العميق

أشياء قليلة يجب ملاحظتها

حقق التعلم العميق مجموعة رائعة من الإنجازات في السنوات العديدة الماضية. في ضوء ذلك ، من المهم مراعاة بعض الأشياء ، على الأقل في رأيي:

  • التعلم العميق ليس حلا سحريا – إنه ليس حلاً سهلاً يناسب الجميع لكل مشكلة موجودة
  • إنها ليست الخوارزمية الرئيسية الأسطورية– لن يحل التعلم العميق محل جميع خوارزميات التعلم الآلي وتقنيات علوم البيانات الأخرى ، أو على الأقل لم يثبت ذلك بعد
  • التوقعات المخففة ضرورية – في حين تم اتخاذ خطوات كبيرة مؤخرًا في جميع أنواع مشاكل التصنيف ، لا سيما رؤية الكمبيوتر ومعالجة اللغة الطبيعية ، بالإضافة إلى التعلم المعزز ومجالات أخرى ، فإن التعلم العميق المعاصر لا يتسع للعمل على مشكلات معقدة للغاية مثل “حل السلام العالمي” “
  • التعلم العميق والذكاء الاصطناعي ليسا مترادفين
  • يمكن أن يوفر التعلم العميق الكثير لعلوم البيانات في شكل عمليات وأدوات إضافية للمساعدة في حل المشكلات ، وعندما يتم ملاحظته في ضوء ذلك ، التعلم العميق هو إضافة قيمة للغاية إلى مشهد علم البيانات

لنبدأ بتعريفات المصطلحات المتعلقة بالتعلم العميق:

1. التعلم العميق

  • التعلم العميق هو عملية تطبيق تقنيات الشبكة العصبية العميقة لحل المشكلات. عميقالشبكات العصبية هي شبكات عصبية ذات طبقة مخفية واحدة كحد أدنى
  • مثل التنقيب عن البيانات ، يشير التعلم العميق إلى أ عملية، والتي تستخدم بنى الشبكات العصبية العميقة ، وهي أنواع معينة من خوارزميات التعلم الآلي.

2. الشبكات العصبية الاصطناعية

  • كانت بنية التعلم الآلي مستوحاة في الأصل من الدماغ البيولوجي (خاصة الخلايا العصبية) التي يتم من خلالها تنفيذ التعلم العميق. في الواقع ، الشبكات العصبية الاصطناعية (ANN) وحدها (التنوع غير العميق) كانت موجودة منذ فترة طويلة جدًا ، وتمكنت من حل أنواع معينة من المشكلات تاريخيًا.
  • ومع ذلك ، في الآونة الأخيرة نسبيًا ، تم ابتكار بنى الشبكات العصبية التي تضمنت طبقات من الخلايا العصبية المخفية (تتجاوز مجرد طبقات الإدخال والإخراج) ، وهذا المستوى الإضافي من التعقيد هو ما يتيح التعلم العميق ، ويوفر مجموعة أكثر قوة من أدوات حل المشكلات.
  • تختلف شبكات ANN في بنيتها بشكل كبير ، وبالتالي لا يوجد تعريف محدد للشبكة العصبية. الخصائص 2 التي يتم الاستشهاد بها بشكل عام لجميع الشبكات العصبية الاصطناعية هي امتلاك مجموعات الأوزان التكيفية والقدرة على تقريب الوظائف غير الخطية لمدخلات الخلايا العصبية.

3. بيرسبترون

  • المدرك هو مصنف ثنائي خطي بسيط. تأخذ المستطلعات المدخلات والأوزان المرتبطة بها (التي تمثل أهمية المدخلات النسبية) وتجمعها لإنتاج مخرجات ، والتي تُستخدم بعد ذلك للتصنيف.
  • كانت Perceptrons موجودة منذ وقت طويل ، مع تطبيقات مبكرة تعود إلى الخمسينيات من القرن الماضي ، والتي شارك أولها في تطبيقات ANN المبكرة.

4. متعدد الطبقات Perceptron

  • إن الإدراك متعدد الطبقات (MLP) هو تنفيذ عدة طبقات متصلة بشكل كامل من الإدراك الحسي ، مما يشكل شبكة عصبية بسيطة إلى الأمام
  • يتمتع هذا الإدراك متعدد الطبقات بميزة إضافية تتمثل في وظائف التنشيط غير الخطية ، والتي لا تمتلكها المستوعبات الفردية.

5. شبكة عصبية Feedforward

  • الشبكات العصبية المغذية هي أبسط شكل من أشكال بنية الشبكة العصبية ، حيث تكون الاتصالات غير دورية.
  • في الشبكة العصبية الاصطناعية الأصلية ، تتقدم المعلومات في شبكة التغذية الأمامية في اتجاه واحد من عقد الإدخال ، على الرغم من أي طبقات مخفية ، إلى عقد الإخراج ؛ لا توجد دورات.
  • تختلف شبكات التغذية الأمامية عن بنيات الشبكات المتكررة اللاحقة والتي تشكل فيها الاتصالات دورة موجهة.

6. الشبكة العصبية المتكررة

  • على النقيض من الشبكات العصبية الأمامية أعلاه ، فإن اتصالات الشبكات العصبية المتكررة تشكل دورة موجهة.
  • يسمح هذا التدفق ثنائي الاتجاه بتمثيل الحالة الزمنية الداخلية ، والذي بدوره يسمح بمعالجة التسلسل ، ومن الجدير بالملاحظة أنه يوفر القدرات اللازمة للتعرف على الكلام والكتابة اليدوية.

7. وظيفة التنشيط

  • في الشبكات العصبية ، تنتج وظيفة التنشيط حدود قرار الإخراج من خلال الجمع بين مدخلات الشبكة الموزونة.
  • تتراوح وظائف التنشيط من الهوية (الخطية) إلى السيني (الخطوة اللوجيستية أو اللينة) إلى القطعية (الظل) وما بعدها. لتوظيف backpropagation (انظر أدناه) ، يجب أن تستخدم الشبكة وظائف التنشيط القابلة للتفاضل.

8. التكاثر العكسي

  • الدعامة الخلفية هي مجرد نزول متدرج على أخطاء فردية. تقارن تنبؤات الشبكة العصبية بالمخرجات المرغوبة ثم تحسب تدرج الأخطاء المتعلقة بأوزان الشبكة العصبية. يمنحك هذا اتجاهًا في مساحة وزن المعلمة حيث يصبح الخطأ أصغر.

9. وظيفة التكلفة

  • تقيس دالة التكلفة الفرق بين المخرجات الفعلية والتدريبية. إن التكلفة الصفرية بين النواتج الفعلية والمتوقعة تعني أن الشبكة كانت تتدرب قدر الإمكان ؛ من الواضح أن هذا سيكون مثاليًا.

10. نزول متدرج

  • نزول التدرج هو خوارزمية تحسين تستخدم للعثور على الحد الأدنى المحلي للوظائف. على الرغم من أنه لا يضمن حدًا أدنى عالميًا ، إلا أن النسب المتدرج مفيد بشكل خاص للوظائف التي يصعب حلها تحليليًا للحصول على حلول دقيقة ، مثل ضبط المشتقات على الصفر والحل.
  • في سياق الشبكات العصبية ، نزول التدرج العشوائيتُستخدم لإجراء تعديلات مستنيرة على معلمات شبكتك بهدف تقليل وظيفة التكلفة إلى الحد الأدنى ، وبالتالي تقريب المخرجات الفعلية لشبكتك ، بشكل متكرر ، من المخرجات المتوقعة أثناء التدريب. يستخدم هذا التصغير التكراري حساب التفاضل والتكامل ، أي التفاضل.
  • بعد خطوة التدريب ، تتلقى أوزان الشبكة تحديثات وفقًا لتدرج دالة التكلفة والأوزان الحالية للشبكة ، بحيث تكون نتائج خطوة التدريب التالية أقرب قليلاً إلى التصحيح (كما تم قياسها بواسطة دالة تكلفة أصغر). Backpropagation (الانتشار العكسي للأخطاء) هي الطريقة المستخدمة لتوزيع هذه التحديثات على الشبكة

11. مشكلة التدرج المتلاشي

  • يستخدم Backpropagation قاعدة السلسلة لحساب التدرجات (عن طريق التمايز) ، في تلك الطبقات باتجاه “الجبهة” (المدخلات) لشبكة عصبية ذات طبقة ما سيكون لها عدد صغير من قيم التدرج المحدثة مضاعفة مرات قبل استخدام هذه القيمة الثابتة كتحديث .
  • هذا يعني أن التدرج اللوني سينخفض ​​بشكل كبير ، وستستغرق مشكلة ذات قيم أكبر ، والطبقات الأمامية مزيدًا من الوقت للتدريب بفعالية.

12. شبكة الذاكرة طويلة المدى

  • شبكة الذاكرة طويلة المدى (LSTM) عبارة عن شبكة عصبية متكررة تم تحسينها للتعلم من البيانات المتعلقة بالوقت والعمل وفقًا لها والتي قد يكون لها فترات زمنية غير محددة أو غير معروفة بين الأحداث ذات الصلة.
  • تسمح بنيتهم ​​الخاصة بالاستمرار ، مما يمنح ANN “ذاكرة”. استفادت الإنجازات الأخيرة في التعرف على خط اليد والتعرف التلقائي على الكلام من شبكات LSTM.

شكرا لقرائتك المجلة؟؟

إذا كنت تريد قراءة المزيد من المقالات مثل هذا ، فاتبعني


نُشرت المصطلحات اللغوية المتخصصة في Deep Learning Explained في الأصل في Towards AI on Medium ، حيث يواصل الأشخاص المحادثة من خلال تسليط الضوء على هذه القصة والرد عليها.

تم النشر عبر نحو الذكاء الاصطناعي