الأخبار التكنولوجية والاستعراضات والنصائح!

تعلم معي: الجبر الخطي لعلوم البيانات – الجزء 3: المتجهات الذاتية – نحو الذكاء الاصطناعي

ستساعدك المقالة التالية: تعلم معي: الجبر الخطي لعلوم البيانات – الجزء 3: المتجهات الذاتية – نحو الذكاء الاصطناعي

نُشر في الأصل على نحو AI ، الشركة الرائدة في العالم في مجال الذكاء الاصطناعي والأخبار التقنية والإعلام. إذا كنت تقوم ببناء منتج أو خدمة متعلقة بالذكاء الاصطناعي ، فنحن ندعوك للتفكير في أن تصبح راعيًا للذكاء الاصطناعي. في نحو الذكاء الاصطناعي ، نساعد في توسيع نطاق الشركات الناشئة في مجال الذكاء الاصطناعي والتكنولوجيا. دعنا نساعدك على إطلاق التكنولوجيا الخاصة بك للجماهير.

تعلم معي: الجبر الخطي لعلوم البيانات – الجزء 3: المتجهات الذاتية

أنا أعرف ما تفكر فيه ، ما هو المتجه الذاتي على الأرض؟ هل هذه كلمة فعلية؟

نعم ، هم حقيقيون. كما أنها مفيدة للغاية لعمليات معينة في علوم البيانات. إذا قرأت الجزء 2 من هذه السلسلة ، فستعرف أنني شجعتك على البدء في التفكير في المصفوفات كوسيلة لإجراء تحويلات خطية. الطريقة الشائعة للتفكير في هذا هي من خلال الكلاسيكية الفأس = ب على سبيل المثال ، حيث المصفوفة أ يحول متجه الإدخال x في ناقل الإخراج ب.

إذن ، ما هو المتجه الذاتي؟

من المحتمل أن يتم شرح ناقل eigenvector بشكل أفضل من خلال مثال. لنبدأ بالمصفوفة A والمتجه x:

بالنسبة لأولئك الذين قرأوا الأجزاء السابقة من هذه السلسلة ، سيكون المنتج النقطي أعلاه قطعة من الكعكة! المصفوفة A تحول المتجه x إلى متجه جديد b له قيمة [4, 3] . دعونا نرى هذا التحول بصريا.

يمكننا وصف هذا التحول بأنه تدوير وتمديد المتجه الأصلي x. يمكننا أن نخطو خطوة أخرى إلى الأمام ونتخيل مجالًا من المتجهات ممثلة بدائرة. تخيل أن كل نقطة تقع على هذه الدائرة هي رأس متجه ينشأ عند نقطة الأصل. يمكننا الآن أن نرى كيف ستتحول جميع النواقل المختلفة كنتيجة للمصفوفة أ.

كما ترى ، يتم تدوير الدائرة الأصلية وتمددها قليلاً. إذا تخيلنا تلك النقاط على طول الدائرة كمتجهات ، فسيقال نفس الشيء عنها. ولكن ماذا لو كان هناك متجه لم يتم تدويره أثناء التحول؟ كيف سنجدها؟ والأفضل من ذلك ، لماذا يجب أن نهتم به؟

حسنًا ، هذا هو بالضبط ما هو eigenvector ، متجه لا يتم تدويره أثناء تحول خطي ، يتم تحجيمه فقط. رسميًا يمكننا الإشارة إليه على النحو التالي:

حيث يشار إلى λ (لامدا) على أنها قيمة ذاتية. إنه مجرد عدد قياسي يخبرنا بمدى تقصير أو إطالة ناقل eigenvector بعد التحويل الخطي. قد تحتوي المصفوفة على بعض القيم الذاتية أو لا شيء (لكي يكون للمصفوفة أي متجهات ذاتية ، في البداية ، يجب أن تكون مصفوفة مربعة) ، لكن كل واحد من هذه المتجهات الذاتية له قيمة ذاتية مقابلة تخبرنا عن القياس.

استمرارًا لمثالنا أعلاه ، دعنا نرى كيف يبدو المتجه الذاتي والقيمة الذاتية للمصفوفة أ.

يمكننا أن نرى أنه قبل التحويل وبعده ، لا يدور المتجه الذاتي عن محوره الأصلي. يحتوي هذا المتجه الذاتي أيضًا على قيمة ذاتية تبلغ 11 ، وهو أمر منطقي بشكل حدسي لأن المتجه بعد التحول يبدو أطول بحوالي 11 مرة.

حساب المتجهات الذاتية

إذا كان كل ما تريد معرفته هو رمز Python المراد تنفيذه لإرجاع قيم eigenvalues ​​ومتجهات eigenvectors ، فإليك ما يلي:

eig_vals ، eig_vecs = np.linalg.eig (A)

لمزيد من الفضول بينكما ، سنتعرف على كيفية اشتقاق القيم الذاتية والمتجهات يدويًا. سأقدم الرياضيات بالقول إنك ربما لن تفعل ذلك أبدًا لأسباب عملية ، لكن من الجيد حقًا أن تفهم ما يجري تحت غطاء وظائف NumPy.

دعنا نعود إلى الصيغة الرياضية الأصلية الخاصة بنا لمتجهات eigenvectors وقيم eigenvalues.

أول شيء سنفعله هو إضافة مصفوفة وحدة إلى المزيج. لا تغير هذه المصفوفات أي شيء (إنها تعادل ضرب رقم في 1) ، لكنها تبسط العملية الحسابية. تصبح معادلتنا الجديدة:

دعنا نضع كل شيء في جانب واحد لأن وجود أشياء مساوية للصفر يجعل الأمر مثيرًا! سنحلل أيضًا x لأن ذلك سيكون عاملاً مشتركًا.

في الوقت الحالي ، نعتبر أن الحدود بين القوسين تؤدي إلى مصفوفة غير قابلة للعكس. في هذه المرحلة ، لا يبدو أن هناك العديد من الخيارات الأخرى. ومع ذلك ، فإن حقيقة أن المصفوفة الناتجة ليست قابلة للعكس تخبرنا بشيء مهم جدًا. يجب أن يساوي محدد المصطلحات داخل الأقواس أيضًا 0. وهذا هو:

بعد ذلك ، سنحسب المصفوفة داخل الأقواس باستخدام مصفوفة A الأصلية:

بمجرد أن نحصل على هذه المصفوفة ، يمكننا البدء في إيجاد محددها. بالنسبة لمصفوفة 2 × 2 التي تكون بسيطة نسبيًا ، لا أوصي بتجربة ذلك يدويًا لأي مصفوفات أكبر. في هذه الحالة ، يكون فقط (أعلى اليسار * أسفل اليمين) – (أسفل اليسار * أعلى اليمين). ينتج عن هذا معادلة يمكننا تحليلها لإيجاد القيم الذاتية:

حتى الآن ، كل شيء يبدو جيدًا ، نحصل على نفس قيم eigenvalues ​​كما فعلنا مع Python. لكن العمل لم ينته ، فنحن بحاجة إلى استخدام قيمنا الذاتية لحساب متجهات eigenvectors الخاصة بنا. باستخدام ما حددناه حتى الآن ، دعنا نملأ المعادلة القياسية للمتجهات الذاتية:

لدينا في الواقع قيمة ذاتية الآن يمكننا استخدامها كمدخلات في المعادلة أعلاه. باستخدام 11 ، سنحصل على نظام معادلات مثل ما يلي:

هذه معادلات واضحة ومباشرة ، وكلاهما تم حلهما عن طريق:

لذا فإن أي مجموعة من النقاط التي تفي بالمعايير المذكورة أعلاه سوف تقع على ناقل eigenvector الخاص بنا. إليكم الأمر ، لقد حسبت للتو قيم eigenvalues ​​والمتجهات الذاتية للمصفوفة A. ولكن ، لا يزال هناك سؤال رئيسي واحد يلوح في الأفق …

من يهتم؟

ما هو الهدف من كل هذا؟ أسمعك تقول. حسنًا ، صدق أو لا تصدق ، هذا له مكانه في علوم البيانات. سنناقش بإيجاز تطبيقًا رئيسيًا واحدًا للقيم الذاتية والمتجهات الذاتية.

تحليل المكونات الرئيسية (PCA)

ربما تكون قد سمعت أو لم تسمع عن تحليل المكونات الرئيسية. ربما تكون تقنية تقليل الأبعاد الأكثر استخدامًا في علوم البيانات. إنه يعمل على تقليل كمية البيانات المطلوبة لتمثيل النظام مع الحفاظ أيضًا على أكبر قدر ممكن من المعلومات. يأخذ PCA بشكل فعال المتجهات الذاتية لمصفوفة التغاير ويعيد ما يعرف بالمكونات الرئيسية. سنغطي PCA بشكل أكثر تعمقًا في الأجزاء اللاحقة من السلسلة ، ولكن في الوقت الحالي ، فقط تعرف على مدى أهميتها!

خاتمة

نأمل أن تكون قد استمتعت بجزء آخر من سلسلة الجبر الخطي ، تأكد من مراجعة الجزء الأول والجزء الثاني إذا كان هناك أي شيء لم تكن متأكدًا بشأنه في هذه المقالة. لقد وضعنا أساسًا جيدًا حتى هذه النقطة ، وسنبدأ في الدخول في المزيد من التطبيقات العملية للجبر الخطي ، مثل PCA وتحلل القيمة المفردة (SVD).


تعلم معي: الجبر الخطي لعلوم البيانات – الجزء 3: تم نشر المتجهات الذاتية في الأصل في نحو الذكاء الاصطناعي على المتوسط ​​، حيث يواصل الناس المحادثة من خلال تسليط الضوء على هذه القصة والرد عليها.

تم النشر عبر نحو الذكاء الاصطناعي