ستساعدك المقالة التالية: إطار نظري جديد للذكاء الاصطناعي لتحليل وتسرب المعلومات المربوط من نماذج التعلم الآلي
أثارت خوارزميات ML مخاوف تتعلق بالخصوصية والأمان بسبب تطبيقها في المشكلات المعقدة والحساسة. أظهرت الأبحاث أن نماذج ML يمكنها تسريب معلومات حساسة من خلال الهجمات ، مما يؤدي إلى اقتراح شكليات جديدة لتعميم وربط هذه الهجمات بالحفظ والتعميم. ركزت الأبحاث السابقة على الاستراتيجيات المعتمدة على البيانات لتنفيذ الهجمات بدلاً من إنشاء إطار عام لفهم هذه المشكلات. في هذا السياق ، تم نشر دراسة حديثة مؤخرًا لاقتراح شكليات جديدة لدراسة هجمات الاستدلال وعلاقتها بالتعميم والحفظ. يعتبر هذا الإطار نهجًا أكثر عمومية دون وضع أي افتراضات حول توزيع معلمات النموذج في ضوء مجموعة التدريب.
الفكرة الرئيسية المقترحة في المقالة هي دراسة التفاعل بين التعميم والخصوصية التفاضلية (DP) والهجمات على السمة واستدلال العضوية من منظور مختلف ومتكامل عن الأعمال السابقة. توسع المقالة النتائج إلى الحالة الأكثر عمومية لوظائف الخسارة المرتبطة بالذيل وتدرس مهاجم بايزي مع وصول الصندوق الأبيض ، والذي ينتج عنه حد أعلى لاحتمال نجاح جميع الخصوم المحتملين وأيضًا على فجوة التعميم. يوضح المقال أن العبارة العكسية ، “التعميم يعني الخصوصية” ، قد ثبت خطأها في الأعمال السابقة وتوفر دليلًا مضادًا من خلال إعطاء مثال حيث تميل فجوة التعميم إلى الصفر بينما يحقق المهاجم دقة كاملة. بشكل ملموس ، يقترح هذا العمل شكليات لنمذجة العضوية و / أو هجمات استدلال السمة على أنظمة التعلم الآلي (ML). يوفر إطارًا بسيطًا ومرنًا مع التعريفات التي يمكن تطبيقها على إعدادات المشكلة المختلفة. يحدد البحث أيضًا حدودًا عالمية لمعدل نجاح هجمات الاستدلال ، والتي يمكن أن تكون بمثابة ضمان للخصوصية وتوجيه تصميم آليات الدفاع عن الخصوصية لنماذج ML. يبحث المؤلفون في العلاقة بين فجوة التعميم واستدلال العضوية ، مما يدل على أن التعميم السيئ يمكن أن يؤدي إلى تسرب الخصوصية. كما أنهم يدرسون كمية المعلومات المخزنة بواسطة نموذج مدرب حول مجموعة التدريب الخاصة به ودورها في هجمات الخصوصية ، ووجدوا أن المعلومات المتبادلة تحد من كسب مهاجم بايزي. التجارب العددية على الانحدار الخطي والشبكات العصبية العميقة للتصنيف تظهر فعالية النهج المقترح في تقييم مخاطر الخصوصية.
توفر تجارب فريق البحث نظرة ثاقبة لتسرب المعلومات لنماذج التعلم الآلي. باستخدام الحدود ، يمكن للفريق تقييم معدل نجاح المهاجمين وتم العثور على الحدود الدنيا لتكون دالة على فجوة التعميم. لا تضمن هذه الحدود السفلية عدم أداء أي هجوم بشكل أفضل. ومع ذلك ، إذا كان الحد الأدنى أعلى من التخمين العشوائي ، فسيتم اعتبار أن النموذج يسرب معلومات حساسة. أظهر الفريق أن النماذج المعرضة لهجمات استدلال العضوية يمكن أن تكون أيضًا عرضة لانتهاكات الخصوصية الأخرى ، كما يتم الكشف عنها من خلال هجمات استدلال السمات. تمت مقارنة فعالية العديد من استراتيجيات استدلال السمات ، مما يدل على أن وصول الصندوق الأبيض إلى النموذج يمكن أن يؤدي إلى مكاسب كبيرة. يوفر معدل نجاح مهاجم Bayesian ضمانًا قويًا للخصوصية ، ولكن يبدو أن حساب منطقة القرار المرتبطة به أمر غير ممكن من الناحية الحسابية. ومع ذلك ، قدم الفريق مثالًا اصطناعيًا باستخدام الانحدار الخطي والبيانات الغاوسية ، حيث كان من الممكن حساب التوزيعات المعنية تحليليًا.
في الختام ، أثار الاستخدام المتزايد لخوارزميات التعلم الآلي (ML) مخاوف بشأن الخصوصية والأمان. أبرزت الأبحاث الحديثة خطر تسرب المعلومات الحساسة من خلال هجمات استدلال العضوية والسمات. لمعالجة هذه المشكلة ، تم اقتراح شكليات جديدة توفر نهجًا أكثر عمومية لفهم هذه الهجمات وعلاقتها بالتعميم والحفظ. وضع فريق البحث حدودًا عالمية على معدل نجاح هجمات الاستدلال ، والتي يمكن أن تكون بمثابة ضمان للخصوصية وتوجيه تصميم آليات الدفاع عن الخصوصية لنماذج ML. أظهرت تجاربهم على الانحدار الخطي والشبكات العصبية العميقة فعالية النهج المقترح في تقييم مخاطر الخصوصية. بشكل عام ، يوفر هذا البحث رؤى قيمة حول تسرب المعلومات لنماذج ML ويسلط الضوء على الحاجة إلى استمرار الجهود لتحسين خصوصيتها وأمانها.