الأخبار التكنولوجية والاستعراضات والنصائح!

تدعم إصدارات PATE الفردية الجديدة تدريب نماذج التعلم الآلي مع ضمانات الخصوصية الفردية

ستساعدك المقالة التالية: تدعم إصدارات PATE الفردية الجديدة تدريب نماذج التعلم الآلي مع ضمانات الخصوصية الفردية

الخصوصية التفاضلية هي تقنية لحماية خصوصية الأفراد عند استخدام بياناتهم ، مثل المعلومات الشخصية أو السجلات الطبية ، للبحث أو التحليل. يمكن لنماذج التعلم الآلي المدربة على البيانات الحساسة أن تهدد الخصوصية الفردية ، لذلك اقترح الباحثون طرقًا لتدريب هذه النماذج مع توفير ضمانات الخصوصية.

PATE (التجميع الخاص لمجموعات المعلمين) هي طريقة خصوصية تفاضلية تدرب العديد من المعلمين على البيانات الخاصة ثم تستخدم النماذج لتدريب نموذج الطالب ، مما يسمح لنموذج الطالب بالتعلم من البيانات الخاصة دون المساس بخصوصية البيانات. توفر طرق PATE التقليدية ضمانًا عالميًا للخصوصية لمجموعة البيانات بأكملها ولكنها لا تضمن حماية خصوصية كل فرد في مجموعة البيانات. هذا مهم بشكل خاص عندما تحتوي مجموعة البيانات على معلومات حساسة حول الأفراد ، مثل البيانات الطبية أو المالية. في الآونة الأخيرة ، تم نشر ورقة جديدة بعنوان “الفردي PATE: التعلم الآلي الخاص التفاضلي مع ضمانات الخصوصية الفردية” لتقديم طريقة لتدريب نماذج التعلم الآلي على البيانات الحساسة التي تضمن الخصوصية التفاضلية لكل فرد في مجموعة البيانات. يوفر هذا الامتداد لطريقة PATE ضمانًا عالميًا للخصوصية لمجموعة البيانات بأكملها.

الطريقة المقترحة لـ PATE الفردي تقوم بتدريب العديد من المعلمين على مجموعات فرعية مختلفة من البيانات ثم حساب متوسط ​​توقعات المعلمين للحصول على نموذج نهائي. تستخدم الطريقة مفهوم الخصوصية التفاضلية لضمان عدم المساس بالبيانات الخاصة. تتطلب الطريقة أيضًا استخدام بروتوكول حساب متعدد الأطراف آمن (MPC) لتجميع تنبؤات المعلمين.

بشكل ملموس ، اقترح المؤلفون البدء بتقسيم البيانات الحساسة إلى مجموعات فرعية متعددة منفصلة وتدريب العديد من المعلمين على كل مجموعة فرعية. يتم تدريب هؤلاء المعلمين على البيانات الخاصة ولكن لا يمكنهم الوصول إلى البيانات بأنفسهم. بدلاً من ذلك ، يتم إعطاؤهم ملخصًا خاصًا تفاضليًا للبيانات ، مما يسمح لهم بعمل تنبؤات حول البيانات دون المساس بخصوصية الأفراد. بمجرد تدريب المعلمين ، يقومون بعمل تنبؤات على مجموعة تحقق منفصلة. يتم بعد ذلك تجميع هذه التوقعات باستخدام بروتوكول حساب متعدد الأطراف آمن (MPC) للحصول على النموذج النهائي. يضمن بروتوكول MPC دمج التنبؤات بطريقة تحافظ على خصوصية الأفراد في مجموعة البيانات. النموذج النهائي هو مزيج من التنبؤات التي قام بها العديد من المعلمين ويمكن أن يتعلم من البيانات الخاصة دون المساس بخصوصية البيانات.

تم إجراء دراسة تجريبية على مجموعات بيانات متعددة لإثبات فعالية الطريقة المقترحة. أجريت التجارب على مجموعات بيانات متعددة ، بما في ذلك مجموعات البيانات التركيبية والواقعية. استخدم المؤلفون إصدارات خاصة مختلفة من النماذج المعروفة مثل الانحدار اللوجستي والشبكات العصبية كمعلمين. تظهر النتائج التي تم الحصول عليها أن الطريقة يمكن أن تحقق تنبؤات دقيقة مع توفير ضمانات الخصوصية الفردية. بالإضافة إلى ذلك ، يوضح التحقيق أن هذا النهج الجديد يوفر ضمانات خصوصية أقوى مقارنة بأساليب PATE التقليدية ، لأنه يضمن حماية خصوصية كل فرد في مجموعة البيانات ، بغض النظر عن وجود أفراد آخرين في مجموعة البيانات.

في هذه الورقة ، قدمنا ​​نهجًا جديدًا ، وهو PATE الفردي ، والذي يوفر ضمانات خصوصية أقوى من أساليب PATE التقليدية ، لأنه يضمن حماية خصوصية كل فرد في مجموعة البيانات ، بغض النظر عن وجود أفراد آخرين في مجموعة البيانات. توضح النتائج التجريبية أن الطريقة يمكن أن تحقق تنبؤات دقيقة مع توفير ضمانات الخصوصية الفردية. ومع ذلك ، فإنه يتطلب استخدام بروتوكول حساب متعدد الأطراف آمن (MPC) لتجميع تنبؤات المعلمين.