ستساعدك المقالة التالية: برنامج جديد طورته جامعة ساري يمكن للباحثين التحقق من مقدار المعلومات التي يعرفها الذكاء الاصطناعي في الواقع
على مدى السنوات القليلة الماضية ، حدثت العديد من الاختراقات التكنولوجية في مجال الذكاء الاصطناعي (AI) ، مما أثر بشكل كبير على العديد من الصناعات والقطاعات. يتمتع الذكاء الاصطناعي بإمكانيات كبيرة عندما يتعلق الأمر بإحداث ثورة كاملة في صناعة الرعاية الصحية ، وتحويل كيفية عمل الشركات وكيفية تفاعل الأفراد مع التكنولوجيا. ومع ذلك ، يجب ضمان بعض الأشياء ، حتى مع التبني الواسع لتكنولوجيا الذكاء الاصطناعي ، والتي ستزداد فقط في السنوات القادمة. هذا هو المكان الذي تزداد فيه أهمية ضمان التدابير الأمنية لحماية نظام الذكاء الاصطناعي ونوع البيانات التي يعتمد عليها. تعتمد أنظمة الذكاء الاصطناعي بشكل كبير على البيانات للتدريب والتي قد تحتوي على معلومات حساسة وشخصية. نتيجة لذلك ، من الأهمية بمكان للباحثين والمطورين أن يتوصلوا إلى تدابير أمنية قوية يمكنها منع الهجمات على أنظمة الذكاء الاصطناعي هذه وضمان عدم سرقة المعلومات الحساسة.
في هذا السياق ، أصبح أمان تطبيقات الذكاء الاصطناعي موضوعًا ساخنًا بين الباحثين والمطورين لأنه يؤثر بشكل مباشر على العديد من المؤسسات مثل الحكومة والشركات وما إلى ذلك ، ككل. للمساهمة في هذه الموجة من الأبحاث ، قام فريق من الباحثين من قسم الأمن السيبراني في جامعة سوري بإنشاء برنامج يمكنه التحقق من مقدار المعلومات التي جمعها نظام الذكاء الاصطناعي من قاعدة بيانات المؤسسة. قد يحدد البرنامج أيضًا ما إذا كان نظام الذكاء الاصطناعي قد اكتشف أي عيوب محتملة في رمز البرنامج والتي يمكن استخدامها في العمليات الضارة. على سبيل المثال ، يمكن للبرنامج تحديد ما إذا كان لاعب الشطرنج بالذكاء الاصطناعي أصبح لا يهزم بسبب خطأ محتمل في الكود. واحدة من حالات الاستخدام الرئيسية التي يبحث عنها باحثو Surrey لبرامجهم هي استخدامه كجزء من بروتوكول أمان الشركة عبر الإنترنت. يمكن للشركة بعد ذلك تحديد ما إذا كان بإمكان الذكاء الاصطناعي الوصول إلى البيانات الحساسة للشركة بشكل أفضل. كما فاز برنامج التحقق من Surrey بجائزة أفضل ورقة بحثية في الندوة الدولية الخامسة والعشرين حول الأساليب الرسمية.
مع التبني الواسع النطاق للذكاء الاصطناعي في حياتنا اليومية ، من الآمن افتراض أن هذه الأنظمة مطلوبة للتفاعل مع أنظمة الذكاء الاصطناعي الأخرى أو البشر في بيئات معقدة وديناميكية. تحتاج السيارات ذاتية القيادة ، على سبيل المثال ، إلى التفاعل مع مصادر أخرى ، مثل المركبات وأجهزة الاستشعار الأخرى ، من أجل اتخاذ القرارات عند التنقل عبر حركة المرور. من ناحية أخرى ، تستخدم بعض الشركات الروبوتات لإكمال مهام معينة تتطلبها للتفاعل مع البشر الآخرين. في هذه المواقف ، يمكن أن يكون ضمان أمن أنظمة الذكاء الاصطناعي تحديًا بشكل خاص ، حيث يمكن أن تؤدي التفاعلات بين الأنظمة والبشر إلى ظهور نقاط ضعف جديدة. وبالتالي ، لتطوير حل لهذه المشكلة ، فإن الخطوة الأساسية هي تحديد ما يعرفه نظام الذكاء الاصطناعي بالفعل. لقد كانت هذه مشكلة بحثية رائعة لمجتمع الذكاء الاصطناعي لعدة سنوات ، وقد توصل الباحثون في جامعة سوري إلى شيء جديد.
يمكن لبرنامج التحقق الذي طوره باحثو Surrey تحديد مقدار ما يمكن أن يتعلمه الذكاء الاصطناعي من تفاعلاتهم وما إذا كانوا يعرفون ما يكفي أو أكثر من اللازم للتنازل عن الخصوصية. من أجل تحديد ما تعرفه أنظمة الذكاء الاصطناعي بالضبط ، حدد الباحثون منطق “البرنامج المعرفي” ، والذي يتضمن أيضًا التفكير في الأحداث المستقبلية. يأمل الباحثون أنه باستخدام برنامجهم الفريد من نوعه لتقييم ما تعلمه الذكاء الاصطناعي ، ستكون الشركات قادرة على اعتماد الذكاء الاصطناعي في أنظمتها بشكل أكثر أمانًا. يمثل بحث جامعة سري خطوة مهمة للغاية في ضمان سرية وسلامة مجموعات بيانات التدريب. ستؤدي جهودهم إلى تسريع وتيرة البحث في إنشاء أنظمة ذكاء اصطناعي جديرة بالثقة ومسؤولة.