الأخبار التكنولوجية والاستعراضات والنصائح!

سيري ، Google Assistant، قالت Alexa أنها عرضة لهذا الهجوم الجديد

سيري ، Google Assistant، قالت Alexa أنها عرضة لهذا الهجوم الجديد

نعلم جميعًا جيدًا أن المساعدين الافتراضيين مثل Siri و Alexa Google Assistant إلخ هم نجوم الشركات التي تصمم أنظمة تشغيل الهواتف المحمولة. ومع ذلك ، يُقال الآن إن كل هؤلاء المساعدين الافتراضيين الشخصيين معرضون لهجوم جديد متطور يمكن للمتسللين من خلاله اختراق جهازك بسهولة.

سيري ، Google Assistant، قالت Alexa أنها عرضة لهذا الهجوم الجديد

المساعدون الافتراضيون مثل Siri و Alexa Google Assistant إلخ هم نجوم الشركات التي تصمم أنظمة تشغيل الهواتف المحمولة. ومع ذلك ، قد لا يكون الصوت ضروريًا للغاية ، على الأقل قد تكون هناك طريقة لتخريب مفهوم “الصوت” باستخدام خدعة طبيعية ، وبالتالي يكون لديك طريقة لمهاجمة الأجهزة التي تميل إلى قبول الأوامر من الصوت البشري.

البحث الذي نبحثه الآن هو فريق من العلماء الصينيين الذين استخدموا القدرة الطبيعية للدلافين لاستلهام الإلهام من نوع من الهجوم بالموجات فوق الصوتية على smartphones، سيارات ومساعدين افتراضيين.

تطبيقات مثل عملاق التكنولوجيا Appleسيري و Google Assistant مستعدون للاستماع المستمر للأوامر والبدء على الفور ، على الرغم من أن طريقة إدخال هذه الأوامر ليست دقيقة للغاية. هذا لأن نشأته هو إدخال أمر صوتي وحقيقة أن “الصراخ” أمرًا للهاتف الذكي أمرًا … ليس سوى أمر أنيق وسري.

وهكذا ، قررت جامعة Zhejiang الحصول على أمر صوتي قياسي وتحويله للاستخدام في النطاق فوق الصوتي (حتى لا يسمعه البشر) ومعرفة ما إذا كان الجهاز يتفاعل مع هذه المعلومات.

الدلافين تلهم العلماء

تستفيد الطريقة ، التي يطلق عليها اسم DolphinAttack ، من حقيقة أن آذان الإنسان غير مجدية عند مواجهة أصوات أعلى بكثير من 20 كيلو هرتز. لذلك أضاف الفريق مضخمًا ومحول طاقة بالموجات فوق الصوتية وبطارية إلى هاتف ذكي عادي (كانت التكلفة الإجمالية للقطع حوالي 3 دولارات) واستخدمها لإرسال أوامر بالموجات فوق الصوتية إلى الأنظمة التي يتم تنشيطها بالصوت.

سيري ، Google Assistant، قالت Alexa أنها عرضة لهذا الهجوم الجديد 1

“من خلال الاستفادة من اللاخطية لدارات الميكروفون ، يمكن” إزالة تشكيل “الأوامر الصوتية المعدلة ذات التردد المنخفض واسترجاعها ، والأهم من ذلك ، تفسيرها بواسطة أنظمة التعرف على الكلام” ، أحد الباحثين المسؤولين عن هذه التجربة.

تحقق الفريق من صحة DolphinAttack على أنظمة التعرف على الكلام الشائعة ، بما في ذلك Siri ، Google Assistantو Samsung S Voice و Huawei HiVoice و Cortana و Alexa. كانوا أيضًا يختبرون عالم السيارات لإثبات مفهومهم ، وفي نظام الملاحة في سيارة أودي وجدوا أنه باستخدام هذه الطريقة ، كانت الثغرة الأمنية معروفة في النظام.

أين يمكن أن تتقدم هذه الطريقة للهجوم؟

نظرًا لأن التحكم الصوتي يحتوي على العديد من الوظائف الممكنة ، فقد تمكن الفريق من مطالبة iPhone بالاتصال برقم معين – وهو أمر مفيد ولكنه ليس مفيدًا مثل الهجوم. ومع ذلك ، يمكنهم أن يطلبوا من الجهاز زيارة موقع معين قد يحتوي على برامج ضارة. يمكن أن تجعل هذه الطريقة المساعدين الافتراضيين تعتيم الشاشة بحيث يخفون الهجوم أو ببساطة يضعون الجهاز في وضع عدم الاتصال عن طريق وضعه في وضع الطائرة.

أكبر عقبة في الهجوم لا تعتمد على برنامج الأوامر الصوتية نفسه ولكن على قدرات التقاط الصوت للجهاز. كثير smartphones تحتوي حاليًا على العديد من الميكروفونات ، مما يجعل السرقة أكثر فعالية.

من حيث المدى ، كانت أكبر مسافة تمكن الفريق من تحقيقها هي 1.7 متر ، وهو أمر عملي بالتأكيد. عادةً ما يتم إرسال الإشارة بتردد بين 25 و 39 كيلو هرتز.

لذا ، ما رأيك في هذا الخلل الجديد؟ ما عليك سوى مشاركة آرائك وأفكارك في قسم التعليقات أدناه.