ستساعدك المقالة التالية: هل لدى ChatGPT أية مشكلات أمنية؟
في كانون الثاني (يناير) 2023 ، بعد شهرين فقط من إطلاقه ، أصبح ChatGPT (المحولات التوليدية المدربة مسبقًا) التطبيق الأسرع نموًا على الإطلاق ، حيث حشد أكثر من 100 مليون مستخدم.
فيديو اليوم
مراجعة متعمقة لآلة صانع Snapmaker Artisan 3 في 1 استثمار جيد للصانعين المتطلبين وورش العمل الصغيرة مع تبديل أداة بسيط.
قد يكون روبوت الدردشة المتقدم الخاص بـ OpenAI قد أعاد تنشيط اهتمام الجمهور بالذكاء الاصطناعي ، لكن القليل منهم فكر بجدية في المخاطر الأمنية المحتملة المرتبطة بهذا المنتج.
ChatGPT: المشاكل والتهديدات الأمنية
قد تكون التكنولوجيا التي تقوم عليها ChatGPT وروبوتات المحادثة الأخرى متشابهة ، لكن ChatGPT تندرج في فئة خاصة بها. هذه أخبار رائعة إذا كنت تنوي استخدامها كنوع من المساعد الشخصي ، ولكنك تقلق إذا كنت تعتقد أن الجهات الفاعلة في التهديد يستخدمها أيضًا.
يمكن لمجرمي الإنترنت استخدام ChatGPT لكتابة برامج ضارة وإنشاء مواقع ويب احتيالية وإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وإنشاء أخبار مزيفة وما إلى ذلك. لهذا السبب ، قد يمثل ChatGPT خطرًا أكبر على الأمن السيبراني من الفائدة ، كما وضعه Bleeping Computer في تحليل.
في الوقت نفسه ، هناك مخاوف جدية من أن ChatGPT نفسها بها بعض نقاط الضعف التي لم تتم معالجتها. على سبيل المثال ، في مارس 2023 ، ظهرت تقارير حول تمكن بعض المستخدمين من عرض عناوين محادثات الآخرين. كما ذكرت The Verge في ذلك الوقت ، أوضح الرئيس التنفيذي لشركة OpenAI Sam Altman أن “خطأ في مكتبة مفتوحة المصدر” تسبب في حدوث المشكلة.
هذا يؤكد فقط على مدى أهمية تقييد ما تشاركه مع ChatGPT ، والذي يجمع قدرًا مذهلاً من البيانات افتراضيًا. تعلمت شركة Samsung العملاقة في مجال التكنولوجيا هذا الأمر بالطريقة الصعبة ، عندما قامت مجموعة من الموظفين الذين كانوا يستخدمون chatbot كمساعد بتسريب معلومات سرية إليه عن طريق الخطأ.
هل يعد ChatGPT تهديدًا لخصوصيتك؟
الأمان والخصوصية ليسا نفس الشيء ، لكنهما مرتبطان ارتباطًا وثيقًا وغالبًا ما يتقاطعان. إذا كان ChatGPT يمثل تهديدًا أمنيًا ، فهو يمثل أيضًا تهديدًا للخصوصية ، والعكس صحيح. لكن ماذا يعني هذا من الناحية العملية؟ ما هي سياسات الخصوصية والأمان في ChatGPT؟
تم حذف مليارات الكلمات من الإنترنت لإنشاء قاعدة بيانات ChatGPT الواسعة. قاعدة البيانات هذه في حالة توسع مستمر ، حيث يقوم ChatGPT بتخزين ما يشاركه المستخدمون. منحت مؤسسة Common Sense غير الربحية ومقرها الولايات المتحدة ChatGPT درجة تقييم الخصوصية بنسبة 61 في المائة ، مشيرة إلى أن chatbot يجمع معلومات التعريف الشخصية (PII) ، وغيرها من البيانات الحساسة. يتم تخزين معظم هذه البيانات أو مشاركتها مع جهات خارجية معينة.
على أي حال ، يجب أن تكون حذرًا عند استخدام ChatGPT ، خاصةً إذا كنت تستخدمه للعمل ، أو لمعالجة المعلومات الحساسة. كقاعدة عامة ، يجب ألا تشارك الروبوت ما لا تريد أن يعرفه الجمهور.
معالجة المخاطر الأمنية المرتبطة بـ ChatGPT
سيتم تنظيم الذكاء الاصطناعي في مرحلة ما ، لكن من الصعب تخيل عالم لا يشكل فيه تهديدًا أمنيًا. مثل كل التقنيات ، يمكن – وسوف – أن يساء استخدامها.
وفقًا لبرنامج Malwarebytes ، ستصبح روبوتات الدردشة في المستقبل جزءًا لا يتجزأ من محركات البحث والمساعدين الصوتيين والشبكات الاجتماعية. وسيكون لهم دور يلعبونه في مختلف الصناعات ، من الرعاية الصحية والتعليم إلى التمويل والترفيه.
سيؤدي هذا إلى تغيير جذري في الأمن كما نعرفه. ولكن كما لاحظ Malwarebytes أيضًا ، يمكن استخدام ChatGPT والأدوات المماثلة بواسطة متخصصي الأمن السيبراني أيضًا ؛ على سبيل المثال للبحث عن الأخطاء في البرامج أو “الأنماط المشبوهة” في نشاط الشبكة.
رفع مستوى الوعي هو المفتاح
ما الذي سيكون بإمكان ChatGPT بعد خمس أو 10 سنوات من الآن؟ يمكننا فقط التكهن ، ولكن ما نعرفه على وجه اليقين هو أن الذكاء الاصطناعي لن يذهب إلى أي مكان.
مع ظهور روبوتات محادثة أكثر تقدمًا ، سيتعين على الصناعات بأكملها تعديلها وتعلم كيفية استخدامها بطريقة مسؤولة. وهذا يشمل صناعة الأمن السيبراني ، والتي يتم تشكيلها بالفعل بواسطة الذكاء الاصطناعي. يعد رفع مستوى الوعي حول المخاطر الأمنية المرتبطة بالذكاء الاصطناعي أمرًا أساسيًا ، وسيساعد في ضمان تطوير هذه التقنيات واستخدامها بطريقة أخلاقية.