الأخبار التكنولوجية والاستعراضات والنصائح!

ChatGPT لها أعينها على بياناتك

ستساعدك المقالة التالية: ChatGPT لها أعينها على بياناتك

في الآونة الأخيرة ، قام مهندسو مجموعة أشباه الموصلات من Samsung بتسريب معلومات مهمة عن غير قصد أثناء استخدام ChatGPT لتصحيح الأخطاء في التعليمات البرمجية المصدر الخاصة بهم بسرعة. في أقل من شهر بقليل ، تم تسجيل ثلاث حوادث لتسريب موظفين لمعلومات حساسة عبر الأداة.

في إحدى الحوادث ، طلب أحد الموظفين من ChatGPT تحسين تسلسل الاختبار لتحديد الأعطال في الرقائق. في حالة أخرى ، استخدم الموظف الأداة لإنشاء عرض تقديمي من ملاحظات الاجتماع.

بالمناسبة ، تم الإبلاغ عن التسريبات بعد ثلاثة أسابيع فقط من رفع Samsung الحظر السابق على الموظفين الذين يستخدمون ChatGPT بسبب مخاوف حول هذه المشكلة بالذات. حذرت Samsung الآن موظفيها من استخدام chatbot نظرًا لأنه من الواضح أن الجهود المبذولة لاسترداد البيانات التي تم جمعها بالفعل ستذهب سدى.

على الرغم من أن الشات بوت يمكنه زيادة الكفاءة ، وبالتالي توفير العديد من الموارد وتحسينها – إلا أن هناك مخاطر كبيرة عندما يتعلق الأمر بمشاركة البيانات التي ظهرت مؤخرًا. لا تقتصر هذه المخاطر على التسريبات المتعمدة أو الخروقات الإلكترونية فحسب ، بل يمكن أن تنجم أيضًا عن استخدام الموظف لهذه الأدوات.

تلمس البياناتد

في الآونة الأخيرة ، سرب خطأ معلومات لمستخدمي ChatGPT بما في ذلك تفاصيل سجل الدردشة الخاص بهم بالإضافة إلى البيانات الشخصية وبيانات الفواتير الخاصة بهم. في 20 آذار (مارس) ، أثناء انقطاع التيار الكهربائي لمدة 9 ساعات في ChatGPT ، أخطرت أيضًا 1.2٪ من عملائها بأن عميلاً آخر ربما يكون قد اطلع على معلومات الفواتير الخاصة به – بما في ذلك الاسم الأول والأخير وعنوان إرسال الفواتير ونوع بطاقة الائتمان وبيانات انتهاء صلاحية بطاقة الائتمان و أيضًا الأرقام الأربعة الأخيرة من بطاقة الائتمان الخاصة بهم.

كشف تحقيق داخلي أجرته شركة OpenAI لاحقًا عن وجود خطأ في redis-py مكتبة مفتوحة المصدر لعميل Redis كان مسؤولاً عن التسريب.

غرد الرئيس التنفيذي والمؤسس المشارك لـ OpenAI Sam Altman ، “واجهتنا مشكلة كبيرة في ChatGPT بسبب خلل في مكتبة مفتوحة المصدر ، تم إصدار إصلاح لها الآن وانتهينا للتو من التحقق من صحتها.

وأضاف “(أ) تمكنت نسبة صغيرة من المستخدمين من رؤية عناوين محفوظات محادثات المستخدمين الآخرين”.

حتى مع اشتراكها المتميز في ChatGPT Plus ، قالت شركة OpenAI إنها لن تخزن بيانات المستخدمين بعد الآن لتدريب النموذج ، ولكن حتى يحدث ذلك ، سيتعين على المستخدمين إلغاء الاشتراك. بالإضافة إلى ذلك ، سيتم حذف البيانات بعد شهر فقط.

لذلك ، يتم حفظ البيانات التي تغذيها في ChatGPT في خوادم OpenAI ويمكن استخدامها لمصلحتهم ، “لتطوير برامج وخدمات جديدة” بكلماتهم الخاصة ؛ أو لتمريرها إلى Microsoft.

يثير تدفق الحوادث إنذارًا بشأن المخاطر التي تأتي جنبًا إلى جنب مع الكفاءة التي تساعد هذه الأدوات في تحقيقها – والسؤال الصارخ هو كيفية التخفيف من المخاطر المحتملة لاستخدامها في مكان العمل الذي يتعامل عادةً مع البيانات الحساسة.

تنظيم أم حظر؟

تعرضت ChatGPT لحظر مؤقت في إيطاليا الشهر الماضي على أساس أن chatbot لا يمتثل للوائح حماية البيانات العامة للاتحاد الأوروبي ، والتي تضمن “الحق في النسيان”. في الوقت الحالي ، لا يوجد نظام مطبق للأفراد لطلب إزالة بياناتهم من نظام التعلم الآلي بمجرد استخدامه لتدريب النموذج.

في الأسبوع الماضي ، قالت الحكومة الهندية أيضًا إنها قامت بتقييم المخاوف الأخلاقية المتعلقة بالذكاء الاصطناعي مثل التحيز والخصوصية مع اتخاذ تدابير لتطوير إطار عمل قوي للوائح في مجال الذكاء الاصطناعي ولكن ليس لديها خطط لإدخال قوانين حتى الآن.

ومع ذلك ، فإن OpenAI بدورها ألقت المسؤولية على الشركات لمعالجة هذه المواقف. على سبيل المثال ، اختارت Samsung الآن تطوير ذكاء اصطناعي خاص بها للاستخدام الداخلي من قبل الموظفين مع الحد من طول مطالبات ChatGPT للموظفين إلى كيلوبايت أو 1024 حرفًا من النص.

بديل آخر للشركات لتجنب هذا اللغز هو استخدام واجهة برمجة تطبيقات ChatGPT بدلاً من الأداة. واجهة برمجة التطبيقات هي خدمة تجارية لذا لا يمكن الوصول إلى أي بيانات تغذيها بواسطة OpenAI. يمكنك أيضًا إلغاء الاشتراك من تتبع البيانات بنشاط عبر نموذج أدرجته OpenAI في شروط خدماتها.

لكن بشكل أساسي ، لم يُترك للشركات الأخرى سوى القليل من الخيارات بخلاف الخروج بسياساتها وإرشاداتها الخاصة لحماية نفسها من تسرب آخر للبيانات.