الأخبار التكنولوجية والاستعراضات والنصائح!

ماذا يعني قانون حقوق الذكاء الاصطناعي للبيت الأبيض لأمريكا وبقية العالم

ستساعدك المقالة التالية: ماذا يعني قانون حقوق الذكاء الاصطناعي للبيت الأبيض لأمريكا وبقية العالم

مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا (OSTP) مؤخرًا أصدر ورقة بيضاء يسمى “مخطط قانون حقوق الذكاء الاصطناعي: جعل الأنظمة المؤتمتة تعمل لصالح الشعب الأمريكي”. تم إصدار هذا الإطار بعد عام واحد من إعلان OSTP إطلاق عملية لتطوير “ميثاق حقوق لعالم يعمل بالذكاء الاصطناعي”.

توضح مقدمة مشروع القانون هذا بوضوح أن البيت الأبيض يتفهم التهديدات الوشيكة للمجتمع التي يشكلها الذكاء الاصطناعي. وهذا ما جاء في المقدمة:

ما تعنيه وثيقة الحقوق هذه والإطار الذي تقترحه لمستقبل الذكاء الاصطناعي لا يزال غير معروف. ما نعرفه هو أن التطورات الجديدة آخذة في الظهور بمعدل أسي باستمرار. ما كان يُنظر إليه على أنه مستحيل ، أصبحت الترجمة الفورية للغة حقيقة واقعة ، وفي نفس الوقت لدينا ثورة في فهم اللغة الطبيعية (NLU) بقيادة OpenAI ومنصتها الشهيرة GPT-3.

منذ ذلك الحين ، شهدنا توليدًا فوريًا للصور عبر تقنية تسمى Stable Diffusion والتي قد تصبح قريبًا منتجًا استهلاكيًا رئيسيًا. في جوهرها مع هذه التقنية ، يمكن للمستخدم ببساطة كتابة أي استعلام يمكنه تخيله ، ومثل السحر ، سينشئ الذكاء الاصطناعي صورة تطابق الاستعلام.

عند أخذ النمو الأسي و قانون تسريع العوائد سيأتي قريبًا وقت سيطر فيه الذكاء الاصطناعي على كل جانب من جوانب الحياة اليومية. الأفراد والشركات الذين يعرفون هذا ويستفيدون من هذا التحول النموذجي سوف يربحون. لسوء الحظ ، قد يقع جزء كبير من المجتمع ضحية كل من العواقب السيئة وغير المقصودة للذكاء الاصطناعي.

تهدف وثيقة الحقوق الخاصة بالذكاء الاصطناعي إلى دعم تطوير السياسات والممارسات التي تحمي الحقوق المدنية وتعزز القيم الديمقراطية في بناء الأنظمة المؤتمتة ونشرها وحوكمتها. كيف سيقارن مشروع القانون هذا بنهج الصين لم يتضح بعد ، لكن قانون الحقوق لديه القدرة على تغيير مشهد الذكاء الاصطناعي ، ومن المرجح أن يتم اعتماده من قبل حلفاء مثل أستراليا وكندا والاتحاد الأوروبي.

إن ذكر قانون حقوق الذكاء الاصطناعي غير ملزم ولا يشكل سياسة حكومة الولايات المتحدة. وهو لا يلغي أو يعدل أو يوجه تفسيرًا لأي قانون أو لائحة أو سياسة أو صك دولي موجود. ما يعنيه هذا هو أن الأمر متروك للشركات والحكومات للالتزام بالسياسات الموضحة في هذه الورقة البيضاء.

حدد مشروع القانون هذا خمسة مبادئ يجب أن توجه تصميم واستخدام ونشر الأنظمة الآلية لحماية الجمهور الأمريكي في عصر الذكاء الاصطناعي ، وفيما يلي سنحدد المبادئ الخمسة:

1. أنظمة آمنة وفعالة

هناك خطر واضح وقائم على المجتمع من خلال أنظمة الذكاء الاصطناعي المسيئة ، وخاصة تلك التي تعتمد على التعلم العميق. تتم محاولة معالجة هذا من خلال هذه المبادئ:

2. الحماية من التمييز الحسابي

تتناول هذه السياسات بعض الأفيال الموجودة في الغرفة عندما يتعلق الأمر بالمؤسسات التي تسيء معاملة الأفراد.

من المشكلات الشائعة عند تعيين موظفين يستخدمون أنظمة الذكاء الاصطناعي أن نظام التعلم العميق سيتدرب غالبًا على البيانات المتحيزة للوصول إلى استنتاجات التوظيف. هذا يعني بشكل أساسي أن ممارسات التوظيف السيئة في الماضي ستؤدي إلى التمييز الجنساني أو العنصري من قبل وكيل التوظيف. أشارت إحدى الدراسات إلى صعوبة محاولة إزالة بيانات التدريب بين الجنسين.

هناك مشكلة أساسية أخرى تتعلق بالبيانات المتحيزة من قبل الحكومات وهي خطر السجن غير المشروع ، أو حتى خوارزميات التنبؤ الإجرامية الأسوأ التي تقدم عقوبات سجن أطول للأقليات.

وتجدر الإشارة إلى أن الولايات المتحدة الأمريكية قد اتبعت نهجًا شديد الشفافية عندما يتعلق الأمر بالذكاء الاصطناعي ، فهذه سياسات مصممة لحماية عامة الناس ، في تناقض واضح مع مناهج الذكاء الاصطناعي التي تتبعها الصين.

3. خصوصية البيانات

مبدأ خصوصية البيانات هذا هو المبدأ الذي من المرجح أن يؤثر على أكبر شريحة من السكان. يبدو أن النصف الأول من المبدأ يهتم بجمع البيانات ، وتحديداً مع البيانات التي يتم جمعها عبر الإنترنت ، وهي مشكلة معروفة خاصة لمنصات التواصل الاجتماعي. يمكن بعد ذلك استخدام هذه البيانات نفسها لبيع الإعلانات ، أو حتى أسوأ من ذلك للتلاعب بالمشاعر العامة والتأثير على الانتخابات.

يبدو أن النصف الثاني من مبدأ خصوصية البيانات يهتم بالمراقبة من كل من الحكومات والشركات.

في الوقت الحالي ، تستطيع الشركات مراقبة الموظفين والتجسس عليهم ، وفي بعض الحالات قد يكون ذلك لتحسين السلامة في مكان العمل ، أثناء وباء COVID-19 كان الغرض من ارتداء الأقنعة ، وغالبًا ما يتم ذلك ببساطة لمراقبة الوقت في العمل يتم استخدامه. في كثير من هذه الحالات ، يشعر الموظفون أنهم يخضعون للمراقبة والتحكم بما يتجاوز ما يعتبر مقبولاً.

وتجدر الإشارة إلى أنه يمكن استخدام الذكاء الاصطناعي لفائدة حماية خصوصية الناس.

4. إشعار وشرح

يجب أن تكون هذه دعوة إلى الأسلحة للشركات لنشر مجلس استشاري لأخلاقيات الذكاء الاصطناعي ، بالإضافة إلى الدفع لتسريع تطوير منظمة العفو الدولية قابلة للتفسير. يُعد الذكاء الاصطناعي القابل للتفسير ضروريًا في حالة ارتكاب نموذج للذكاء الاصطناعي خطأً ، وفهم كيفية عمل الذكاء الاصطناعي يُمكّن من التشخيص السهل للمشكلة.

سيسمح الذكاء الاصطناعي القابل للتفسير أيضًا بالمشاركة الشفافة للمعلومات حول كيفية استخدام البيانات ، ولماذا اتخذ الذكاء الاصطناعي القرار. بدون الذكاء الاصطناعي القابل للتفسير ، سيكون من المستحيل الامتثال لهذه السياسات بسبب مشكلة الصندوق الأسود للتعلم العميق.

ستحقق الشركات التي تركز على تحسين هذه الأنظمة أيضًا فوائد إيجابية من فهم الفروق الدقيقة والتعقيدات الكامنة وراء اتخاذ خوارزمية التعلم العميق قرارًا محددًا.

5. البدائل البشرية ، والاعتبار ، والاحتياطي

على عكس معظم المبادئ المذكورة أعلاه ، فإن هذا المبدأ هو الأكثر قابلية للتطبيق على الهيئات الحكومية ، أو المؤسسات المخصخصة التي تعمل نيابة عن الحكومة.

حتى مع وجود مجلس أخلاقي للذكاء الاصطناعي والذكاء الاصطناعي القابل للتفسير ، من المهم الرجوع إلى المراجعة البشرية عندما تكون الحياة على المحك. هناك دائمًا احتمال حدوث خطأ ، ويمكن أن يؤدي إجراء مراجعة بشرية للحالة عند الطلب إلى تجنب سيناريو مثل منظمة العفو الدولية ترسل الأشخاص الخطأ إلى السجن.

يتمتع النظام القضائي والجنائي بأكبر مساحة لإحداث ضرر لا يمكن إصلاحه لأفراد المجتمع المهمشين ، ويجب أن يأخذ في الاعتبار هذا المبدأ بشكل خاص.

ملخص

يجب منح الفضل في OSTP لمحاولة تقديم إطار عمل يربط بين بروتوكولات السلامة المطلوبة للمجتمع ، دون أيضًا إدخال سياسات صارمة يمكن أن تعرقل التقدم في تطوير التعلم الآلي.

بعد تحديد المبادئ ، يستمر مشروع القانون من خلال توفير مصاحب تقني للقضايا التي تمت مناقشتها بالإضافة إلى معلومات مفصلة حول كل مبدأ وأفضل الطرق للمضي قدمًا في تنفيذ هذه المبادئ.

يجب على أصحاب الأعمال والشركات الأذكياء ملاحظة ذلك دراسة هذا القانون، حيث سيكون من المفيد فقط تنفيذ هذه السياسات في أسرع وقت ممكن.

سيستمر الذكاء الاصطناعي القابل للتفسير في الهيمنة على الأهمية ، كما يتضح من هذا الاقتباس من الفاتورة.

ما لا ينبغي إغفاله هو أن المبادئ الموضحة هنا ستصبح في النهاية المعيار الجديد.