الأخبار التكنولوجية والاستعراضات والنصائح!

4 طرق يمكن للحكومة أن تنظم بها أدوات الذكاء الاصطناعي

ستساعدك المقالة التالية: 4 طرق يمكن للحكومة أن تنظم بها أدوات الذكاء الاصطناعي

فكرة وجوب تنظيم تقنيات الذكاء الاصطناعي هي فكرة شائعة. توافق معظم الحكومات ومطوري منتجات الذكاء الاصطناعي وحتى المستخدمين العاديين لمنتجات الذكاء الاصطناعي على هذا. لسوء الحظ ، فإن أفضل طريقة لتنظيم هذا المجال سريع النمو هي لغز لم يتم حله.

فيديو اليوم

تكنو فانتوم في Fold مراجعة شاملة: لا تشتري Samsung Z. Fold حتى ترى هذا على الرغم من بعض الشكوك حول مفهوم الطي ، فإن Tecno Phantom v Fold أمر مثير للإعجاب.

إذا تركت تقنيات الذكاء الاصطناعي دون رادع ، فيمكن أن تعطل بشكل سلبي أسلوب حياتنا وتهدد وجودنا. ولكن كيف يمكن للحكومات أن تتنقل في متاهة التحديات التي تأتي مع هذا المجال سريع التطور؟

1. لوائح خصوصية البيانات وحمايتها

تعد خصوصية البيانات وأمنها أحد الاهتمامات الأساسية لتقنيات الذكاء الاصطناعي. أنظمة الذكاء الاصطناعي هي آلات متعطشة للبيانات. يحتاجون إلى بيانات للعمل ، والمزيد من البيانات ليكونوا فعالين ، وحتى المزيد من البيانات للتحسين. في حين أن هذه ليست مشكلة ، فإن الطريقة التي يتم بها الحصول على هذه البيانات ، وطبيعة هذه البيانات ، وكيفية معالجتها وتخزينها هي واحدة من أكبر نقاط النقاش المحيطة بلوائح الذكاء الاصطناعي.

بالنظر إلى ذلك ، فإن المسار المنطقي الذي يجب اتخاذه هو وضع لوائح صارمة لخصوصية البيانات تحكم جمع البيانات وتخزينها ومعالجتها ، فضلاً عن حقوق الأفراد – الذين تُستخدم بياناتهم – للوصول إلى بياناتهم والتحكم فيها. الأسئلة التي من المحتمل أن تتناولها هذه اللوائح هي:

  • ما نوع البيانات التي يمكن جمعها؟
  • هل يجب اعتبار بعض البيانات الخاصة من المحرمات في الذكاء الاصطناعي؟
  • كيف ينبغي لشركات الذكاء الاصطناعي التعامل مع البيانات الشخصية الحساسة ، مثل السجلات الصحية أو المعلومات البيومترية؟
  • هل يتعين على شركات الذكاء الاصطناعي تنفيذ آليات للأفراد لطلب حذف أو تصحيح بياناتهم الشخصية بسهولة؟
  • ما هي العواقب المترتبة على شركات الذكاء الاصطناعي التي لا تمتثل للوائح خصوصية البيانات؟ كيف يجب مراقبة الامتثال ، وكيف يجب ضمان الإنفاذ؟
  • ربما الأهم من ذلك ، ما هو المعيار الذي يجب أن تطبقه شركات الذكاء الاصطناعي لضمان سلامة الطبيعة الحساسة للمعلومات التي تمتلكها؟

شكلت هذه الأسئلة وبعض الأسئلة الأخرى جوهر سبب حظر ChatGPT مؤقتًا في إيطاليا. ما لم تتم معالجة هذه المخاوف ، فقد يكون مجال الذكاء الاصطناعي بمثابة الغرب الجامح لخصوصية البيانات ، وقد يتحول حظر إيطاليا إلى نموذج للحظر من قبل دول أخرى في جميع أنحاء العالم.

2. تطوير إطار عمل أخلاقي للذكاء الاصطناعي

كثيرًا ما تتباهى شركات الذكاء الاصطناعي بالتزامها بالمبادئ التوجيهية الأخلاقية في تطوير أنظمة الذكاء الاصطناعي. على الأقل على الورق ، هم جميعًا من أنصار التطوير المسؤول للذكاء الاصطناعي. في وسائل الإعلام ، شدد المسؤولون التنفيذيون في Google على كيفية تعامل الشركة مع سلامة وأخلاقيات الذكاء الاصطناعي على محمل الجد. وبالمثل ، فإن “الذكاء الاصطناعي الآمن والأخلاقي” هو شعار للرئيس التنفيذي لشركة OpenAI ، سام التمان. هذه جديرة بالثناء جدا.

لكن من الذي يضع القواعد؟ من الذي يقرر أي المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي جيدة بما فيه الكفاية؟ من الذي يقرر كيف يبدو تطوير الذكاء الاصطناعي الآمن؟ في الوقت الحالي ، يبدو أن لكل شركة ذكاء اصطناعي دورها الخاص في تطوير الذكاء الاصطناعي المسؤول والأخلاقي. OpenAI ، Anthropic ، Google ، Meta ، Microsoft ، الجميع. مجرد الاعتماد على شركات الذكاء الاصطناعي للقيام بالشيء الصحيح أمر خطير.

يمكن أن تكون عواقب مساحة الذكاء الاصطناعي غير الخاضعة للرقابة كارثية. السماح للشركات الفردية بتحديد المبادئ التوجيهية الأخلاقية التي يجب تبنيها وأيها يجب التخلص منها هو أشبه بالسير أثناء النوم في طريقنا إلى نهاية العالم للذكاء الاصطناعي. الحل؟ إطار عمل أخلاقي واضح للذكاء الاصطناعي يضمن:

  • أنظمة الذكاء الاصطناعي لا تضر أو ​​تميز بشكل غير عادل ضد أفراد أو مجموعات معينة على أساس العرق أو الجنس أو الوضع الاجتماعي والاقتصادي.
  • أنظمة الذكاء الاصطناعي آمنة وموثوقة ، وتقلل من مخاطر العواقب غير المقصودة أو السلوك الضار.
  • تم تصميم أنظمة الذكاء الاصطناعي مع مراعاة التأثير المجتمعي الأوسع لتقنيات الذكاء الاصطناعي.
  • أن يحتفظ البشر بالسيطرة النهائية على أنظمة الذكاء الاصطناعي واتخاذ قراراتهم بشفافية.
  • أنظمة الذكاء الاصطناعي محدودة عن قصد بطرق مفيدة للبشر.

3. وكالة تنظيمية مخصصة

نظرًا لتأثيره المحتمل على الحضارة البشرية ، فإن النقاش حول أمان الذكاء الاصطناعي عادةً ما يكون موازياً لخطر حدوث أزمة صحية أو كارثة نووية. يتطلب تجنب الحوادث النووية المحتملة وكالة مخصصة مثل NRC (هيئة التنظيم النووي) الأمريكية. تجنب مخاطر الأزمات الصحية الخطيرة يستلزم إنشاء إدارة الغذاء والدواء (FDA)

وبالمثل ، لضمان عدم حدوث أخطاء في مجال الذكاء الاصطناعي ، من الضروري وجود وكالة مخصصة تشبه إدارة الغذاء والدواء ولجنة اللاجئين النرويجية ، حيث يواصل الذكاء الاصطناعي تحقيق تقدم قوي في جميع مجالات حياتنا. لسوء الحظ ، فإن مسألة تنظيم الذكاء الاصطناعي داخل البلد هي مسألة صعبة. من المرجح أن يكون عمل أي وكالة تنظيمية مخصصة صعبًا للغاية دون تعاون عبر الحدود. تمامًا مثلما تحتاج لجنة التنظيم النووي الأمريكية (NRC) إلى العمل جنبًا إلى جنب مع الوكالة الدولية للطاقة الذرية (IAEA) لتكون في أفضل حالاتها ، فإن أي وكالة تنظيمية مخصصة للذكاء الاصطناعي داخل البلد تحتاج أيضًا إلى نظير دولي.

ستكون هذه الوكالة مسؤولة عما يلي:

  • تطوير أنظمة الذكاء الاصطناعي
  • ضمان الامتثال والإنفاذ
  • الإشراف على عملية المراجعة الأخلاقية لمشاريع الذكاء الاصطناعي
  • التعاون والتعاون عبر الدول بشأن سلامة وأخلاقيات الذكاء الاصطناعي

تنهار قوانين حقوق النشر والأطر القانونية الحالية في مواجهة الذكاء الاصطناعي. الطريقة التي يتم بها تصميم أدوات الذكاء الاصطناعي ، وخاصة أدوات الذكاء الاصطناعي التوليدية ، تجعلها تبدو وكأنها آلة لانتهاك حقوق النشر مؤيدة علنًا ولا يمكنك فعل أي شيء حيالها.

كيف؟ حسنًا ، يتم تدريب العديد من أنظمة الذكاء الاصطناعي الحالية باستخدام مواد محمية بحقوق الطبع والنشر. كما تعلم ، المقالات المحمية بحقوق الطبع والنشر ، والأغاني المحمية بحقوق الطبع والنشر ، والصور المحمية بحقوق الطبع والنشر ، وما إلى ذلك. هكذا يمكن لأدوات مثل ChatGPT و Bing AI و Google Bard القيام بالأشياء الرائعة التي يقومون بها.

في حين أن هذه الأنظمة تستفيد بوضوح من الملكية الفكرية للأشخاص ، فإن الطريقة التي تقوم بها أنظمة الذكاء الاصطناعي هذه لا تختلف عن قراءة الإنسان لكتاب محمي بحقوق الطبع والنشر ، أو الاستماع إلى الأغاني المحمية بحقوق الطبع والنشر ، أو النظر إلى الصور المحمية بحقوق الطبع والنشر.

يمكنك قراءة كتاب محمي بحقوق الطبع والنشر ، ومعرفة حقائق جديدة منه ، واستخدام هذه الحقائق كأساس لكتابك الخاص. يمكنك أيضًا الاستماع إلى أغنية محمية بحقوق الطبع والنشر للحصول على الإلهام لإنشاء الموسيقى الخاصة بك. في كلتا الحالتين ، استخدمت مواد محمية بحقوق الطبع والنشر ، لكن هذا لا يعني بالضرورة أن المنتج المشتق ينتهك حقوق الطبع والنشر للأصل.

في حين أن هذا تفسير منطقي لتفسير الفوضى التي تسببها منظمة العفو الدولية لقوانين حقوق النشر ، إلا أنها لا تزال تؤذي مالكي حقوق النشر والملكية الفكرية. بالنظر إلى ذلك ، فإن اللوائح ضرورية من أجل:

  • حدد بوضوح مسؤولية ومسؤوليات جميع الأطراف المشاركة في دورة حياة نظام الذكاء الاصطناعي. يتضمن ذلك توضيح أدوار كل طرف ، من مطوري الذكاء الاصطناعي إلى المستخدمين النهائيين ، لضمان مساءلة الأطراف المسؤولة عن أي انتهاك لحقوق النشر أو انتهاكات للملكية الفكرية ترتكبها أنظمة الذكاء الاصطناعي.
  • تعزيز أطر حقوق النشر الحالية وربما إدخال قوانين خاصة بحقوق النشر للذكاء الاصطناعي.
  • لضمان الابتكار في مجال الذكاء الاصطناعي مع حماية حقوق المبدعين الأصليين ، يجب أن تعيد لوائح الذكاء الاصطناعي تعريف مفاهيم الاستخدام العادل والعمل التحويلي في سياق المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. هناك حاجة إلى تعريفات وإرشادات أوضح لضمان أن مساحة الذكاء الاصطناعي يمكن أن تستمر في التحسن مع احترام حدود حقوق النشر. من الضروري تحقيق التوازن بين الابتكار والحفاظ على حقوق منشئي المحتوى.
  • مسارات واضحة للتعاون مع أصحاب الحقوق. إذا كانت أنظمة الذكاء الاصطناعي ستستخدم الملكية الفكرية للأشخاص على أي حال ، فيجب أن تكون هناك مسارات أو أطر عمل واضحة لمطوري الذكاء الاصطناعي وأصحاب الحقوق للتعاون ، خاصة فيما يتعلق بالتعويضات المالية ، إذا تم تسويق العمل المشتق لهذه الملكية الفكرية.

تنظيم الذكاء الاصطناعي هو الإصلاح الذي تمس الحاجة إليه

بينما ظهر الذكاء الاصطناعي كحل واعد للعديد من مشاكلنا المجتمعية ، أصبح الذكاء الاصطناعي نفسه بسرعة مشكلة تحتاج إلى حل عاجل. حان الوقت للتراجع والتأمل وإجراء الإصلاحات اللازمة لضمان التأثير الإيجابي للذكاء الاصطناعي على المجتمع. نحن بحاجة ماسة إلى إعادة تقويم عاجلة لنهجنا في بناء واستخدام أنظمة الذكاء الاصطناعي.