الأخبار التكنولوجية والاستعراضات والنصائح!

قد يصبح الذكاء الاصطناعي أكثر ترويعًا ، ويجب على الحكومات ترويضه في الوقت المناسب

ستساعدك المقالة التالية: قد يصبح الذكاء الاصطناعي أكثر ترويعًا ، ويجب على الحكومات ترويضه في الوقت المناسب

قريبًا ، سيكون الذكاء الاصطناعي في كل مكان ، وقد أدى إطلاق GPT-4 من OpenAI إلى تسريع العملية فقط. تبدو تقنية الذكاء الاصطناعي الجديدة رائعة ولكنها أثارت بعض المخاوف الحقيقية أيضًا. يقول الباحثون والناشطون ، الذين كانوا يراقبون عن كثب التطورات في التكنولوجيا ، إن الوقت قد حان لوضع لوائح لإحباط التأثير السلبي للذكاء الاصطناعي.

اللوائح جارية

في الوقت الحالي ، تعمل الحكومات في ولايات قضائية متعددة من الولايات المتحدة إلى الاتحاد الأوروبي على قوانين لتنظيم الذكاء الاصطناعي. صاغ الاتحاد الأوروبي بالفعل قانون الذكاء الاصطناعي ، والذي سيُطرح للتصويت في البرلمان الأوروبي هذا الشهر. إن محاولة أوروبا تنظيم استخدام الشركات للذكاء الاصطناعي هي في الواقع الأولى من نوعها.

في الولايات المتحدة ، أصدر البيت الأبيض مخططًا لقانون حقوق الذكاء الاصطناعي ، والذي يوفر أطرًا للاستخدام المسؤول للتكنولوجيا. ومع ذلك ، لم يتحرك أي شيء في الهند. في الآونة الأخيرة ، قال بوريس باور ، عضو الطاقم الفني في أوبن إيه آي ، إن الهند ستكون الدولة التي تبتكر الأسرع وحيث يكون لـ GPT-4 التأثير الأكبر. هذا يجعل من الضروري للهند أن يكون لديها قوانين مماثلة لتنظيم الذكاء الاصطناعي.

في عام 2021 ، قال وزير تكنولوجيا المعلومات ، راجيف شاندراسيخار ، إن حكومته تعمل على إطار عمل من شأنه أن يسمح بحماية الخصوصية على مستوى المستهلك وفي نفس الوقت تطوير نظام بيئي حيوي لرعاية وتطوير تطبيقات الذكاء الاصطناعي. ومع ذلك ، بعد عامين ، لم تصدر الإدارة التي يقودها ناريندرا مودي إطارًا شاملاً لتنظيم الذكاء الاصطناعي.

نهج ديمقراطي نحو التنظيم

بينما تخطط الحكومات لإخضاع الذكاء الاصطناعي للوائح ، حذر الخبراء من اتباع نهج متوازن. بالتأكيد ، يجب أن يكون هناك إطار عمل ما. ومع ذلك ، فإن المنظمين اليوم لا يفهمون التكنولوجيا. في الوقت الحالي ، توجد فجوة كبيرة في فهم التكنولوجيا بين المنظمين والمبتكرين ، “قال أوتبال تشاكرابورتي ، كبير المسؤولين الرقميين في ألايد ديجيتال ، هدف.

ومزيدًا من التأكيد ، قال إن الحكومة بحاجة حقًا إلى الجلوس مع المبدعين (للتكنولوجيا). يجب أن يكون النهج الذي يجب على الحكومة الهندية أو المنظمين اتباعه ديمقراطيًا وليس استبداديًا. قال تشاكرابورتي: “يجب أن يتأكد المنظمون من أن الإطار الذي توصلوا إليه لا يعيق نمو التكنولوجيا”.

إذا أخذنا قانون الذكاء الاصطناعي ، الذي صاغه الاتحاد الأوروبي ، فمن المحتمل أن يؤثر على نمو الشركات الناشئة في أوروبا. وفقًا لدراسة مشتركة أجرتها عدة جمعيات أوروبية للذكاء الاصطناعي ، يتوقع 73٪ من أصحاب رأس المال الاستثماري الذين شملهم الاستطلاع أن قانون الذكاء الاصطناعي سيقلل من القدرة التنافسية لشركات الذكاء الاصطناعي الناشئة في المنطقة ، إما بشكل معتدل أو كبير.

يجب على الحكومة الهندية ضمان عدم حدوث شيء مماثل في الهند. قال تشاكرابورتي: “وبالتالي ، فإن سد الفجوة بين المبتكرين والمنظمين أمر بالغ الأهمية”.

ما الذي يسبب الخوف؟

مع GPT-4 ، تغلب OpenAI على معظم قيود ChatGPT ، أو GPT3.5 ، النموذج الذي يدعم ChatGPT. ومع ذلك ، فإن الورقة الفنية الأخيرة الخاصة بـ GPT-4 تكشف المزيد. تسلط الورقة الضوء على كيف يمكن أن يصبح النموذج “وكيلاً” ، مما يعني أنه لن يصبح واعيًا ، ولكن يمكنه تطوير وتحقيق الأهداف التي لم يتم تحديدها مسبقًا أثناء التدريب. يمكن أن تستمر في التخطيط لأهداف طويلة الأجل قابلة للقياس ، بما في ذلك إجراءات البحث عن القوة.

على الرغم من أن هذه التقنيات لديها عدد لا يحصى من حالات الاستخدام ، يمكن أيضًا إساءة استخدام التكنولوجيا. في غضون أيام قليلة منذ إطلاقه ، بدأ المحتالون في إرسال رسائل بريد إلكتروني للتصيد الاحتيالي وتغريد روابط التصيد لعشاق العملات المشفرة حول رمز تشفير OpenAI (وهو غير موجود) ، وفقًا لأبحاث Tenable.

يمكن استخدامه أيضًا لإنشاء برامج ضارة. “إن إنشاء كود برمجيات خبيثة متطور هو إلى حد بعيد أكبر خطر اليوم من هذه الأدوات. خذ على سبيل المثال برنامج keylogger “BlackMamba” ، الذي نجح في تجاوز وظيفة اكتشاف التهديدات السيبرانية المعقدة والتي تسمى End Point Detection &
الاستجابة (EDR). لقد تم إنشاؤه باستخدام ChatGPT بسهولة نسبية ، “قال برافين ييليسوارابو ، رئيس قسم تسويق المنتجات والتفاعلات ، BluSapphire ، هدف.

علاوة على ذلك ، من المحتمل أن تصبح ChatGPT أو GPT-4 أداة تضليل رائعة ، وفقًا لجوردون كروفيتز ، الرئيس التنفيذي المشارك لشركة NewsGuard ، وهي شركة تتعقب المعلومات المضللة عبر الإنترنت. وقال: “يمكن الآن صياغة سرد كاذب على نطاق واسع ، وبشكل أكثر تكرارًا – يشبه مساهمة عملاء الذكاء الاصطناعي في التضليل الإعلامي”.

يشير تشاكرابورتي إلى أنه يمكن أيضًا استخدام الذكاء الاصطناعي التوليدي لصنع صور مزيفة أفضل ، وهو ما يمثل تحديًا بالفعل. “اليوم من الصعب جدًا التمييز بين الفيديو الحقيقي والمزيف. في مواقف معينة ، قد يُنظر إلى مقطع فيديو ملفق تم إنشاؤه بواسطة الذكاء الاصطناعي وتم تداوله على وسائل التواصل الاجتماعي على أنه حقيقي ، مما يؤدي إلى تداعيات خطيرة “.

وفي الوقت نفسه ، ألغت شركات التكنولوجيا الكبرى مثل Microsoft و Meta فرق الذكاء الاصطناعي المسؤولة تمامًا. يؤدي هذا إلى تفاقم الحاجة إلى لوائح الذكاء الاصطناعي لأن هذه الشركات ليست ملتزمة بإنشاء ضمانات مسؤولة لمنتجات الذكاء الاصطناعي الخاصة بها.

معالجة التحيزات أمر بالغ الأهمية

اليوم ، استخدم أكثر من 100 مليون مستخدم حول العالم ChatGPT حتى الآن. لديها 13 مليون مستخدم نشط يوميًا – العديد منهم في الهند. مع استمرار نمو استخدام هذه التقنيات ، هناك حاجة ملحة لوائح لحماية المستخدمين من التحيزات المحتملة الكامنة فيها.

ستقوم GPT-4 بأتمتة الوظائف المختلفة في المؤسسة. أطلقت Khan Academy ، وهي منظمة غير ربحية تقدم تعليمًا مجانيًا ، مدرسًا للذكاء الاصطناعي يسمى Khanmigo ، مدعوم من GPT-4. ماذا لو كان مدرس الذكاء الاصطناعي متحيزًا لمجموعة معينة من الطلاب؟ لا توجد أطر معمول بها للتعامل مع مثل هذه القضايا.

يمكن أن يكون تأثير هذه التحيزات شديدًا. في السياق الهندي ، يمكن أن تكون هذه التحيزات في شكل الجنس والطائفة والعقيدة والدين ، إلخ.

ومن المثير للاهتمام ، أنه في غضون أسابيع قليلة من إطلاقه ، تبين أن ChatGPT لديه ميل كبير إلى النزعة اليسارية والتحيز السياسي التحرري. يمكن أن يؤدي التحيز السياسي في ChatGPT أو GPT-4 إلى التمييز ضد الأشخاص ذوي الأيديولوجية السياسية المختلفة. “في معظم الحالات ، تأتي التحيزات من البيانات التي تم تدريب هذه النماذج عليها. يمكن أن يأتي أيضًا من المبدعين ، أو في عملية التدريب ، إذا لم يتم ذلك بشكل صحيح “.

في حين أن هناك حاجة إلى لوائح ، فمن الضروري أيضًا أن تضع الحكومة بعض الضوابط والتوازنات للاستخدام الأخلاقي للذكاء الاصطناعي. واختتم تشاكرابورتي قائلاً: “إذا كانت لدينا ممارسات أخلاقية سارية جنبًا إلى جنب مع التنظيم ، فسيكون لها تأثير إيجابي على مشهد الذكاء الاصطناعي بأكمله”.