الأخبار التكنولوجية والاستعراضات والنصائح!

مخاطر الذكاء الاصطناعي المتحيز – وكيفية تجنبه

ستساعدك المقالة التالية: مخاطر الذكاء الاصطناعي المتحيز – وكيفية تجنبه

لا يمكن إنكار القول بأن السوق الرقمي يتغير باستمرار وأننا اعتدنا عليه، ولكن في الأشهر الأخيرة، أدى الذكاء الاصطناعي (AI) وتأثيراته على أولئك الذين يعملون عبر الإنترنت إلى إبقاء العديد من محترفي التسويق ومنشئي المحتوى مستيقظين في الليل.

وذلك لأنه على الرغم من أن أنظمة الذكاء الاصطناعي أصبحت جزءًا لا يتجزأ من حياتنا اليومية وغيرت الطريقة التي يتفاعل بها الناس مع التكنولوجيا، إلا أنها عرضة للتحيزات التي يمكن أن تؤدي إلى عواقب غير مقصودة – مثل أي خلق بشري.

لذلك، ليس من المستغرب أن في تقرير HubSpot الأخيروقد أعرب المسوقون ومحترفو المبيعات وموظفو خدمة العملاء عن ترددهم في استخدام أدوات الذكاء الاصطناعي بسبب احتمال إنتاج معلومات متحيزة.

لكن لا تفهموني خطأ: أنا لا أقول أن استخدام التعلم الآلي ضار لهؤلاء المهنيين، ولكن أريد التأكيد على أهمية استخدام الإشراف البشري والتكامل الصحيح لتجنب المعلومات غير الصحيحة والمتحيزة في إنتاج المحتوى.

لذلك، في هذه المقالة، أريد التعمق في مفهوم تحيز الذكاء الاصطناعي، واستكشاف أمثلة حقيقية للتحيز في أنظمة الذكاء الاصطناعي، ومناقشة استراتيجيات المسوقين ومنشئي المحتوى للتخفيف من الضرر المحتمل الناجم عن استخدام هذه التكنولوجيا. إذن أول الأشياء أولاً: ما هو تحيز الذكاء الاصطناعي؟

ما هو تحيز الذكاء الاصطناعي؟

وإذا بحثنا عن “التحيز” في محرك البحث الأشهر والأكثر استخداماً في العالم، نجد التعريف التالي: “”

لذلك، إذا أخذنا ذلك في الاعتبار، يمكننا القول أن تحيز الذكاء الاصطناعي يشير إلى المحسوبية أو التمييز المنهجي والمحتمل غير العادل الذي تظهره أنظمة الذكاء الاصطناعي عند تقديم بيانات حول موضوع معين.

يمكن أن تنشأ هذه التحيزات من مصادر مختلفة، بما في ذلك بيانات التدريب المتحيزة، أو الخوارزميات المعيبة، أو التنفيذ غير السليم. يحدث هذا لأن أنظمة الذكاء الاصطناعي مبرمجة للتعلم من البيانات الموجودة المتوفرة عبر الإنترنت واتخاذ القرارات بناءً على الأنماط والارتباطات داخل تلك البيانات.

لذلك، إذا كانت بيانات التدريب تحتوي على تحيزات متأصلة أو تعكس تحيزات مجتمعية، فقد يؤدي نظام الذكاء الاصطناعي عن غير قصد إلى إدامة تلك التحيزات وتضخيمها عند اتخاذ القرارات.

كيف يمكن أن يكون الذكاء الاصطناعي متحيزًا؟

سلطت الدراسات البحثية والتحقيقات الضوء على وجود وتأثير تحيز الذكاء الاصطناعي. على سبيل المثال، أ ورقة جديدة من معهد ماساتشوستس للتكنولوجيا وجامعة ستانفورد وجدت أن أنظمة التعرف على الوجه من شركات التكنولوجيا البارزة لديها معدلات خطأ أعلى بالنسبة للنساء والأشخاص ذوي البشرة الداكنة.

وكشفت التجارب أن معدلات الخطأ في تحديد جنس الرجال ذوي البشرة الفاتحة كانت باستمرار أقل من 0.8 بالمئة، بينما بالنسبة للنساء ذوات البشرة الداكنة كانت معدلات الخطأ أعلى بشكل ملحوظ، حيث تجاوزت 20 بالمئة في حالة واحدة وتجاوزت 34 بالمئة في حالتين أخريين. .

ومع هذا الميل إلى الخطأ في التعرف على هؤلاء الأفراد في كثير من الأحيان، يمكن أن تؤدي أنظمة الذكاء الاصطناعي إلى تمييز محتمل في مجالات مثل إنفاذ القانون وعمليات التوظيف، حيث يمكن استخدام هذه التقنيات (وغالبًا ما يتم استخدامها) لتحديد المجرمين المحتملين والمطلوبين من قبل سلطات إنفاذ القانون.

تثير نتائج الدراسة أيضًا مخاوف بشأن تدريب وتقييم الشبكات العصبية المستخدمة في هذه البرامج، مما يسلط الضوء على أهمية فحص التحيزات في أنظمة تحليل الوجه، ويشير إلى مزيد من التحقيق في التباينات المحتملة في تطبيقات الذكاء الاصطناعي الأخرى.

مثال آخر هو عندما نقوم بتحليل الذكاء الاصطناعي المستخدم في التحليل الائتماني للقروض.

غالبًا ما تستخدم المؤسسات المالية خوارزميات الموافقة على القروض، والمعروفة أيضًا باسم خوارزميات تسجيل الائتمان، لتقييم الجدارة الائتمانية لمقدمي طلبات القروض – وإذا حددت الخوارزمية درجات مخاطر أعلى بناءً على عوامل مرتبطة بمجموعات الأقليات، فقد يواجه الأفراد في هذه المجتمعات صعوبة في الحصول على القروض أو تخضع لشروط إقراض غير مواتية، مما يؤدي إلى إدامة عدم المساواة النظامية والحد من الفرص الاقتصادية.

وفي هذا الشأن، تقول أراسيلي بانامينيو، مديرة الشؤون اللاتينية في مركز الإقراض المسؤول، إن «(…)».

وعندما يتعلق الأمر بخوارزميات البحث عن الوظائف، فإن القلق هو أن التحيزات في الخوارزمية يمكن أن تؤدي إلى مزايا أو عيوب غير عادلة لمجموعات معينة من المرشحين.

تحقيق آخر كشفت أن خوارزمية البحث عن الوظائف في Google أظهرت تحيزًا بين الجنسين، حيث فضلت المناصب التنفيذية الأعلى أجرًا في نتائج البحث للمرشحين الذكور – لذلك، إذا كانت خوارزمية البحث عن الوظائف تصنف باستمرار المناصب التنفيذية الأعلى أجرًا للمرشحين الذكور، فقد يؤدي ذلك إلى إدامة الفوارق القائمة بين الجنسين في سوق الوظائف.

كيفية التخفيف من تحيز الذكاء الاصطناعي؟

لقد أصبح الذكاء الاصطناعي حقيقة واقعة في الحياة اليومية للمسوقين ومنشئي المحتوى، وتجنبه ليس قرارًا جيدًا. بالإضافة إلى التحقق من جميع المواد التي يوفرها التعلم الآلي، هناك بعض النقاط ضرورية لتجنب وتخفيف تحيز الذكاء الاصطناعي:

1. توفير بيانات تدريبية متنوعة وتمثيلية: ومن الأهمية بمكان التأكد من تدريب أنظمة الذكاء الاصطناعي على مجموعات بيانات متنوعة وتمثيلية للتخفيف من التحيزات، بما في ذلك البيانات من مختلف التركيبة السكانية والخلفيات ووجهات النظر. ومن خلال توسيع مجموعة البيانات، يمكن لنماذج الذكاء الاصطناعي أن تتعلم كيفية اتخاذ قرارات أكثر عدالة وشمولاً.

2. إجراء تقييمات مستمرة واختبارات صارمة: يجب أن تخضع أنظمة الذكاء الاصطناعي لفحوصات واختبارات متكررة وشاملة لتحديد التحيزات المحتملة وتصحيحها. يمكن إجراء عمليات تدقيق مستقلة لتقييم الأداء والتحيزات المحتملة لنماذج الذكاء الاصطناعي، مما يساعد على تحديد أي أنماط تمييزية غير مقصودة واتخاذ الإجراءات التصحيحية. يجب أن تتضمن هذه المراقبة مراجعة التعليقات وتقارير المستخدم وبيانات الأداء لضمان الحصول على نتائج عادلة ومعلومات صحيحة.

3. الرقابة والتدخل البشري: ويلعب هذا دورًا حاسمًا في ضمان موثوقية النتائج التي يولدها الذكاء الاصطناعي وعدالتها وأخلاقيتها. وفي حين يستطيع الذكاء الاصطناعي أتمتة العمليات وتوفير نتائج فعالة، فإن التدخل البشري يوفر الضوابط والتوازنات اللازمة لتحدي التحيزات، وتقييم النتائج، ومواءمة القرارات مع المبادئ الأخلاقية. يجلب البشر الفهم السياقي والخبرة في المجال والتفكير الأخلاقي إلى الطاولة، مما يمكنهم من إجراء تقييم نقدي للنتائج الناتجة عن الذكاء الاصطناعي، وتحديد التحيزات والتخفيف منها، والتنقل في السيناريوهات المعقدة والجديدة التي قد يواجه الذكاء الاصطناعي صعوبات فيها – إرساء المساءلة، وتعزيز ثقة المستخدم، و التأكد من تصميم أنظمة الذكاء الاصطناعي واستخدامها بطريقة مسؤولة ومفيدة.

لذلك، يمكننا أن نرى أن تحيز الذكاء الاصطناعي يشكل تحديًا كبيرًا في عالمنا الذي يتحول إلى رقمنة بشكل متزايد، ولكن لم نفقد كل شيء: يتطلب التعامل مع تحيز الذكاء الاصطناعي نهجًا متعدد الأوجه، يتضمن بيانات تدريب متنوعة، وتقييمًا صارمًا، ومراقبة مستمرة، وأطر أخلاقية، وتدخلًا بشريًا. .

من خلال تنفيذ هذه الاستراتيجيات، أنا متأكد من أن المسوقين ومنشئي المحتوى يمكنهم المساهمة في تطوير أنظمة ذكاء اصطناعي عادلة وشاملة، وتخفيف الضرر المحتمل وتعزيز مستقبل أكثر مساواة!