الأخبار التكنولوجية والاستعراضات والنصائح!

جمهورية ، أخبار 18 وغيرها تكسر أخبار الذكاء الاصطناعي المزيفة

ستساعدك المقالة التالية: جمهورية ، أخبار 18 وغيرها تكسر أخبار الذكاء الاصطناعي المزيفة

ظهرت صورة مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي لانفجار بالقرب من البنتاغون في واشنطن العاصمة على وسائل التواصل الاجتماعي الليلة الماضية ، مما تسبب في أضرار جانبية لسوق الأسهم الأمريكية. وسقطت دور الإعلام الهندية البارزة ، بما في ذلك Republic and News 18 ، عن غير قصد فريسة لنشر الصورة ونشر المعلومات المضللة عبر قنواتها. قام مسؤولو شرطة أرلينغتون بإتلاف الصورة ، ووصفوها بأنها من إنتاج الذكاء الاصطناعي.

كما يسلط الحدث الضوء على المخاطر في نظام الدفع مقابل التحقق. قام موقع بلومبيرج فيد بتغريد القصة المزيفة ، ولكن تم التحقق منها. تداولت عشرات الحسابات على مواقع التواصل الاجتماعي المعلومات المضللة دون التحقق من صحتها ، قفزًا على العربة. تم تعليق الحساب الذي أصدر الصورة حاليًا من Twitter.

تُظهر الصورة سحابة ضخمة من الدخان تتصاعد بالقرب من مبنى ولكن لا يوجد أشخاص في الصورة يمكنهم تأكيد المصدر. على الرغم من أننا ما زلنا لا نعرف أي أداة AI تم استخدامها لإنشاء الصورة ، إلا أنها تحتوي على بعض السمات المميزة لكونها تم إنشاؤها بواسطة AI. على سبيل المثال ، تكون الأعمدة الموجودة في المبنى في الصورة بأحجام مختلفة ، ويتم دمج السياج في الرصيف عند نقاط معينة.

حل الإسعافات الأولية

منذ فجر التاريخ ، تستخدم شركات الصور الفوتوغرافية مثل Getty Images العلامات المائية لحماية صورها. غالبًا ما تكون العلامة المائية عبارة عن شعار أو تراكب نص ، تعمل كعلامة مميزة على الصورة. لقد حظي مثل هذا الحل بالاهتمام وبدأت شركات مثل Google تغامر بدخول هذه المنطقة.

في الشهر الماضي في Google I / O ، قدمت الشركة ميزتين جديدتين للبحث عن الصور لوقف انتشار المعلومات المضللة. توفر الميزة الأولى لشركة Alphabet Inc ، “حول هذه الصورة” ، سياقًا إضافيًا – عندما تمت فهرسة الصورة لأول مرة بواسطة Google ، حيث ظهرت لأول مرة وأينما كانت متاحة عبر الإنترنت. ستُظهر الميزة المصدر الأصلي وتضع صورة مع أدلة زائفة مقدمة من مدققي الحقائق.

أعلنت Google أيضًا أن الصور التي تم إنشاؤها بواسطة AI ستشمل البيانات الوصفية مع كل صورة للإشارة إلى أنها تم إنشاؤها بواسطة AI. يمكن لمنشئي المحتوى الآخرين أيضًا تسمية الصور باستخدام نفس الميزة التي سيتم طرحها في الأشهر القادمة. تشير مشاركة مدونة Google إلى أن Midjourney و Shutterstock وآخرين سيطرحون الترميز في “الأشهر المقبلة”.

أخطاء الذكاء الاصطناعي النموذجية

تقدم حادثة البنتاغون حجة أقوى لماذا يحتاج المجتمع إلى طرق أفضل للتمييز بين المحتويات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والحقائق. على الرغم من أن الشركات لا تزال تبحث عن طرق للقيام بذلك. إليك كيفية تحديد الصور التي تم إنشاؤها بواسطة AI.

أولاً ، انظر عن كثب إلى الصورة. للقيام بذلك ، ابحث عن أعلى دقة ممكنة للصورة ثم ركز على التفاصيل. يمكن أن يُظهر التكبير عدم الاتساق والأخطاء التي ربما فاتها المرء للوهلة الأولى.

يمكن للمرء أيضًا البحث عن مصدر الصورة أو إجراء بحث عكسي عن الصورة. أخيرًا ، تشتهر مولدات الصور بالذكاء الاصطناعي بسمعتها الكابوسية “الأيدي ذات الأصابع الستة” و “أصابع القدم غير المتطابقة”. لذا انتبه إلى اليدين وميزات الجسم الأخرى التي من المحتمل أن تكون غير متناسبة.

ولدت الواقع

منذ أن اكتسبت نماذج تحويل النص إلى صورة شعبية على الإنترنت ، ظهرت العديد من الصور الخادعة – يبدو أن الرئيس الأمريكي السابق دونالد ترامب قد تم القبض عليه ، أو الرئيس التنفيذي لشركة Tesla Elon Musk يمسك بيد الرئيس التنفيذي لشركة GM ماري بارا. أيضا ، من يستطيع أن ينسى البابا فرانسيس يرتدي سترة بيضاء أنيقة منفوخة يتجول مع القهوة في يد واحدة؟

تفاصيل هذه الصور جعلتها تبدو وكأنها واقعية. سرعان ما اكتسبت صورة القصف زخمًا على الإنترنت ، مما دفع العديد من المنافذ الإخبارية إلى إدانة الحادث باعتباره “إحدى أولى حالات التضليل الواسع النطاق الناجم عن الذكاء الاصطناعي”. في حين أن بعض الأجيال الممتعة التي تشبه بالينكياغا تمكنوا من جذب الإنترنت ، يمكن للبقية أن تسبب ضجة اجتماعية وسياسية كبيرة.

يسلط حدث البنتاغون الضوء على مدى صعوبة فصل المحتوى الناتج عن الذكاء الاصطناعي عن الحقائق. ومن ثم ، فقد حان الوقت لوسائل الإعلام على مستوى العالم لاكتشاف طريقة للتحقق من “الأخبار” قبل بثها عبر قنواتها.