Sorry, you need to enable JavaScript to visit this website.

الذكاء الاصطناعي يخطئ في تحديد مصدر الصور ويثير البلبلة

إجابة خاطئة من "غروك" تسببت باتهام نائب فرنسي بنشر معلومات مضللة

لوغو "غروك" روبوت الدردشة المدمج في "إكس" (أ ف ب)

ملخص

أثار خطأ روبوت "غروك" في تحديد مصدر صورة لطفلة تعاني سوء التغذية في غزة جدلاً واسعاً، بعدما نسبها خطأً إلى اليمن. على رغم تصحيح الخطأ لاحقاً، كرره الروبوت، مما كشف حدود الذكاء الاصطناعي في التحقق من المعلومات. متخصصون يحذرون من الاعتماد على أدوات الذكاء الاصطناعي التوليدي للتحقق من الأخبار، مؤكدين أنها مصممة لإنتاج المحتوى لا قول الحقيقة.

يلجأ مستخدمو الإنترنت أكثر فأكثر إلى برامج الدردشة الآلية عندما يريدون التحقق من معلومة ما، لكن استعانتهم بالذكاء الاصطناعي محفوفة بالأخطاء التي قد يرتكبها، وفق ما ظهر من النقاشات الحادة التي شهدتها منصة "إكس" بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.

في مطلع أغسطس (آب) الجاري عندما نشر النائب الفرنسي عن حزب "فرنسا الأبية" إيمريك كارون المؤيد للقضية الفلسطينية هذه الصورة من دون تعليق على "إكس"، بينما كان قطاع غزة مهدداً بـ"مجاعة معممة" وفقاً للأمم المتحدة، سارع كثر من المستخدمين إلى طلب التحقق من مصدرها من "غروك".

وأعطى روبوت الدردشة المدمج في "إكس" جواباً جازماً مفاده بأن هذه الصورة التقطت في أكتوبر (تشرين الأول) 2018 في اليمن، وأن الطفلة التي تظهر فيها تدعى أمل حسين، وتبلغ سبع سنوات. وانتشر جواب "غروك" على نطاق واسع، واتهم النائب بنشر معلومات مضللة.

ولكن تبين أن "غروك" كان مخطئاً. فالصورة التقطت بالفعل في غزة في الثاني من أغسطس بعدسة المصور الصحافي المتعاون مع وكالة الصحافة الفرنسية عمر القطاع.

وتظهر الصورة مريم دواس البالغة تسع سنوات، تحملها في مدينة غزة والدتها مدللة التي شرحت لوكالة الصحافة الفرنسية أن وزن ابنتها انخفض من 25 كيلوغراماً قبل الحرب إلى تسعة كيلوغرامات اليوم. وأضافت أنها لا تتلقى من الدعم الطبي "سوى الحليب، وهو غير متوافر دائماً، ولا يكفيها للتعافي".

وعندما سئل "غروك" عن عدم دقة إجابته، رد قائلاً، "أنا لا أنشر أخباراً كاذبة، بل أعتمد على مصادر موثوق بها". واعترف في النهاية بخطئه، لكنه كرره في اليوم التالي رداً على أسئلة جديدة من مستخدمي "إكس".

الذكاء الاصطناعي لا يسعى إلى الدقة

رأى الباحث في أخلاقيات التكنولوجيا ومؤلف كتاب "بونجور تشات جي بي تي" (Bonjour ChatGPT) لوي دو دييزباك، أن خطأ "غروك" يبين حدود أدوات الذكاء الاصطناعي، التي تشبه في عملها "الصناديق السوداء".

وإذ أشار المتخصص إلى أن "من غير المعروف تحديداً سبب إعطاء هذه الأدوات هذه الإجابة أو تلك، ولا كيفية ترتيبها مصادرها"، لاحظ أن هذه الأدوات تنطوي على تحيزات مرتبطة ببيانات تدريبها، ولكن أيضاً بتعليمات مصمميها.

وأشار مثلاً إلى أن لروبوت المحادثة من شركة "إكس أي آي" الناشئة التابعة لإيلون ماسك، وفقاً للمتخصص، "تحيزات نافرة أكثر تتوافق إلى حد كبير مع الأيديولوجيا التي يروج لها، من بين أمور أخرى"، الملياردير المقرب من أفكار اليمين المتطرف الأميركي.

وشرح لوي دو دييزباك أن توجيه سؤال إلى روبوت محادثة عن أصل صورة ما، هو طلب يخرجه من نطاق مهمته الأساسية. وأضاف، "عادة، عند البحث عن أصل صورة، قد يقول ’ربما التقطت هذه الصورة في اليمن، أو ربما التقطت في غزة، أو ربما التقطت في أي بلد يعاني المجاعة‘".

وأوضح المتخصص أن "النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف".

ونشرت صحيفة "ليبراسيون" أخيراً صورة أخرى لوكالة الصحافة الفرنسية، التقطها عمر القطاع أيضاً، تظهر طفلاً يعاني سوء التغذية في غزة. وسبق لـ"غروك" أن أفاد خطأً أيضاً بأن الصورة ملتقطة في اليمن عام 2016، بينما التقطت الصورة في الواقع في يوليو (تموز) 2025 في غزة.

ودفع خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زوراً بالتلاعب.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

إنتاج المحتوى

ترتبط تحيزات الذكاء الاصطناعي ببيانات التدريب التي تحدد قاعدة معارف النموذج، وفي مرحلة المطابقة التي تحدد ما سيعتبره النموذج إجابة "جيدة" أو "سيئة".

ويضيف دو دييزباك، "إذا شرح المستخدمون للنموذج أن إجابته خاطئة، لا يعني ذلك أنه سيغير إجابته بين ليلة وضحاها، لأن بيانات تدريبه لم تتغير، وكذلك مطابقته".

لكن الأخطاء ليست حكراً على "غروك". فعندما سألت وكالة الصحافة الفرنسية روبوت الدردشة التابع لشركة "ميسترال أي آي" الناشئة التي تستطيع بصفتها شريكة للوكالة إدراج أخبار الوكالة في أجوبة نموذجها، أشارت أداتها هي الأخرى إلى أن الصورة التقطت في اليمن.

ورأى لوي دو دييزباك عدم جواز استخدام روبوتات الدردشة للتحقق من الأخبار والصور، كما في ما يتعلق بمحركات البحث، لأن أدوات الذكاء الاصطناعي التوليدي "ليست مصممة لقول الحقيقة" بل "لإنتاج محتوى، سواء كان صحيحاً أم خاطئاً".

وخلص المتخصص إلى القول، "يجب النظر إليه كصديق مهووس بالأساطير: فهو لا يكذب دائماً، لكنه قادر على الكذب دائماً".

اقرأ المزيد

المزيد من منوعات