Sorry, you need to enable JavaScript to visit this website.

حين يصبح الذكاء الاصطناعي رئيسا للتحرير ويهرف بما لا يعرف

منصات إلكترونية "ذكية" تنشر محتوى كاذباً بلا حسيب أو رقيب

نبهت نيويورك تايمز إلى أن الذكاء الاصطناعي لا يخطئ أحياناً وحسب، بل يختلق معلومات مثل الأسماء والتواريخ والشروح الطبية وملخصات للكتب وعناوين إنترنت، بل وأحداثاً تاريخية لم تقع (رويترز)

ملخص

أبدى باحثون كثر عن قلقهم من أن يفرط بعض الناس في الاعتماد على أدوات الذكاء الاصطناعي للحصول على نصائح طبية وقانونية ومعلومات أخرى يستخدمونها في اتخاذ قراراتهم اليومية

أوردت "بلومبيرغ" أن دراسة أجرتها "نيوز غارد"، المتخصصة في المعلومات المضللة عبر الإنترنت، كشفت وجود 49 روبوتاً إخبارياً، وهي منصات إخبارية أنشأتها روبوتات تعمل بواسطة الذكاء الاصطناعي وتقدم محتوى ليس فقط متواضعاً، بل يمكنه أيضاً نقل روايات كاذبة.

ونقلت المجلة الفرنسية "كورييه إنترناسيونال" عن الوكالة الإخبارية الأميركية أن الدراسة اعتبرت هذا الانتشار "مدعاة إلى تساؤلات حول كيفية تعزيز التكنولوجيا لتقنيات التزوير الراسخة"، وتغطي "مزارع المحتوى" هذه مجموعة كاملة من المواقع الإخبارية، وفق الدراسة.

وأشارت الدراسة إلى أن "بعض المواقع المعنية يتنكر بهيأة مواقع للأخبار الساخنة بأسماء تبدو عامة مثل ’نيوز لايف 97‘ و’دايلي بزنس بوست‘ بينما يشارك بعضها الآخر نصائح حول أسلوب الحياة أو أخبار المشاهير، أو ينشر محتوى يحظى برعاية وتمويل".

وتتمثل المشكلة في أن "أياً منها لا يكشف أنه مدعوم بأدوات تعمل بالذكاء الاصطناعي مثل ’تشات جي بي تي‘ التابعة لـ ’أوبن إيه آي‘ أو ’غوغل بارد‘"، وتنشر المواقع الـ 49 محتوى بالإنجليزية والصينية والفرنسية والبرتغالية والتاغالوغية (لغة في الفيليبين) والتايلاندية والتشيكية.

وأوردت "كورييه إنترناسيونال" أن الدراسة تضمنت أمثلة على التضليل، فموقع "تي نيوز نتوورك" مثلاً "نشر مقالة لم يجر التحقق منها حول مقتل آلاف الجنود في الحرب بين أوكرانيا وروسيا، استناداً إلى مقطع فيديو على ’يوتيوب‘". وأشارت الدراسة إلى أن أكثر من نصف المواقع المعنية "يكسب المال من الإعلانات البرمجية، أي الإعلانات الموضوعة خوارزمياً عبر الإنترنت"، كما فعلت مزارع المحتوى التي يديرها البشر قبل ظهور الذكاء الاصطناعي التوليدي.

من جهتها نشرت "نيويورك تايمز" تقريراً مطولاً عن "هلوسات" روبوتات الدردشة العاملة بالذكاء الاصطناعي، فقد طرح معدا التقرير سؤالاً على "تشات جي بي تي" حول المرة الأولى التي نشرت فيها الصحيفة الأميركية نفسها خبراً عن الذكاء الاصطناعي، فرد بأن ذلك حصل في الـ 10 من يوليو (تموز) 1956 في مقالة عنوانها "علماء يتوقعون أن تتمكن الآلات من التعلم وحل المسائل"، تناول مؤتمراً تأسيسياً حول التقنية استضافته كلية دارتماوث.

وأضاف روبوت الدردشة، "يعتبر هذا المؤتمر الآن مهد الذكاء الاصطناعي كمجال للدراسة، وتذكر المقالة مصطلح ’الذكاء الاصطناعي‘ مرات عدة في سياق المناقشات والعروض التقديمية التي جرت خلال المؤتمر".

ووفق الصحيفة الأميركية فإن المؤتمر صحيح لكن المقالة غير صحيحة، "لقد اختلقها ’تشات جي بي تي‘ بكل بساطة". وأضافت أن الأداة "لا تخطئ أحياناً وحسب، بل تختلق معلومات أيضاً مثل الأسماء والتواريخ والشروح الطبية وملخصات للكتب وعناوين إنترنت، بل وأحداثاً تاريخية لم تقع قط".

وسألت الصحيفة الروبوت عن لقاء لم يحصل بين الأديب البريطاني جيمس جويس والزعيم الشيوعي الروسي فلاديمير لينين فقال، "التقى جيمس جويس وفلاديمير لينين في زيوريخ بسويسرا عام 1916، وكان الرجلان يعيشان في المنفى بزيوريخ خلال الحرب العالمية الأولى. كان جويس كاتباً ولينين ثائراً والتقيا في مقهى أوديون الذي كان يستقطب الفنانين والمفكرين في زيوريخ". ولم تقل أدوات أخرى هلوسة حين سُئلت السؤال نفسه وأمعنت في اختلاق حوادث ومعلومات.

ولفتت "نيويورك تايمز" إلى أن اختلاقات كهذه "شائعة"، وأن "فهم السبب الذي يجعل روبوتات الدردشة تختلق الأشياء والطريقة الكفيلة بحل المشكلة باتا مسألة من المسائل الأكثر إلحاحاً التي يواجهها الباحثون مع مسارعة قطاع التكنولوجيا إلى تطوير أنظمة جديدة تعمل بالذكاء الاصطناعي".

وأشارت إلى أن روبوتات الدردشة يستخدمها مئات ملايين الناس لأغراض واسعة النطاق، مثل كتابة الرسائل الإلكترونية والتعلم عبر الإنترنت والبحث عبر محركات البحث، وهي كفيلة بتغيير طريقة تفاعل الناس مع المعلومات، "لكن لا وسيلة تضمن أن هذه الأنظمة ستنتج معلومات تكون دقيقة".

ووفق الصحيفة فإن التقنية المسماة الذكاء الاصطناعي التوليدي تعتمد على خوارزمية تحلل طريقة ترتيب البشر للكلمات على الإنترنت، ولا تميز الصحيح من الخطأ، مما يثير مخاوف حول موثوقيتها ومنفعة الذكاء الاصطناعي قبل حل المسألة أو ضبطها.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وأضاف كاتبا المقالة أن القطاع يسمي هذه الأخطاء"هلوسات"، ويعبر باحثون كثر عن قلقهم من أن يفرط بعض الناس في الاعتماد على هذه الأدوات للحصول على نصائح طبية وقانونية ومعلومات أخرى يستخدمونها في اتخاذ قراراتهم اليومية، وعددا أبرز روبوتات الدردشة العاملة بالذكاء الاصطناعي: "تشات جي بي تي" التابع لشركة "أوبن إيه آي" الذي تذيع شهرته منذ نوفمبر (تشرين الثاني) الماضي لقدرته على الرد على أسئلة معقدة وكتابة الشعر وتوليد كود البرمجة والتخطيط للعطل والترجمة بين اللغات، في حين يستطيع "جي بي تي-4"، النسخة المحدثة منه التي أطلقت أواسط مارس (آذار) الماضي الاستجابة إلى الصور، و"بينغ" الصادر عن "مايكروسوفت"، الجهة المستثمرة الرئيسية في "أوبن إيه آي"، بعد شهرين على إطلاق الأول الذي يستطيع الدخول في مناقشات لانهائية، لكن أخطاءه فاقت أخطاء الأول، و"بارد" الذي ابتكرته "غوغل" وأطلقته في مارس الماضي أيضاً لكن لعدد محدود من المستخدمين في الولايات المتحدة والمملكة المتحدة، والذي يستطيع كتابة رسائل إلكترونية وقصائد وكتابة منشورات تصلح للمدونات والإجابة عن الأسئلة بوقائع أو آراء، و"إرني" الأداة الصينية التي أطلقتها في مارس أيضاً شركة "بايدو" لكنها الأكثر مدعاة للشك، فتجربتها خلال إطلاقها تبين أنها كانت مسجلة.

وقال الأستاذ والباحث في الذكاء الاصطناعي لدى جامعة ولاية أريزونا سوباراو كامبهامباتي لـ "نيويورك تايمز" إنه "إذ لم يملك المرء الإجابة عن سؤال بالفعل، فيجب ألا يطرح السؤال على هذه الأنظمة".

وقالت المتحدثة باسم "غوغل" جينيفر رودستروم، "أطلقنا ’بارد‘ كتجربة ونريد أن نكون شفافين قدر الإمكان في شأن حدوده الموثقة توثيقاً جيداً"، وتؤكد "غوغل" و"مايكروسوفت" و"أوبن إيه آي" أنها تعمل على تقليص الهلوسات والمعلومات الكاذبة والمضللة، وتفيد وثيقة داخلية في "مايكروسوفت" بأن أنظمة الذكاء الاصطناعي "صنعت لتكون مقنعة لا صادقة، وهذا يعني أن النتائج قد تبدو حقيقية جداً لكنها تشمل بيانات غير صحيحة".

ووفق الصحيفة فإن روبوتات الدردشة تعتمد على تكنولوجيا اسمها نموذج اللغات الضخمة التي تتعلم مهاراتها من خلال تحليل كميات ضخمة من النصوص الرقمية المجمعة من الإنترنت، ومن خلال اكتشاف الأنماط في البيانات تبدأ بتخمين الكلمات.

ولأن الإنترنت مليء بالمعلومات الخاطئة فإن التكنولوجيا تتعلم تكرار ما يجافي الواقع وتختلق أحياناً أشياء، فهي تنتج نصوصاً جديدة بجمع مليارات الأنماط بطرق جديدة، وهي لو تعلمت من نص دقيق فستولد أشياء غير صحيحة، ولأنها تتعلم من كمية من البيانات لا يستطيع العقل البشري تحليلها، فلا يزال خبراء الذكاء الاصطناعي أنفسهم غير قادرين على فهم الطريقة التي ترتب بها الكلمات في نص، بل ولو طرح المرء عليها السؤال مرتين فقد تأتيه بإجابتين مختلفتين.

المزيد من تقارير