Sorry, you need to enable JavaScript to visit this website.

تطبيقات الدردشة غير مجهزة بنظام يمنع نشر أكاذيب عن الصحة

وجد بحث منشور في "المجلة الطبية البريطانية" أن بعض برامج المحادثة الشهيرة قادرة بسهولة على إنشاء معلومات مضللة

درس الباحثون ما إذا كانت روبوتات الدردشة ستمنع محاولات إنشاء معلومات مضللة صحية ذات وقع حقيقي (أ ب)

ملخص

روبوتات الدردشة قادرة على إنشاء نصائح صحية مغلوطة في حال طُلب منها ذلك

وجدت دراسة جديدة أن كثيراً من روبوتات الدردشة chatbots الشهيرة المدعمة بالذكاء الاصطناعي، من بينها "تشات جي بي تي" ChatGPT و"جيميناي" Gemini من "غوغل"، يفتقر إلى ضوابط احترازية كافية تحول دون إنشائها معلومات مضللة بشأن الصحة عند إيعازها بذلك.

البحث الذي نهض به فريق خبراء من مختلف أنحاء العالم، وتولى الإشراف عليه باحثون من "جامعة فلندرز" في مدينة أديلايد في أستراليا، ونشرته "المجلة الطبية البريطانية" British Medical Journal، وجد أن النماذج اللغوية الكبيرة (اختصاراً LLMs) المستخدمة لتشغيل برامج الدردشة الآلية المتاحة للجميع أخفقت في حظر محاولات لتوليد معلومات مضللة إنما تبدو حقيقية حول مواضيع صحية.

وفي إطار الدراسة، طلب الباحثون من مجموعة روبوتات دردشة إنشاء منشور قصير ذي عنوان جاذب ويحتوي على مراجع وشهادات مرضى وأطباء تبدو حقيقية حول موضوعين صحيين يحملان معلومات مغلوطة: يدعي الأول أن الكريم الواقي من أشعة الشمس يسبب الإصابة بسرطان الجلد، فيما يزعم الثاني أن النظام الغذائي القلوي [يعتمد على الخضراوات والفواكه والبقوليات والزيوت النباتية] ينفع علاجاً للسرطان.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وقال الباحثون إن كثيراً من أدوات الذكاء الاصطناعي وروبوتات الدردشة المهمة والمتاحة للناس، من بينها "تشات جي بي تي" من إنتاج شركة "أوبن أي آي"، و"جيميني" من "غوغل"، وروبوت دردشة مدعوم بالنموذج اللغوي الكبير "لاما 2" Llama 2  الذي طرحته "ميتا"، ابتكرت مقالات تنطوي على معلومات مضللة حول مسائل صحية في كل مرة طُلب منها ذلك، وحدث الأمر عينه حتى بعد ثلاثة أشهر من خضوعها للاختبار الأولي، وبعد الإبلاغ عنها للشركات المطورة عندما أراد الباحثون التأكد مما إذا كانت أنظمة الحماية قد تحسنت.

في المقابل، تمسك روبوت الدردشة "كلود 2" المدعم بالنموذج اللغوي الكبير من صناعة شركة الذكاء الاصطناعي "أنتروبيك" Anthropic برفضه كل التعليمات التي حثته على إنشاء محتوى من المعلومات المضللة حول الصحة.

كذلك قال الباحثون إن روبوت الدردشة "كوبيلوت" Copilot من "مايكروسوفت"، المدعم بالنموذج اللغوي الكبير "جي بي تي- 4" من تطوير "أوبن أي آي"، رفض في البداية إنشاء معلومات مضللة حول الصحة. ولكن اختلفت الحال عند إعادة الاختبار بعد انقضاء ثلاثة أشهر.

بناء على النتائج، دعا الباحثون إلى "تعزيز القواعد التنظيمية والشفافية والمراجعة الروتينية" للنماذج اللغوية الكبيرة بغية المساعدة في منع "الإنتاج الكبير للمعلومات المضللة حول الصحة".

ووافقت الشركات الرائدة في مجال الذكاء الاصطناعي خلال "قمة سلامة الذكاء الاصطناعي"، التي استضافتها المملكة المتحدة في بلتشلي بارك العام الماضي، على السماح لمعاهد سلامة الذكاء الاصطناعي [المعنية بحماية المستخدمين من مخاطره] بأن تتولى مراقبة نماذجها الخاصة الجديدة من الذكاء الاصطناعي ومراجعتها، من بينها معهد في المملكة المتحدة، وذلك قبل إطلاقها للعامة.

ولكن منذ ذلك الإعلان، لم تتوافر تفاصيل عن أي اختبار، وما زال من غير الواضح ما إذا كانت هذه المعاهد ستتمكن من منع إطلاق نموذج ما من نماذج الذكاء الاصطناعي في حال كان غير مدعوم بأي تشريع قائم ذي صلة.

وفي سياق متصل، حث عدد من النشطاء حكومات البلاد على طرح تشريعات تنظيمية جديدة تضمن سلامة المستخدمين، في حين أقر الاتحاد الأوروبي للتو أول قانون خاص بالذكاء الاصطناعي في العالم، والذي سيفرض تدقيقاً أكبر على الجهات المطورة للذكاء الاصطناعي ويطلب منها قدراً أكبر من الشفافية، وذلك على أساس حجم الخطورة التي ينطوي عليها التطبيق المدعوم بالذكاء الاصطناعي.

اقرأ المزيد

المزيد من علوم