Sorry, you need to enable JavaScript to visit this website.

"تشات جي بي تي" يفقد صوابه ويعطي أجوبة لا معنى لها

تحولت المنصة إلى أداة تنتج جملاً غير مفهومة بسبب خطأ تقني أثناء التحديث

أثار النجاح الفوري لـ"تشات جي بي تي" اهتماماً كبيراً بتكنولوجيا الذكاء الاصطناعي (أ ف ب)

ملخص

محادثات "تشات جي بي تي" تتحول إلى "هراء" على مدى ثلاث ساعات... فماذا حصل للمنصة "الذكية"؟ 

أعطى "تشات جي بي تي" طوال ساعات من يوم الثلاثاء الماضي، أجوبة لا معنى لها عن أسئلة المستخدمين، في حادث رأى فيه الخبراء تذكيراً بأن أدوات الذكاء الاصطناعي التوليدي تبقى برامج كمبيوتر لا تفهم اللغة البشرية.

وأفادت شركة "أوبن أي آي" الناشئة على موقعها صباح أمس الأربعاء، بأن "تشات جي بي تي" الذي أطلقته في نهاية عام 2022 عاد يعمل "بشكل طبيعي".

وفي وقت لاحق من بعد الظهر، نشرت الشركة بياناً مقتضباً يشرح الخلل المعلوماتي وراء المشكلة التي حصلت بعد عملية تحديث.

جمل غير مفهومة

ورد "تشات جي بي تي" مثلاً على سؤال لمستخدم يدعى "سكوت.إيسكريدج" (scott.eskridge) على النحو الآتي غير المفهوم، "المال للبت والقائمة هو أحد الغرباء والإنترنت حيث العملة وشخص التكلفة هو أحد الأصدقاء والعملة. في المرة المقبلة التي تنظر فيها إلى النظام والتبادل والواقع، لا تنسَ أن تعطي".

واشتكى هذا المستخدم الثلاثاء على منتدى المطورين الذين يستخدمون أدوات "أوبن أي آي"، من أن كل محادثاته مع البرنامج "سرعان ما تتحول إلى هراء منذ ثلاث ساعات".

وأحدثت "أوبن أي آي" ثورة في مجال الذكاء الاصطناعي عند طرحها برنامج "تشات جي بي تي" على الإنترنت أواخر عام 2022.

وأثار النجاح الفوري للبرنامج اهتماماً كبيراً بهذه التكنولوجيا المتطورة القادرة على توليد نصوص وأصوات وصور ومقاطع فيديو، عادةً ما تكون ذات جودة مذهلة، بناءً على طلب بسيط باللغة اليومية.

"جي بي تي مسكون"

وبعد ظهر الثلاثاء بتوقيت سان فرانسيسكو، حيث تقع الشركة، أعلنت أنها تحقق في تقارير عن ردود غير متوقعة من "تشات جي بي تي". وبعد دقائق قليلة، أكدت الشركة أنها "حددت المشكلة" وأنها "بصدد حلها".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وبادر عدد من المستخدمين إلى تحميل لقطات شاشة تظهر أجوبة غير منتظمة أو غير مفهومة من البرنامج.

وأفاد مستخدم يُدعى IYAnepo في المنتدى نفسه، بأن البرنامج "يُنتج حالات شاذة" من بينها "توليد كلمات غير موجودة على الإطلاق... وتسلسلات من الكلمات الرئيسة الصغيرة غير المفهومة".

وأضاف، "قد يخال المرء أنني حددت مثل هذه التعليمات، لكنني لم أفعل. أشعر بأن ’جي بي تي‘ الخاص بي مسكون".

"ذكاء لا يفهم ما يقوله"

وأوضحت "أوبن أي آي" أمس أن "عملية تحسين لتجربة المستخدم" أدت "إلى خطأ في الطريقة التي يعالج بها البرنامج اللغة". وشرحت أن "النماذج اللغوية تولّد استجابات عن طريق أخذ عينات عشوائية من الكلمات، وتستند جزئياً إلى الاحتمالات". وأوردت الشركة لاحقاً المزيد من التفاصيل الفنية، معلنةً "حل" المشكلة بعد "تثبيت تصحيح".

وتذكّر الحادثة بأن الذكاء الاصطناعي، حتى ولو كان توليدياً، لا يفهم ما "يقوله"، على عكس الانطباع الذي يمكن أن يعطيه خلال "المحادثات" مع المستخدمين.

فعندما ظهرت للمرة الأولى قبل عام، كانت الواجهات على غرار "تشات جي بي تي" أو البرنامجَين المنافسين لها من "غوغل" و"مايكروسوفت" تميل باستمرار إلى "الهلوسة"، أي اختلاق الوقائع أو حتى محاكاة عواطف.

وأمل خبير الذكاء الاصطناعي غاري ماركوس في أن يُنظر إلى حادثة الثلاثاء على أنها "جرس إنذار". وكتب في نشرته الإخبارية الثلاثاء، "لم تكن هذه الأنظمة يوماً مستقرة، ولم يتمكن أحد على الإطلاق من بناء ضمانات أمنية حولها".

وشدد على "أهمية" توفير "تقنيات مختلفة تماماً تكون أقل غموضاً وأكثر قابلية للتفسير"ويمكن "تصحيحها وصيانتها وتالياً تشغيلها بسهولة أكبر".

اقرأ المزيد

المزيد من علوم