Sorry, you need to enable JavaScript to visit this website.

معضلة "شات جي بي تي": لا يستطيع شرح نفسه

وجد الباحثون أن روبوت الدردشة ربما يستخدم مفاهيم ليس في متناولنا تسميات أو فهم لها

لاحظ الباحثون أن النظام يستخدم أيضاً قدراً كبيراً من القوة الحاسوبية (رويترز)

ملخص

حاول مطورو "شات جي بي تي" جعل النظام يشرح نفسه فواجهتهم مشكلات عويصة: روبوت الدردشة قد يستخدم مفاهيم ليس في متناولنا تسميات لها فبالأحرى استيعابها

خاض مطورو روبوت الدردشة "شات جي بي تي" ChatGPT تجربة حاولوا فيها حمل هذا النظام المؤتمت المزود بالذكاء الاصطناعي على شرح نفسه.

في النتيجة، وجدوا أنه على رغم إحرازهم قدراً من النجاح، فقد واجهوا بعض المشكلات، من بينها حقيقة أن نظام الذكاء الاصطناعي ربما يستخدم مفاهيم ليس في متناول البشر تسميات أو فهم لها.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

استخدم الباحثون لدى "أوبن أي آي" OpenAI، الشركة وراء تطوير "شات جي بي تي"، الإصدار الأحدث من نموذجها الذكي ويُسمى "جي بي تي- 4" (GPT-4) في محاولة لشرح سلوك إصدار سابق من روبوت الدردشة هو "جي بي تي- 2" (GPT-2).

ترمي محاولة الباحثين إلى تجاوز ما يسمى "مشكلة الصندوق الأسود" [العجز عن معرفة طريقة العمل من الداخل] باستخدام نماذج لغوية كبيرة large language models (اختصاراً "أل أل أم") من قبيل "جي بي تي". صحيح أن لدينا ألماماً جيداً نوعاً ما بالمدخلات والمخرجات إلى ومن مثل هذه الأنظمة الذكية، ولكن يبقى العمل الفعلي الذي يأخذ مجراه في الداخل غامضاً إلى حد كبير.

وجود هذه المشكلة لا يزيد عمل الباحثين صعوبة فحسب، بل إنه بسببها لا تتوافر فرصة كبيرة لمعرفة التحيزات التي ربما تكون متضمنة في النظام الذكي، أو ما إذا كان الأخير يمدّ المستخدمين بمعلومات خاطئة، إذ ليس في جعبة الباحثين طريقة تشرح الكيفية التي خلص بها إلى الاستنتاجات التي قدمها.

سعى المهندسون والعلماء إلى حل هذه المشكلة باستخدام "بحث التفسير"، والذي يرمي إلى العثور على سبل تسمح بالنظر داخل النموذج نفسه، والتوصل إلى فهم أفضل للتفاصيل التي تأخذ مجراها فيه. في الغالب، تطلبت هذه المهمة النظر إلى "الخلايا العصبية" الاصطناعية التي يتشكل منها هذا النموذج: تماماً كما الحال في الدماغ البشري، يتكون نظام الذكاء الاصطناعي من مجموعة كبيرة مما يسمى الخلايا العصبية التي تمثل أجزاء من البيانات التي يستخدمها.

ولكن، من الصعب العثور على تلك الخلايا العصبية الفردية والغرض منها، ذلك أنه تعين على البشر أن يفرزوا الخلايا العصبية ويتفحصوها يدوياً كي يعرفوا ما الذي تمثله. ولكن لدى بعض الأنظمة مئات المليارات من المتغيرات في الشبكة العصبية، وبالتالي فإنه من المحال أن يتمكن البشر من الخوض فيها كلها.

الآن، نظر الباحثون في "أوبن أي آي" إلى استخدام "جي بي تي- 4" في أتمتة هذه العملية، في محاولة منهم للبحث في سلوك النظام على نحو أسرع. فعلوا ذلك من طريق محاولة إنشاء عملية مؤتمتة من شأنها أن تسمح للنظام الذكي بتقديم تفسيرات لغوية طبيعية لسلوك الخلايا العصبية البرمجية- وتطبيق ذلك على نموذج لغوي ذكي آخر كان أصدر سابقاً.

أجدى ذلك نفعاً في ثلاث خطوات: النظر إلى الخلايا العصبية الاصطناعية الموجودة في "جي بي تي- 2"، وتجربتها وتفسيرها من جانب "جي بي تي- 4"، ثم محاكاة ما ستفعله تلك الخلايا العصبية، وأخيراً تقييم درجات هذا التفسير من طريق عقد مقارنة بين طريقة عمل التشغيل المحاكى وطريقة عمل التشغيل الحقيقي.

انتهى معظم هذه التفسيرات بشكل سيئ، وأعطى "جي بي تي- 4" لنفسه درجات منخفضة. ولكن الباحثين قالوا إنهم يأملون لو أن التجربة أظهرت أن سيكون في المستطاع استخدام تكنولوجيا الذكاء الاصطناعي هذه لشرح نفسها، مع النهوض بمزيد من العمل.

ولكن واجه المطورون مجموعة من "أوجه النقص"، التي تعني أن النظام بصورته المتوافرة الآن لا يتمتع بنفس كفاءة البشر في تفسير السلوك. جزء من المشكلة ربما يعزى إلى أنه من المحال توسل اللغة العادية لشرح كيفية عمل النظام، لأن النظام ربما يستخدم مفاهيم فردية يعجز البشر عن تسميتها.

"لقد صببنا تركيزنا على تفسيرات اللغة العادية القصيرة، ولكن الخلايا العصبية الاصطناعية ربما تؤدي سلوكاً شديد التعقيد من المحال وصفه بإيجاز. على سبيل المثال، من شأن الخلايا العصبية الاصطناعية أن تكون متعددة المعاني (ممثلة الكثير من المفاهيم المتميزة) أو ربما تمثل مفاهيم فردية لا يفهمها البشر أو لا يمتلكون كلمات تصفها"، كتب الباحثون.

كذلك يواجه النظام مشكلات لأنه يركز تحديداً على ما تفعله كل خلية عصبية بشكل فردي، وليس كيف يمكن أن يؤثر ذلك لاحقاً في المكونات الموجودة في النص. وبالمثل، يمكن أن يفسر سلوكاً معيناً ولكن ليس الآلية التي تنتج هذا السلوك، بالتالي قد يرصد الأنماط التي ليست في الواقع سبباً لسلوك معين.

ولاحظ الباحثون أن النظام يستخدم أيضاً قدراً كبيراً من القوة الحاسوبية.

© The Independent

المزيد من علوم