Sorry, you need to enable JavaScript to visit this website.

خوارزميات الذكاء الاصطناعي التي تستخدمها "غوغل" تثير القلق

محاولة حميدة من عملاق التكنولوجيا لجعل نتائج البحث شاملة لكنها مفزعة بغرائبيتها التي تحذرنا من الإفراط في الاعتماد على التقنيات الذكية

يتمثل الخطر الحقيقي، حالياً في الأقل، بأن إفراطنا في الاعتماد على الذكاء الاصطناعي سيغير جذرياً طريقة مقاربتنا لأداء المهمات الأساسية (ويلي ونكا ومصنع الشوكولاتة)

ملخص

طور محرك البحث "غوغل" تقنياته في الذكاء التوليدي لكنه أعطى نتائج غرائبية تجدد قرع جرس الإنذار حيال الاتكال الزائد على العقول الاصطناعية التي ربما لم تصل بعد إلى مرحلة النضج المكتمل.

حينما تقدم لنا الأفلام لمحة عن السيناريو الأسوأ في شأن مستقبل الذكاء الاصطناعي، فإنها تنحو إلى التركيز على مشهديات كبيرة عن ذلك الاحتمال، كأن تُصور عصابات متجولة من الروبوتات الساعية إلى إفناء البشر؛ أو ذكاء اصطناعي يؤدي دور "الأخ الكبير" الذي يراقبكم حتى في الحمام [يشير مصطلح الأخ الكبير إلى وصف الديكتاتور الشمولي الذي ارتسم في رواية متشائمة للكاتب الأميركي جورج أورويل]؛ أو الممثل الأميركي هايلي جويل أوزمنت متجمداً وسط الثلوج [أدى أوزمنت دور روبوت طفل لكنه يكتسب مشاعر بشرية فيقع في مشاكل توصله إلى التلبث سنوات طويلة تحت طبقات ثلجية كثيفة]؛ أو ما يشبه ذلك.

لكن، الخطر الحقيقي يتمثل، حالياً في الأقل، بأن إفراطنا في الاعتماد على الذكاء الاصطناعي سيغير جذرياً طريقة مقاربتنا لأداء المهمات الأساسية، خصوصاً تلك المتعلقة بالابداع أو المستندة إلى البحوث. يشبه ذلك ما جاء في دراسات عدة حاججت بأن إفراطنا في استخدام محركات البحث على غرار "غوغل"، قد غير في طريقة تذكرُنا للمعلومات وحفظنا لها في أدمغتنا. وبالتالي، إن استعمالنا للذكاء الاصطناعي قد يبدل كلياً طرقنا في التعلم والذهاب إلى العمل، لكن هذا التغيير ليس نحو الأفضل.

لقد شهدنا بالفعل سقطات كثيرة للذكاء الاصطناعي، وكتبتُ بنفسي عن بضعة منها. وفي المقابل، حدثت في الآونة الأخيرة مجموعة أمثلة تعطي البراهين الأفضل على أن الاعتماد على التقنية قد يؤدي إلى مشاكل جدية في المستقبل. وبالاستجابة إلى شعبية "تشات جي بي تي"، أطلق "غوغل" نظامه الخاص من الذكاء الاصطناعي، باسم "غوغل جيميناي" Google Gemini. وحينما يُعطى "جيميناي" سؤالاً نصياً، فإنه يجيب بالنصوص لكنه يستطيع أيضاً توليد صور بالاستجابة إلى توجيهات أساسية.

على أي حال، سرعان ما واجه المستخدمون مشكلة تتعلق بقدرة "جيميناي" على توليد الصور. وحينما طُلِب منه توليد صور عن أفراد من البشر، فإنه غالباً ما يرسمهم بالبداهة ضمن أوسع تنوع جندري وعرقي. وقد أوصل ذلك إلى بعض النتائج المثيرة للحيرة، حتى لو نُظِر إلى ذلك التنوع التوليدي بوصفه مسألة غير مهمة؛ أو ربما اعتُبر أمراً طيباً بالنظر إلى ميل النماذج اللغوية السابقة على "جيميناي" إلى الانحياز والتمييز، وفق ما حدث مع النُسَخْ المبكرة لبرنامج الذكاء التوليدي "ستايبل ديفيوجن" Stable Diffusion الذي أعطى صوراً فاضحة جنسياً حينما طُلب منه أن يرسم "الفتاة اللاتينية".

وفي حالة "جيميناي"، إذا طُلب منه توليد صورة ما، ولتكُن عن الآباء المؤسسين للولايات المتحدة الذين يشتهرون بأنهم مجموعة ذكور من أصحاب البشرة الفاتحة اللون، فإنه قد يولد صورة عن رجال ونساء من كل الأعراق، وقد ارتدوا ملابس الحقبة الاستعمارية. ربما بدا ذلك غير مؤذٍ كثيراً أو حتى مضحكاً، إلا أن المشاكل الفعلية تبدأ في الظهور حينما يُسأل "جيميناي" توليد صور عن الحرب العالمية الثانية، فيشرع في ضخ صور تظهر جنوداً نازيين من السود والآسيويين.

وليس من الواضح السبب المحدد لتبني "جيميناي" ذائقة حركة الـ"ووك" woke [تعني اليقظة/ التنبه، وهي حركة شبابية تنتقد التمييز ضد الأعراق الملونة والإناث وأصحاب الهويات الجنسية غير التقليدية]، لكن عبر أسوأ طريقة يمكن تخييلها. ومن المحتمل أن "غوغل" حاول تجنب القضايا المتعلقة بالانحيازات المسبقة، وبَرمَج نظامه في الذكاء الاصطناعي كي يكون شاملاً وغير تمييزي بشكل بديهي؛ من دون التفكير فعلياً عن إمكانية وجود خطأ في ذلك (بصورة عامة، يعتبر الاشتمال أمراً جيداً). وقد طرح برابهاكار راغافان، النائب الأعلى للرئيس في "غوغل"، عبر ما كتبه في مدونة إلكترونية إن "عملنا في ضبط معايير جيميناي بحيث تُظهر أوسع مروحة من الناس، قد فشل في أن يأخذ بعين الاعتبار الحالات التي يجب بوضوح عدم إبراز مدى واسع من التنوع".

وبصرف النظر عن السبب، ثمة خلاصة واضحة من هذه الموجة [تبني ذائقة الـ"ووك"]، مفادها أن هذه التقنية ليست جاهزة حتى الآن. أبعد من ذلك، ثمة احتمال بألا تنضج على الإطلاق أو في الأقل، قد لا تصل أبداً مستوى تغدو عنه قابلة للاعتماد عليها بشكل كامل في الوصول إلى نتائج متناسقة ويُعَول عليها.

وعلى نحوٍ خاص، شهدنا خلال هذا الأسبوع مثلاً بارزاً محدداً عن المخاطر المتأتية من الاعتماد الزائد على الذكاء الاصطناعي، وقد وقع في أقل الأمكنة توقعاً لحدوثه، وهو مخزن مرتجل للبضائع كان مملوءاً بطلبة يدرسون المسرح في غلاسكو.

إذا لم تشاهد بالفعل حتى الآن تلك الفيديوهات التي انتشرت بشكل ذريع على الإنترنت، إضافة إلى الشهادات المباشرة عن الحدث، فإليك ما تحتاج إلى معرفته عن ذلك. لقد دفع آباء أسر في اسكتلندا 35 جنيهاً استرلينياً كي يصطحبوا أطفالهم إلى حدثٍ رُوج بوصفه تفاعلياً وعنوان "تجربة ويلي ونكا". وحين وصلوا هناك، أُزجِيَتْ لهم تحية مجسدة بمخزن لا يحتوي إلا النزر اليسير من الديكور فيما امتلأ بممثلين ضجرين بدا أنهم لا يعرفون ماذا يفعلون، والأسوأ من ذلك أنه لم تظهر أي قطعة شوكولاته في المكان. وبصورة متوقعة، انحدر العرض إلى فوضى، فيما وصفت التقارير الصحافية "شغب" الآباء حيال نزهة آلت إلى عرض متدن النوعية ومرتفع التكلفة بشكل مبالغ فيه.

توضيحاً، يكمن الجزء الأشد إثارة للاهتمام لتلك القصة، في أن منظمي ذلك الحدث بدا أنهم اتكلوا على الذكاء الاصطناعي في ملامح معينة من تلك "التجربة". إن المواد الترويجية على "فيسبوك" وُلدَتْ بالذكاء الاصطناعي، لكنها نُفذت بطريقة بائسة إلى أنها لم تزد على الخربشات. وكذلك تَسلم الممثلون أوراقاً احتوت نصوصاً مملوءة بـ"لغو" الذكاء الاصطناعي، وحينما سألوا عن كيفية تنفيذ بعض الأشياء بطريقة عملية، أُخبِروا بوجوب أن "يرتجلوا".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

تصلح تلك الحادثة كلها لتكون دراسة حالة عن المخاطر المتضمنة في طريقة مقاربة الناس لهذه التقنية. بالطبع، لم يدُرْ في خلد المنظمين أي فكرة عن عالم يقدمون فيه إلى أولئك الأطفال تجربة انغماسية تقنياً ومُفَكرٌ فيها بعمق. في المقابل، من الواضح أن المنظمين سيطر عليهم انطباعٌ بأنهم يستطيعون إيكال أجزاء كبيرة من عملهم إلى هذه التقنية الجديدة التي لم يفهموا فعلياً كي يستخدموها.

تعبر الكلمات الأخيرة عن لب الأمر كله، بمعنى أن الذكاء الاصطناعي قد لا يكون سيئاً بحد ذاته. لكن الناس سيؤخذون بتلك الألعاب الجديدة ويستعملون في حياتهم اليومية من تفكير متأمل بها. بالنسبة إلى الشخص العادي، تبدو هواتفهم الخليوية كأنها من صنع ساحرات، بسبب كل المعرفة التي تأتي عبرها. كم مرة نقرنا على رابط إلكتروني على نتائج البحث في "غوغل"، واعتبرنا ذلك النتيجة "الأفضل" التي نحن بحاجة إليها؟ كم مرة اشتريتَ شيئاً ما من موقع "أمازون" لأن المساعد الرقمي "سيري" Siri أوصى بها لك؟     

استطراداً، يتشوق الناس بشدة إلى إيكال أقسام كبيرة من حيواتهم إلى الذكاء الاصطناعي من دون أن يعرفوا فعلياً إذا كان على مستوى يؤهله لتولي أمر تلك المهمات. بالطبع، لم يزد الأمر على عرض لفتية بائسين (للإنصاف، إذا دفعت 35 جنيهاً استرلينياً ليوم من الغموض في مخزن مريب، فأنت سبب ذلك). في المقابل، هل يبعد ذلك الاستعراض بمليون ميل عما ترغب هوليوود في فعله بالممثلين والنصوص التي يكتبها الذكاء الاصطناعي؟ [إشارة إلى الإضراب النادر الذي خاضه كتاب السيناريو والممثلون في هوليوود احتجاجاً على ميل شركات الأفلام للاتكال على الذكاء الاصطناعي ونصوصه، على حساب حصة الكاتب والممثل].

لقد أعلن المخرج السينمائي الأميركي تايلور بيري، أخيراً، أنه أوقف ميزانية 880 مليون دولار خصصت لتوسيع الاستوديو الخاص به، لأنه يعتقد أن الأداة الجديدة التي صنعتها شركة "أوبن آي أي" لتوليد أشرطة الفيديو، باستطاعتها أن توفر عليه دفع ذلك المبلغ. أليس ذلك هو الذكاء الاصطناعي نفسه الذي يظن أن جورج واشنطن امرأة صينية؟ تذكر ذلك يا سيد بيري، وحظاً سعيداً.

ربما يجسد الذكاء الاصطناعي القفزة التكنولوجية المقبلة الكبرى إلى الأمام، سواء أحببنا ذلك أم لا. في المقابل، علينا توخي الحذر قبل الوصول إلى تلك النقطة، بألا نُسَلم أنفسنا لتلك التقنية كلياً حتى قبل أن تغدو جاهزة.  

© The Independent

المزيد من علوم