Sorry, you need to enable JavaScript to visit this website.

الذكاء الاصطناعي التوليدي منفلت من التحكم السيبراني

قمة أممية في جنيف تتناوله وتجمع الروبوت صوفيا وخبير معلوماتية قلق

العلاقة القلقة بين البشر والذكاء الاصطناعي التوليدي حاضرة في قلب نقاشات القمة العالمية عن الذكاء الاصطناعي للصالح العام (بنريست)

ملخص

يحضر الذكاء الاصطناعي التوليدي في قلب اهتمامات القمة العالمية عن الذكاء الاصطناعي لأجل الصالح العام التي تستضيفها جنيف.

في "القمة العالمية عن الذكاء الاصطناعي للصالح العام" AI for Good Global Summit (جنيف، 6 و7 يوليو/ تموز 2023)، يبرز وجهان ضمن الحشد العالمي الذي حضر القمة. وضمت صفوف ذلك الحشد خبراء في المعلوماتية والاتصالات المتطورة، بما في ذلك الذكاء الاصطناعي التوليدي، وسياسيين ومشرعين وإعلاميين ومستثمرين في التكنولوجيا وغيرهم. ولعلها القمة الأممية الرسمية الأولى التي تسجل حضور الروبوت ضمن قائمة الحضور، كأن تلك الآلات قد غدت كيانات فعلية. وضمن شريط إعلامي قصير، تبرز الروبوت الأنثى صوفيا ضمن المتحدثين في المؤتمر، بل أنها تظهر أثناء صور للإعلام العام في افتتاح القمة، كأي مدعو آخر. ويظهر ذلك الشريط على صدر الصفحة المخصصة لتلك القمة الأممية ضمن الموقع الإلكتروني لـ"الاتحاد الدولي للاتصالات"International Telecommunication Union، اختصاراً "آي تي يو" ITU.

واستكمالاً، يظهر في قائمة كبار المتحدثين في القمة، وجه البروفيسور في بحوث الكمبيوتر ستيوارت راسل، مؤلف الكتاب المرجعي "الذكاء الاصطناعي، نهج حديث"Artificial Intelligence: A Modern Approach  (1995) المستخدم في أكثر من 1500 جامعة حول العالم. وفي سياق مغاير ومتصل، عُرف عن راسل موقفه الإيجابي النقدي العميق حيال الذكاء الاصطناعي والمخاطر المرتبطة به وكيفية العمل على وضع ذكاء الآلات في خدمة حضارة البشر. وباختصار، يرى راسل أن غياب عنصر التحكّم في النظم الذكية، بمعنى الضبط الذاتي لعمليات التشغيل والتوقف، وهي أساس التحكم السيبراني، يشكّل المسألة الأساس في الذكاء الاصطناعي، والمصدر الرئيس لكل المخاطر المرتبطة به. وسيصار إلى شرح ذلك بعد سطور قليلة.

والمفارقة، أن قائمة الصور نفسها تضم الروبوت الأنثى المعروفة صوفيا. ويربط بين وجهي البروفيسور القلِق والروبوت الأنثى، خيط انفلات الذكاء الاصطناعي من ضوابط كافية لجعله دوماً تحت سيطرة البشر وأن يعمل دوماً لمصلحتهم.


تذكّر عن تهديد الروبوت بتدمير البشرية

توضيحاً، يصعب عدم تذكر موجة الخوف الضخمة التي رافقت إطلاق صوفيا.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

ففي أول مؤتمر صحافي قدمها للبشر، ارتكبت صوفيا خطأ ضخماً ترددت أصداه في أرجاء العالم بسرعة البرق. حدث ذلك عام 2015، حينما قدمت شركة "هانسون روبوتيكس" روبوت أنثى بوجه يحمل ملامح الأيقونة الهوليوودية الراحلة أودري هيبورن. ووفق نقل مباشر على تلفزيون "سي أن بي سي"، مازح هانسون صنيعته الروبوت صوفيا بسؤالها "هل تريدين تدمير البشر"، ثم تمتم "أرجوك، قولي لا"، لكنها أجابت، "حسناً. سأدمّر البشر"  OK. I’ll destroy humans. ولربما تذكر تلك العبارة ذات يوم باعتبارها حجر علامة في مسار العلاقة المتشابكة بين الإنسان والروبوت. وتدارك صانعوها الأمر فوراً. ولم يخفف ذلك من وقع المفاجأة التي حملتها كلماتها بالنظر إلى عدوانيتها الشديدة، بالإضافة إلى أنها سجّلت مخالفة أولى لقواعد في صناعة الروبوتات نُظِر إليها طويلاً أنها تحمي البشر من انقلاب تلك الآلات ضدهم.

وتذكيراً، وضعت تلك القواعد على يد كاتب الخيال العلمي الذائع الصيت إسحاق عظيموف في عام 1942. توفي الكاتب الأميركي عظيموف في 1992 عن عمر 72 سنة. واشتهر بوضع ثلاثة مبادئ لصناعة الإنسان الآلي، تنص على أن أ) يحمي الروبوت البشر ولا يؤذيهم بأي شكل كان، ب) يطيع الإنسان الآلي البشر في كل شيء إلا ما يتعارض مع المبدأ الأول، ت) يحمي الروبوت نفسه بكل وسيلة إلا إذا تعارضت مع المبدأين السابقين.

وبعد حادثة عام 2015، تدارك صُنّاع صوفيا الخلل في تركيبة برامج الذكاء الاصطناعي التي تديرها، وتحسن أداؤها، بل أُشرِكَتْ في نشاطات عالمية كثيرة تحذر من ظاهرة "الروبوتات القاتلة" Killer Robot وأمديتها المقلقة.

وبالعودة إلى مؤتمر "هانسون روبوتيكس" في عام 2015، اعتبر بعض متابعي التطور المعلوماتي أن خروج الروبوت الأنثى عن تلك قواعد علمية راسخة في ضبطها، قدَّمَ دليلاً مباشراً على عدم كفاية القواعد التي تضبط أعمال الذكاء الاصطناعي وأدواته وأجهزته. لماذا لم تحتوِ الخوارزميات الرياضية التي تسيِّر الذكاء الاصطناعي في صوفيا، على ما يمكنها من عدم الوقوع في ذلك الخطأ، أو تداركه في حال وقوعه؟

الأرجح أن التفكير في ذلك يفضي إلى أشياء عدة من بينها التفكير في مُعطىً مألوف بشأن التحكّم في النُظُم الآلية المؤتمتة، يتمثل بما يسمى "التغذية الراجعة" Feedback . قبل التوسع في الأمر، تُسمّى النُظُم الآلية بالمؤتمتة Automated حينما تحتوي على منظومة تحكّم تمكنها من العمل والتوقف من دون تدخل مباشر من البشر الذين يمكنهم أيضاً التدخل فيها. ويتصل ذلك الملمح بمعنى السيبرانية في تلك النُظُم، مع استدراك واجب بأن السيبرانية لا تقتصر على الآلات والأدوات، وفق ما سيصار إلى شرحه في سطور لاحقة.

 وفي أواخر خريف عام 2022، ثارت تلك الضجة الكبرى عن الذكاء الاصطناعي التوليدي ومخاطره، برز رأي متميّز ومتعمق للبروفيسور راسل. وفي كتاب له صدر أخيراً، "ذكاء اصطناعي متوافق مع البشر"Human Compatible AI ، وضع راسل أطروحته في شكل ثلاثة "مبادئ للآلات النافعة" أي التي يتوقع مطوروها منها أن تحقّق "أهدافنا" وليس "أهدافها".

ووفق راسل، يتوجّب أن يستند الذكاء الاصطناعي في الروبوتات إلى ثلاثة مبادئ جديدة، هي أ) أن يتمثل الهدف الوحيد للآلة هو التحقيق الأمثل لتفضيلات يصوغها البشر وفق حاجاتهم، ب) يجب أن تكون الآلة في الأساس غير مُتيقِّنة من ماهية تلك التفضيلات كي تستمر العلاقة التفاعلية وتتجدد، بين الطرفين، ت) يجب أن يكون المصدر الأساسي للمعلومات التي يُزوّد بها الذكاء الاصطناعي السلوك البشري.

في كتابه، "ذكاء اصطناعي متوافق مع البشر"، يرى راسل أن مشكلة إيقاف التشغيل تمثل "جوهر مشكلة التحكم في النظم الذكية. إذا لم نتمكن من إطفاء أي آلة لأنها ستمنعنا، فنحن في مأزق حقاً. وإذا استطعنا، ربما أمكننا أيضاً أن نتحكم فيها بطرق أخرى أيضاً".

الذكاء السيبراني كأفق لذكاء الآلات

لا يقتصر التشديد على أهمية التحكم في النظم الذكية على البروفيسور راسل. فقد ظهر تشديد عليها في مقال شهير نشره بيل غيتس، المؤسس الأسطوري لشركة مايكروسوفت، في مارس (آذار) 2023.

[قدم موقع "اندبندنت عربية" ذلك المقال تحت عنوان "بيل غيتس يرى الذكاء الاصطناعي كخطر متطور يتجاوز البشر"].

وعلى النحو نفسه، قدَّم البروفيسور الفيلسوف وعالم الكمبيوتر السويدي في "جامعة أكسفورد" نيك بوستروم، تأملات كلاسيكية حول الخطر الذي قد ينطوي عليه ذلك الذكاء. وقد تخيّل ذلك الأستاذ الجامعي روبوتاً فائق الذكاء، برمجه مطوروه بهدف يبدو في ظاهره غير مؤذ، ألا وهو تصنيع مشابك الورق. وفي النهاية، يحول الروبوت العالم بأسره إلى مصنع عملاق لمشابك الورق! وغدت تلك الصورة شائعة في الكتابات عن مخاطر الذكاء الاصطناعي، واستخدمها البروفيسور راسل في شرح بعض أفكاره عن مشكلة التحكّم في نظم ذكاء الآلات.

 

وإذا شكّل التحكم السيبراني بالذكاء الاصطناعي إحدى المشكلات العميقة فيه، فما المقصود بذلك؟

بالاسترجاع، تبلورت علوم السيبرانية Cybernetics مع العمل المرجعي للعالم نوربرت فاينر "السيبرانية أو التحكّم والتواصل في الحيوان والآلات" Cybernetics or Control & Communication in the Animal & Machine (1948). وقد درس فاينر الظاهرة السيبرانية في البيولوجيا، ورأى أنها قابلة للتطبيق الواسع على الآلات.

ثمة مثل مبسط عن ذلك. أنت تأكل. تفرز هرمونات من الأمعاء تتضافر مع مؤشرات عن مستوى السكر في الدم، فيؤشران على أنك تناولت ما تكفي. تتحرك في الدماغ منطقة لتعطي إشارات تفيد أنك نلت كفايتك. تحس بالشبع وتتوقف عن الأكل. حينما ينخفض مستوى السكر وهرمونات الشبع في الدم، تصل إشارات عن ذلك إلى الدماغ، فتتحرك منطقة معينة فيه، وترسل إشارات محددة، فتحس إنك جائع وتسعى إلى الأكل. يحصل ذلك التحكم السيبراني كي يلبي هدفاً معيناً هو الحصول على الطعام لضمان الاستمرار في البقاء عبر ضمان استمرار إمداد دواخل الجسم بالطاقة التي يحملها السكر، إضافة إلى أشياء أخرى.

تسمّى عملية تبادل الإشارات بين الدماغ، مركز التحكم، وبين أطراف بقية المنظومة المتصلة بالأكل والجوع والشبع والحفاظ على استقرار إمدادات الطاقة، بأنها نظام سيبراني يعتمد على مبدأ "التغذية الراجعة" Feedback بين المركز وأطراف المنظومة التي تؤدي عملاً معيناً.

وعبر أعمال فاينر وغيره، خصوصاً العالم والروائي صامويل بوتلر في كتاب "آلات منتصرة" Erhowen، ارتسمت صورة نظام التحكم السيبراني بوصفه يعتمد على ثلاثة أذرع تتمثل في أ) النموذج وهو المنظومة المتشابكة التي تتخصص في أداء وظيفة محددة أو عمل معين. ويستخدم تعبير النموذج في الذكاء الاصطناعي كثيراً. ومثلاً، يوصف "تشات جي بي تي" بأنه نموذج للذكاء الاصطناعي التوليدي يؤدي وظيفة التحادث بلغة البشر، ب) الاستناد إلى مؤشرات ثابتة. في الذكاء الاصطناعي قد يتمثل ذلك بما يدعو إليه راسل وآخرين من ضرورة وضع مؤشرات توضح للبشر والآلات كيفية سير الآلات الذكية ومدى انضباط أدائها ومأمونيته، ت) ربط أداء النموذج بالأهداف التي يجب أن تنصاع لها أداء النموذج وأعماله بصورة دائمة، مع إمكانية دائمة لتدخل البشر المباشر فيه، خصوصاً لوقف تشغيله وإعادة ضبطه ووضعه تحت السيطرة.

لقد توسع البروفيسور راسل في الأعمال عن الذراع الثالثة، لأنه يشدد على ضرورة إيجاد طرق تقنية للتحكم المستمر بنماذج الذكاء الاصطناعي، مهما تطوّرت.

وعند هذه النقطة، يغدو من المستطاع طرح سؤال عن إمكانية أن يكون الذكاء الاصطناعي السيبراني هو الأفق المقبل لتطور ذكاء الآلات، وبالتالي لضمان استمرار وضعه في خدمة حضارة البشر، وعدم انفلاته، بحسب ما أظهرت تهديدات كلامية سابقة من صوفيا، ليغدو عنصر دمار شامل للحضارة.

ذكاء اصطناعي متطور وسيبراني؟ لننتظر ما سيكون رأي "القمة العالمية للذكاء الاصطناعي من أجل الصالح العام".

المزيد من علوم