ملخص
وزير التكنولوجيا والاقتصاد الرقمي البريطاني حض على عدم التغاضي عن منافع الذكاء الاصطناعي ففي مقدوره أن يخلق "عالما بائسا أو فاضلا"
قال وزير في الحكومة إن الذكاء الاصطناعي يمكن أن يخلق "عالماً بائساً" [ديستوبيا خلاف اليوتوبيا] إذا لم تجر التطورات في التكنولوجيا على نحو صحيح، لكن لا ينبغي التغاضي عن منفعتها.
وحض وزير التكنولوجيا والاقتصاد الرقمي بول سكالي في مؤتمر قيادة سياسات التكنولوجيا الذي نظمته هيئة التكنولوجيا البريطانية، الثلاثاء، على عدم التركيز فقط على "سيناريو يشبه أفلام (المدمر)".
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
وفي وقت سابق من هذا العام، أسهم السيد سكالي في الورقة الحكومية البيضاء التي تناولت سبل توجيه الابتكار في مجال الذكاء الاصطناعي مع الحفاظ على ثقة الجمهور في التكنولوجيا. وقال للحاضرين "إذا أخطأنا في هذا المجال هناك وجهة نظر بائسة يمكننا اتباعها هنا. وهناك أيضاً وجهة نظر فاضلة. كلاهما ممكنتان. إذا كنتم تتحدثون فقط عن نهاية البشرية بسبب سيناريو مارق يشبه أفلام (المدمر) فستفوتون الخير كله الذي يعمل به الذكاء الاصطناعي بالفعل – كيف يرسم خرائط البروتينات لمساعدتنا في البحوث الطبية؟ وكيف يساعدنا في مكافحة تغير المناخ؟ المقصود تلك الأشياء كلها التي يقوم بها بالفعل، ولن يفعل سوى تحسين القيام بها".
"علينا أن نتخذ متنفساً للتأكد من أننا نصيب في هذا الأمر لصالح المجتمع بأكمله، وكذلك منفعة القطاع".
وقال السيد سكالي إن كثيراً من المبادئ المنصوص عليها في الورقة البيضاء عن إدارة الذكاء الاصطناعي "يجب تطبيقها على المستوى الدولي". وأضاف "إذا قيمنا البلدان التي تعمل على الذكاء الاصطناعي، من المحتمل أن نحل في المركز الثالث تقريباً في العالم، لذلك لدينا بالفعل صدقية جيدة.
"نريد أن نتأكد من أن الشركات يمكن أن تشعر بأن في مقدورها أن تكبر وتتوسع وتبقى في المملكة المتحدة، وتملك فرصاً متكافئة في هذا العصر الرقمي".
تأتي تعليقات السيد سكالي بعد أن قال مستشار لريشي سوناك إن الذكاء الاصطناعي يمكن أن يؤدي إلى تقدم في التكنولوجيا "يقتل العديد من البشر" في وقت لاحق.
ويعمل المستشار، مات كليفورد، مع الحكومة في فريق العمل النموذجي التأسيسي، الذي يبحث في برامج مثل "تشات جي بي تي" و"غوغل بارد".
ودعا يوم الإثنين الماضي إلى تنظيم على نطاق عالمي لأولئك الذين يعملون على الذكاء الاصطناعي لضمان عدم فقدان السيطرة على الأنظمة.
وقال السيد كليفورد لـ"توك تي في"، "أعتقد بوجود كثير من الأنواع المختلفة من المخاطر مع الذكاء الاصطناعي، وكثيراً ما نتحدث في هذا القطاع عن المخاطر في الأجلين القريب والبعيد، والمخاطر في الأجل القريب هي في الواقع مخيفة جداً.
"يمكن استخدام الذكاء الاصطناعي اليوم لوضع وصفات جديدة للأسلحة البيولوجية أو لشن هجمات سيبرانية واسعة النطاق. هذه أمور سيئة".
والشهر الماضي، حذر العشرات من الخبراء، بمن فيهم كبار المديرين في شركات مثل "غوغل" و"ديب مايند" و"أنثروببيك"، من أن الذكاء الاصطناعي يمكن أن يؤدي إلى "انقراض البشرية".
ويقول السيد كليفورد منذ ذلك الحين إن العناوين التي تستند إلى المقابلة التي أجرتها معه "توك تي في" لا تعكس وجهات نظره.
وقال في تغريدة "إن المخاطر القريبة والبعيدة الأجل المحيطة بالذكاء الاصطناعي حقيقية ومن الصواب التفكير بجدية (كذا) على نحو عاجل في التخفيف منها، لكن ثمة مجموعة واسعة من وجهات النظر وكثير من الفوارق الدقيقة هنا التي من المهم التمكن من الإبلاغ عنها".
وقال ناطق باسم ريشي سوناك إن الحكومة "ليست راضية عن مخاطر الذكاء الاصطناعي"، لكنه "يوفر فرصاً كبيرة لشعب المملكة المتحدة"، لكن وزيرة الثقافة في حكومة الظل لوسي باول انتقدت الورقة الحكومية البيضاء التي تتناول الذكاء الاصطناعي باعتبارها "مخيبة للآمال"، ورفضت اتباع نهج "متحفظ ومستند إلى عدم التدخل" في التكنولوجيا باعتباره نهجاً غير حكيم.
وقالت "أعتقد أن فرصة كبيرة ضاعت، فبدلاً من مجرد إعطاء وظائف متباينة... إلى مجموعة كبيرة من المنظمين، كان يجب تنسيق الأمر حقاً على نحو صحيح بصورة أكثر مركزية وتوفير مزيد من القيادة والمشورة".
وفي المناسبة نفسها، قالت السيدة باول إن حزب العمال سيستهدف جعل التكنولوجيا تعمل "لصالح الكثير وليس لصالح القلة"، وسيختار استراتيجية "نشطة وتدخلية" تحاول ضمان تقاسم المنافع وتخفيف المخاطر.
وعندما سئلت عن مقترحاتها لإصدار رخص لمطوري الذكاء الاصطناعي، والتي وردت للمرة الأولى في "الغارديان"، قالت "أنا أفهم المخاوف من أن يؤدي ذلك بطريقة ما إلى منع أطراف فاعلة جديدة من الوصول إلى النظام وأن يؤدي إلى مزيد من التجميع لاحتكارات شركات التكنولوجيا الكبرى"، لكن الوزيرة في حكومة الظل قالت إن حزب العمال سيحذر من هذا وجادلت بأن "اليقين" في شأن الإطار التنظيمي سيساعد على تشجيع الابتكارات من قبل الشركات الصغيرة.