Sorry, you need to enable JavaScript to visit this website.

هل سيصبح كشف التزييف العميق ممكنا يوما ما؟

محاولات عدة لم تثبت فاعليتها و"سي تو بي أي" معيار فني مطور

أصبح التحدي اليوم في استنباط أداة فعالة لمنع استخدام الذكاء الاصطناعي في التزييف (أن سبلاش)

ملخص

طلبت المفوضية الأوروبية من شركات التكنولوجيا الكبرى أن تبدأ في تصنيف المحتوى المنشأ بواسطة الذكاء الاصطناعي بوضوح، فما الأدوات المطروحة في هذا الخصوص؟

ما زالت التحذيرات تتوالى في ظل طفرة الذكاء الاصطناعي التوليدي التي تتمثل في شكل أساس بإتاحة الأدوات اللازمة لإنشاء صور ومقاطع فيديو وكميات هائلة من النصوص التي تبدو بمجملها مقنعة للغاية، وما يرافقها من ظواهر لم تكن منتشرة على نطاق واسع من قبل، فاليوم مجرد وجود محتوى اصطناعي يمكن أن يزرع الشك حول صحة أي صورة أو فيديو أو جزء من نص.

ومن المؤكد أن هذا الشك سيزداد تدريجاً مع ازدياد كمية هذا المحتوى وتطور نماذجه، إضافة إلى استغلال البعض لهذه الموجات من الشك كأن يتقصد أحد المتهمين بقضية مدعومة بوثائق رقمية بإثارة الشك في قلوب الناس حول صحة الادعاءات الموجهة ضده على رغم حقيقتها، ورمي الأمر بكامله على الذكاء الاصطناعي وألاعيبه، وهذا ما حدث فعلاً في مناطق عدة حول العالم في أحداث سياسية واقتصادية واجتماعية مختلفة.

انطلاقاً من هنا دقت قطاعات عدة ناقوس الخطر في شأن النصوص والأعمال الفنية التي تم إنشاؤها بواسطة الذكاء الاصطناعي، بخاصة قطاع التعليم الذي تخوف رعاته من اعتماد الطلاب بشكل كامل على "تشات جي بي تي" في كتابة واجباتهم المدرسية.

وأصبحت مع الوقت المعلومات المولدة عبر الذكاء الاصطناعي مصدر قلق حقيقياً، بعد أن أظهرت دراسات عدة أن النصوص الاصطناعية تبدو أكثر إقناعاً من تلك المكتوبة من قبل البشر، والحقيقة أن لا أحد، حتى الشركة التي ساعدت في إطلاقه، لديه إجابات حول كيفية التعامل مع كل ما يحدث.

تحديد المحتوى الاصطناعي

على رغم كل ذلك لم تتوصل الحكومات بعد إلى كيفية واضحة وفعالة لكبح جماح الذكاء الاصطناعي، وما زال الأمر منوطاً بالمجموعات والمنظمات الفردية لوضع قواعدها وسياسة تعاملها وتطوير تدابير الحماية الخاصة بها، إذ في محاولة للقضاء على المعلومات المضللة عبر الإنترنت، طلبت المفوضية الأوروبية من شركات التكنولوجيا الكبرى مثل "غوغل و"فيسبوك" و"تيك توك" أن تبدأ في تصنيف المحتوى المنشأ بواسطة الذكاء الاصطناعي بوضوح بدلاً من انتظار دخول القوانين حيز التنفيذ، للتسهيل على الناس التمييز بين الحقائق والخيال.

وبهذا سيتعين على المنصات ومحركات البحث الكبيرة تحديد المحتوى الذي تم إنشاؤها أو التلاعب به، والمعروفة باسم "التزييف العميق"، بموجب قانون الخدمات الرقمية (DSA) أو مواجهة غرامات كبيرة، وبذلك أصبح التحدي اليوم في القدرة على استنباط أداة فاعلة لمنع استخدام الذكاء الاصطناعي في الاحتيال والتزييف، تشمل تطوير آليات تقنية قوية للتأكد من كشف المحتوى بشكل دقيق، بخاصة أنه لم تثبت أية تقنية طرحت نجاعتها حتى اللحظة.

محاولات

في حين يتم تداول تقنية "العلامة المائية" واستخدامها على نطاق واسع من قبل وكالات الأنباء والشركات المتخصصة بإنتاج الصور (لمنع استخدام صورها من دون إذن)، إلا أن ما نشهده اليوم من تنوع في المحتوى الذي يمكن للذكاء الاصطناعي إنتاجه بوجود عديد من النماذج يجعل الأمور أكثر تعقيداً، بخاصة بعد أن أكد عديد من المتخصصين أن هناك طرقاً عدة يمكن من خلالها تجاوز العلامات المائية، كما أنه من الممكن أن يكون بعضها غير فعال عند إجراء تعديلات على المحتوى نفسه مثل تغيير حجم الصورة مثلاً.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وعلاوة على ذلك، قامت "أوبن أي" في وقت فائت من يوليو (تموز) الماضي بإيقاف أداة كان من المفترض أن تكشف النص المكتوب بواسطة الذكاء الاصطناعي بسبب دقتها المنخفضة، بعد أن اعترفت بأن المصنف لم يكن جيداً كفاية في التقاط النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وحذرت من أنه يمكن أن ينشر نتائج إيجابية كاذبة، لكنها أعلنت أنها تخطط لتطوير ونشر تقنيات تمكن المستخدمين من معرفة ما إذا كان المحتوى الصوتي أو المرئي تم إنشاؤه بواسطة الذكاء الاصطناعي.

معيار فني مطور

من التقنيات التي طرحت نفسها مجدداً اليوم مشروع تم إطلاقه قبل عامين عبر تحالف بين "أدوبي" و"مايكروسوفت" و"إنتل" و"آرم" و"تروبك"، وانضمت إليه لاحقاً شركات أخرى منها هيئة الإذاعة البريطانية (بي بي سي) و"نيكون" و"سوني"، وسمي "التحالف من أجل مصدر المحتوى وأصالته" Coalition for Content Provenance and Authenticity واختصاره (C2PA)، وهو عبارة عن معيار فني مطور يقوم بالتصديق على مصدر وتاريخ الوسائط المنتجة رقمياً ليوفر للناشرين والمبدعين والمستهلكين القدرة على تتبع مصدر أنواع مختلفة من الوسائط.

وكان "سي تو بي أي" قد عقد في يناير (كانون الثاني) عام 2022 حدثاً ناقش فيه صناع السياسات والأكاديميون ورواد الصناعة مستقبل إنشاء الوسائط الرقمية الموثوقة ونشرها ومشاركتها، وبحسب ميثاقه سيقوم التحالف بحل مشكلة تتبع مصدر الوسائط وتطوير مواصفات فنية لتحديد مصدر المحتوى وأصالته ومعالجة مخاوف الخصوصية والبيانات الخاصة بالمبدعين والناشرين والمستهلكين، والتأكد من عدم تأثر إمكانية الوصول إلى المحتوى سلباً بتقنيات المصدر الرقمي، عبر تقديم معلومات عن المصدر ومعالجتها طوال دورة حياة المنتج الرقمي، من لحظة إنشائه حتى نشره وتقديمه للمستهلكين.

قصة حياة صورة

هذا ما تم توضيحه في فيديو نشره التحالف على موقعه، وسرد قصة حياة صورة بدءاً من لحظة التقاطها بكاميرا تدعم تشغيل تطبيق "سي تو بي أي"، لتبدأ عملية تسجيل جميع معلومات مصدر الصورة وربطها جنباً إلى جنب مع صورة تحتوي على توقيع مشفر، ثم لتصل الصورة إلى أحد المحررين ويجري بعض التعديلات الطفيفة عليها قبل نشرها على الإنترنت، وهنا تضاف معلومات جديدة تضاف إلى السلسلة السابقة، وبعدها يستطيع أي شخص يقوم بتنزيل الصورة من معرفة كافة المعلومات المتعلقة بمصدرها وتعديلاتها وفحص كل جزء من رحلتها، عبر الضغط على أيقونة المعلومات الموجودة دائماً في أعلى الزاوية اليسرى للصورة، وفي حال إجراء تعديلات على الصورة في نظام غير مدعوم من قبل "سي تو بي أي" سيتم إخطاره في بيانات اعتماد المحتوى برسالة مفقودة أو غير مكتملة، كما يمكن للمشاهد في أي وقت إجراء مقارنة بين الصورة الأصل والصورة في وضعها الحالي.

المزيد من علوم