هكذا كانت حرب غزة نموذجا لتضليل الذكاء الاصطناعي
مارينا فيكتور مصر 2030شكلت حرب غزة بين الاحتلال الإسرائيلي وحركة حماس، بالتأثير والتلاعب بالرأي العام، أحدث ميادين الاختبار للدور الذي تلعبه الأخبار الزائفة وحملات التضليل في تشكيل الروايات بشأن أحداث الحرب، والمآسي الناجمة عنها، فضلاً عن التلاعب بانطباعات المتابعين وعواطفهم.
ويشكل هذا تحديا أساسيا اليوم بالأخص، مع تقدم برمجيات الذكاء الاصطناعي.
وكان قد سبق ورُصد دور تلك التقنيات في تزييف الواقع وبث المعلومات المضللة خلال أزمات سابقة شهدها العالم، كزلازل تركيا والمغرب وكارثة ليبيا فضلاً عن الحرب الروسية على أوكرانيا.
وتشهد الحرب بين إسرائيل وحماس اليوم، التجلي الأبرز والأحدث، والاستثمار الأوسع لتقنيات الذكاء الاصطناعي في وسائل التواصل الاجتماعي، ومحاولة التأثير على الرأي العام.
ويضع هذا الواقع العالم الآن وجها لوجه مع تحقق أبرز المخاوف التي طالما أحاطت باستخدام الذكاء الاصطناعي، من ناحية قدرته على تزييف الواقع، ومدى الإقناع الذي قد يتمتع به، وتالياً مدى التأثير، وهو ما بلغ مؤخرا مرحلة جعلت العاملين في مجال تدقيق المعلومات ومحاربة الأخبار المضللة في حالة من العجز والتخبط، في مجاراة سوء استخدام الذكاء الاصطناعي في التضليل.
"أكبر مما يمكن توقعه"
واجتاحت مئات الصور والقصص والأخبار والمعلومات المزيفة، على مدى شهرين من الحرب مواقع التواصل الاجتماعي، واكتسبت انتشارا عالميا مرتبطا بالمتابعة الواسعة لمجريات النزاع الذي اندلع في السابع من أكتوبر، عقب هجوم حماس على إسرائيل.
وكان أمرا متوقعا، بالنسبة لمدققي المعلومات، الذين اعتادوا على ازدياد منسوب الأخبار الزائفة وحملات التضليل في أوقات الأزمات والحروب، حيث يتسنى لها عبور أسهل في زحمة الأخبار وكثافة المعلومات.
وكانت هذه الإساءة في استخدام تقنيات وأدوات الذكاء الاصطناعي متوقعة منذ إنشائها، بحسب ما تؤكد مديرة مشروع "الشبكة العربية لمدققي المعلومات" (AFCN)، سجى مرتضى، "لكن أحداً لم يكن يتخيل أن تصل الأمور إلى هذا الحد".
وتضيف في حديث صحفي أن "الحرب في غزة جاءت لتبين هذا الأمر بشكل أوضح، وتثبت أن الآثار السلبية للذكاء الاصطناعي بما يخص انتشار المعلومات الخاطئة والمضللة، يمكن أن تكون أكبر مما يمكن توقعه".
وأدى تطور أدوات الذكاء الاصطناعي المخصصة لإنتاج الصور والفيديوهات، إلى جعلها أقرب في كل مرة من الحقيقة، وصعّب من عملية كشفها أو تبيان مصدرها.
يأتي ذلك في وقت يفتقد مدققو المعلومات، لاسيما في الدول العربية، إلى البرامج والأدوات التي يمكن استخدامها عبر الإنترنت للتبين من حقيقة الصور المنتشرة ومصدرها.
ويواجه المدققون حالة من التخبط في الاعتماد الموثوق على التقنيات والمعايير المستخدمة والمتوفرة حاليا لكشف التزييف، مما يزيد من مسؤولياتهم وحجم عملهم وصعوبة مهمتهم، خاصة أن تقنيات التزييف المعتمدة تتجه لتكون "أكثر إقناعا يوما بعد يوم".
منظومة متكاملة.. تصعُب مجاراتها
وفي ظل التدفق الهائل للأخبار والمعلومات الزائفة في سياق الحرب، أصبحت عملية التحقق والتدقيق اليدوية أو البشرية خصوصاً معوّقة بصورة كبيرة، ولا تتناسب مع حجم المواد المنتشرة.
فمهما بلغ حجم التدقيق والمدققين والعاملين في هذا المجال، لا يزال الذكاء الاصطناعي، وفق حدشيتي، قادراً على الإنتاج بغزارة تفوق القدرات البشرية على التدقيق.
ويزداد الأمر صعوبة نتيجة عدم اقتصار دور الذكاء الاصطناعي على توليد المحتوى، بل يمتد إلى ترويجه ونشره على نطاق واسع وبشكل تلقائي على مواقع التواصل، عبر أدوت أخرى (بوتات) تشكل بدورها أداة من أدوات الذكاء الاصطناعي.
وبذلك يكون الذكاء الاصطناعي اليوم قادراً على إنتاج قصة مكتوبة، مع صور ومقاطع مناسبة ومرتبطة تعزز الثقة بالقصة، ثم يتولى نشرها والترويج لها، مما يحوله بحسب حدشيتي إلى "منظومة إعلامية كاملة وقائمة بحد ذاتها، يمكن أن تشن حملة تزييف وتضليل بمجرد تلقيها طلباً بذلك، وبالتالي تصبح عملية التزييف آلية بصورة كاملة".
وبالنسبة للمتابع العادي، فإنه من الصعب عليه أن يتأكد من الأخبار المزيفة بواسطة الذكاء الاصطناعي، لاسيما مع عدم توفر الثقافة الكافية والوعي الإعلامي والتقني لدى شريحة واسعة من الجمهور للتعامل مع ذلك المحتوى، مما يعرضهم بصورة أوسع للانخداع والتضليل.
ورغم تواجد العديد من المواقع التي توفر أدوات التأكد من مصدر الصور وإذا ما كانت مولدة بالذكاء الاصطناعي من عدمه، إلا أن ضعف تلك التقنيات يجعل من الصعب الاعتماد عليها أو نصح الناس باللجوء إليها كمصدر حاسم، بحسب حدشيتي، الذي يؤكد أنه ما عادت هناك نصائح محددة يمكن تقديمها للمتابعين كثوابت وخطوات للتحقق الأكيد.
وتنقسم الأخبار الزائفة إلى نوعان، الأول يسمى "معلومات مضللة" ( Disinformation)، وهي إنشاء أو مشاركة معلومات خاطئة بشكل متعمد من أجل التضليل، والثاني "معلومات خاطئة" (Misinformation) والتي تنطوي على مشاركة معلومات أو تقارير من دون معرفة أنها خاطئة.
وخلص الخبراء إلى أنه "لا توجد آلية واضحة من شأنها إلغاء التهديدات التي أوجدتها" روبوتات الذكاء الاصطناعي التوليدي.