السبت - 25 سبتمبر 2021
السبت - 25 سبتمبر 2021
No Image Info

كيف فشلت مواقع التواصل في اختبار «مجزرة نيوزيلندا»؟

الصدمة الهائلة التى أصابت العالم من العملية الإرهابية في نيوزيلندا لم تأت من العدد الكبير للضحايا والمصابين، ولا من كونها تمثل صعود اليمين «الأبيض» المتطرف فقط، ولكن أيضاً من طريقة التنفيذ التي تمت على الهواء مباشرة وفي بث حي قام به القاتل عبر شبكة فيسبوك، الأمر الذي ترك الشبكات الاجتماعية في حالة فوضى كاملة وهي تحاول منع الفيديو المفزع من الانتشار.

محتوى هذه التجربة الرهيبة يفتح من جديد باب الأسئلة حول الإجراءات والسياسات التي تتخذها شبكات التواصل في حماية المستخدمين من التعرض للمحتوى العنيف، أو نشر رسائل الكراهية على نطاق واسع، وفيديو الإرهابي الذي بلغت مدة بثه 17 دقيقة كاملة تم حذفه من موقع فيسبوك، ولكن لم يحدث ذلك قبل أن يشاهده الآلاف ويقوموا بتحميله، ليظهر من جديد على العديد من المنصات الأخرى مثل يوتيوب وتوتير، بل ويعود إلى فيسبوك مرة أخرى.

وعلى الرغم من العديد من الجهود التي بذلتها الشركات لحذف هذا الفيديو، إلا أنه ظل لساعات طويلة يظهر من جديد، خصوصاً مع قيام بعض المستخدمين بإجراء تعديلات على الفيديو الأصلي لتتجاوز النسخ الجديدة أسوار الرقابة وتظهر للمزيد من المستخدمين، لتثبت تلك التجربة بالدليل العملي معاناة الشبكات الاجتماعية في مواجهة المحتوى العنيف.

وبشكل عام تمتلك الشبكات الاجتماعية وسيلتين أساسيتين لمراجعة المحتوى الذي يتم بثه عبر المنصات التابعة لها، الأولى هي تكنولوجيا التعرف إلى المحتوى والتي تستخدم أساليب الذكاء الاصطناعي لمقارنة المحتوى المرفوع حديثاً مع مقاطع من المواد «المحظورة» والموجودة في قواعد بيانات الشركة، أما الوسيلة الثانية فهي المراجعة البشرية، حيث يعمل الآلاف من الموظفين على مراجعة المحتوى يدوياً، وعلى الرغم من ذلك تفشل المنصات الاجتماعية في أغلب الأحيان في التعرف إلى المحتوى العنيف قبل أن ينتشر على نطاق واسع، خصوصاً مع استفادة المستخدمين من ترسانة أسلحة المنصات الاجتماعية ذاتها في سهولة المشاركة وإعادة النشر.

إخفاق الذكاء الاصطناعي

والمفارقة في حالة فيديو العملية الإرهابية في نيوزيلندا أن إخطار «فيسبوك» به لم يأت من أنظمة الذكاء الاصطناعي المتطورة، ولم يأت من جيش المراجعين البشريين، ولكنه جاء من مكالمة تلفونية أجرتها شرطة نيوزيلندا لتخبر عملاق الشبكات الاجتماعية بوجود الفيديو المفزع.

ورفضت المنصات الإجابة عن أسئلة الإعلام حول عدد النسخ التي تم حذفها من هذا الفيديو، بينما قال متحدث باسم «فيسبوك» إن الشركة حذفت حسابات مرتكب الجريمة من فيسبوك وإنستغرام، إضافة إلى الفيديو الأصلي، وأكد أنهم يعملون بجدية تامة على حذف أي منشورات أو تعليقات مؤيدة للهجوم الإرهابي أو المهاجم بمجرد ظهورها.

سيناريو متكرر

بث حادث نيوزيلندا على الشبكات الاجتماعية لم يكن الأول من نوعه، حيث سبقته أربع وقائع شبيهة على الأقل تم فيها بث حي لإطلاق النار في ولايات أمريكية عدة، منها كارولينا الشمالية وجورجيا، إضافة إلى حادثي ديترويت وهيوستن العام الماضي، وبعد تلك الحوادث أعلنت فيسبوك أنها ستعمل على إزالة المحتوى العنيف بشكل أسرع وأكثر كفاءة، وقال مارك زوكبيرج مؤسس الشركة إنه سيوظف 3000 عامل جديد لتسريع عملية مراقبة المحتوى المنشور وحذف أي محتوى يتعلق بالقتل أو الانتحار أو أي عمل آخر من أعمال العنف.

بينج دونج أحد خبراء مراقبة المحتوى على الشبكات الاجتماعية تحدث لمجلة تايم الأمريكية عن الحادث، قائلاً «من الصعوبة بمكان منع تحميل المحتوى العنيف على الشبكات الاجتماعية للمرة الأولى، خصوصاً أن الأسلوب الذي تعمل به تقنيات التعرف إلى المحتوى يستخدم أسلوب يسمى «التعرف إلى البصمة»، بالتالي فلكي يتم تحديد المحتوى بطريقة آلية يجب أن يتم تحميل نسخة من الفيديو إلى قاعدة بيانات المنصة الاجتماعية، حيث تتم مقارنته مع مقاطع أخرى وتحديده باعتباره محتوى محظوراً من عدمه، ولكن حتى في تلك الأحوال، فإن أي تعديل أو تلاعب بالفيديو الأصلي يجعل النسخة المعدلة تمر من «فلاتر» المنع ويظهر الفيديو من جديد على الشبكات الاجتماعية.

ووفقاً لتقنيات المنع الآلي، فإن الصعوبة تتضاعف في حالة البث الحي، وعلى الرغم من استثمار المنصات الاجتماعية في تقنيات «تعلم الآلة»، إلا أن الخوارزميات الحالية ليست متطورة بالدرجة الكافية لمنع المقاطع التي يتم بثها بشكل حي، وكما يوضح أحد الخبراء: يمكننا أن نتخيل الارتباك الذي يحدث في برمجيات التعرف إلى المحتوى عندما تبدأ المقارنة بين مشاهد مسجلة من إحدى ألعاب الفيديو جيمز لإطلاق النار، ومقاطع إطلاق نار حقيقية يتم تصويرها من نفس المنظور، كما حدث في فيديو نيوزيلندا.

تشريعات عقابية

في تصريحات سابقة قالت «فيسبوك» إنها تقوم بحذف ما يقرب من 99 في المئة من المواد المرتبطة بالإرهاب من منصاتها أتوماتيكاً، ولكن الخبراء يؤكدون أن تقنيات الذكاء الاصطناعي الحالية أمامها عقود من التطوير قبل أن تمتلك الكفاءة اللازمة للتعامل مع هذا النوع من المحتوى، ومع ازدياد الضغوط على المنصات الاجتماعية فإن البرلمان الأوروبي يناقش عدداً من التشريعات الجديدة التي تعاقب شركات التكنولوجيا التي تفشل في حذف المحتوى المتعلق بالإرهاب من منصاتها، ولكن لا يبدو واضحاً متى يمكن أن تصبح تلك المشروعات قوانين نافذة.

تتعرض الشبكات الاجتماعية بشكل عام حالياً لضغوط عنيفة وانتقادات واسعة للعديد من الأسباب، وأبرزها ما يتعلق بخصوصية بيانات المستخدمين، والمؤكد أن الظروف المتعلقة بحادث نيوزيلندا الإرهابي سيزيد من هذه الضغوط، حيث سيكون على عمالقة التكنولوجيا في العالم تفسير كيفية تلاعب الإرهابي بأنظمتها ونشر صور الأسلحة ونيّاته وأيضاً «مانفستو» كامل بأفكاره العنصرية قبل تنفيذ العملية، ثم بث العملية مباشرة وظل الفيديو الخاص بها ينتشر كالفيروسات.

#بلا_حدود