السبت - 27 يوليو 2024
السبت - 27 يوليو 2024

«فيسبوك» لـ«الرؤية»: قلوبنا مع ضحايا نيوزيلندا.. وملتزمون بمواجهة الإرهاب

«فيسبوك» لـ«الرؤية»: قلوبنا مع ضحايا نيوزيلندا.. وملتزمون بمواجهة الإرهاب
«لا تذهَب بلُطف إلى تلك الليلة»، توماس ديلان، 1951.. مطلع قصيدة اعتمَد عليها «برنتون تارنت»، في بحثه المعنون بـ «الاستبدال العظيم»، والذي قدّمه في 74 صفحة، قبل قيامه بمذبحة مسجدي نيوزيلندا. ثبّت «تارنت» كاميرا صغيرة أعلى رأسه، وخرج علينا في بثٍ مباشر، مُسجلاً كل ثانية مما قام بهِ، الرشّاش في يده، الرصاصات تنطلق دون هُدنة، جُثث وقتلى في كُل مكان، كما لو كانت لعبة فيديو، لكنها هذه المرة على موقع التواصل الاجتماعي الأكبر في العالم «فيسبوك».

أحدثت المجزرة هزة عنيفة، ليس فقط على مستوى التعامل مع الحدث باعتباره هجمة دموية وعنصرية، لكن الواقعة طرحت تساؤلات حول طبيعة المحتوى المنشور على «فيسبوك»، لدرجة أن بعض الصحف العالمية في أوروبا لقبت القاتل بـ «إرهابي فيسبوك»، وتساءل الكثيرون حول التكنولوجيا المتقدمة التي يستخدمها عملاق التواصل الاجتماعي، وكيف فشلت في منع مشاهد «القتل أون لاين» من الوصول والانتشار بهذا الشكل السريع، خصوصاً أن «فيسبوك» يستخدم مجموعة من أكثر التقنيات تعقيداً وذكاء، ويتحدث كثيراً عن استخدام هذه التقنيات في محاربة التطرف، ومنع انتشار خطابات الكراهية، حتى جاءت مجزرة نيوزيلندا لتعيد الأسئلة القديمة إلى الواجهة مرة أخرى.

طرحت «الرؤية» أسئلتها على المتحدث الرسمي لـ «فيسبوك» العالمية، وجاءت الإجابات ـ عبر البريد الإلكتروني ـ بعد أيام، ليشرح لنا المتحدث الرسمي باسم الشبكة العملاقة ماذا جرى على موقع التواصل الأشهر خلال المجزرة، وماهي آليات الشركة لمواجهة مثل هذه الممارسات الدموية، وكيف يمكن للشبكة أن تتابع المحتوى المنشور من أكثر من 2.2 مليار مستخدم حول العالم.




المجزرة التي بثها القاتل عبر خاصية البث الحي على موقع «فيسبوك»، تسببت بمقتل أكثر من 50 شخصاً، وأدت لموجة مراجعات في بريطانيا والاتحاد الأوروبي وعدد كبير من دول العالم، حول قدرة «فيسبوك» الذي يبلغ عدد مستخدميه 2.2 مليار (حتى نهايات 2018)، في منع مثل هذه المشاهد الدموية. قال فيسبوك إنه أزال 1.5 مليون مقطع فيديو يتعلق بهجوم نيوزيلندا خلال الـ 24 ساعة الأولى، وقالت ميا غارليك، مديرة الاتصالات والسياسات لفيسبوك في نيوزيلندا وأستراليا، إن 1.2 مليون فيديو تم حجبها بمجرد رفعها على «فيسبوك»، وعن مصير نحو 300 ألف نسخة تبقت بعد الحجب، خصوصاً مع اعتماد «فيسبوك» على تقنيات شديدة التطور لمتابعة المحتوى، قال المتحدث الرسمي باسم الشركة العالمية في تصريحات خاصة لـ «الرؤية» «أوضحنا وجهة نظرنا في بيان للشركة، وقلنا إن تكنولوجيا مطابقة الصور ومقاطع الفيديو الخاص بنا كانت فعالة جداً في منع انتشار دعاية المنظمات الإرهابية، لكنها لم تلتقط تلك النسخ الإضافية من المقاطع المتعلقة بالحادث».

وتابع المتحدث «الأمر الذي شكل تحدياً لأنظمتنا هو إعادة نشر المقطع بطرق مختلفة مع إجراء تغييرات للإفلات من أنظمتنا، فمثلاً شاهدنا مجموعة من «الجهات الفعالة السيئة» تعمل معاً لإعادة تحميل الإصدارات المعدلة من هذا الفيديو باستمرار بطرق مصممة للتحايل على أنظمة اكتشاف الفيديوهات».

وأردف المتحدث «قلنا أيضاً إن مجموعة أوسع من الأشخاص قاموا بتوزيع مقطع الفيديو وجعلوا من الصعب - عن غير قصد - مطابقة النسخ. ربما شاهد بعض الأشخاص الفيديو على جهاز كمبيوتر أو تلفزيون، وقاموا بتصويره بهاتف وإرساله إلى صديق. وقد يكون البعض شاهد الفيديو على جهاز الكمبيوتر وسجلوا المحتوى، ونقلوه على المواقع والصفحات بهدف جذب انتباه الجمهور، وبالتالي تمت إعادة قص للفيديو وأعيد تسجيله بأشكالٍ مختلفة. وإجمالاً، وجدنا أكثر من 800 نوع مختلف من الفيديوهات التي تم تداولها وحظرناها. هذا الأمر يختلف عن الدعاية الإرهابية من منظمات مثل داعش - التي لا يتم إعادة بثها من قبل المؤسسات الإعلامية الرئيسة ولا يتم إعادة نشرها على نطاق واسع من قبل الأفراد. وقلنا عقب الواقعة إننا نتعلم المزيد من التقنيات التي سوف تعمل بشكل أفضل في هذه الحالات، خصوصاً إذا تم إجراء العديد من التغييرات على الفيديو الأصلي، وعلى سبيل المثال، وكجزء من جهودنا، استخدمنا تقنية مطابقة صوتية لاكتشاف مقاطع الفيديو التي تغيرت بصرياً لتجاوز قدرة أنظمتنا على التعرف التلقائي ولكن لها الصوت نفسه».

الحلول التقنية

وحول عدم توصل الشركة العملاقة حتى الآن لتقنية فعالة لمنع انتشار مثل هذا النوع من المقاطع الدموية والصادمة، قال المتحدث «أوضحنا للرأي العام عقب الحادث أن أهم أولوياتنا في الوقت الجاري هي دعم شرطة نيوزيلندا بكل طريقة ممكنة، ومواصلة فهم كيفية استخدام أنظمتنا وغيرها من المنصات على الإنترنت كجزء من هذه الأحداث حتى نتمكن من تحديد أكثر السياسات فاعلية والخطوات التقنية اللازمة». وأضاف «هذه الأمور تشمل أولاً تحسين تقنية المطابقة الخاصة بنا حتى نتمكن من إيقاف انتشار مقاطع الفيديو من هذا النوع، بغض النظر عن كيفية إنتاجها في الأصل. على سبيل المثال ، كجزء من استجابتنا قبل أيام، طبقنا تقنية معتمدة على الصوت التجريبي والتي صممناها لتحديد أشكال الفيديو المختلفة. الأمر الثاني هو ضمان التفاعل بشكل أسرع مع هذا النوع من المحتوى الذي يتم بثه عبر خاصية البث الحي. بما في ذلك استكشاف ما إذا كان يمكن استخدام الذكاء الاصطناعي لهذه الحالات وكيفية استخدامها، وكيفية الوصول إلى تقارير المستخدمين بشكل أسرع، وحتى أفكار مثل تأخير البث المباشر على غرار ما تفعله بعض محطات التلفزيون، فهذا أمر لن يجدي. نحن لدينا الملايين من عمليات البث المباشر يومياً، وهذا عدد هائل من المقاطع، وإضافة التأخير لن يعني سوى إبطاء تسجيل المقاطع التي يتم الإبلاغ عنها ومراجعتها».

وتابع «نحن نواصل مكافحة خطاب الكراهية بجميع أنواعه على منصتنا، ونحظر الجماعات الإرهابية ومجموعات الكراهية بأنواعها كافة، ولذلك سوف تقوم الشركة بتوسيع تعاونها في هذا الأمر من خلال المنتدى العالمي للإنترنت لمكافحة الإرهاب (GIFCT) خصوصاً أن ما حدث في نيوزيلندا كان أمراً فظيعاً، وقلوبنا مع الضحايا وأسرهم».

وحول شعور الشركة بأنها بحاجة إلى تقديم اعتذار لضحايا الهجوم الدامي وذويهم، قال المتحدث «قلوبنا مع الضحايا وعائلاتهم والمجتمع المتضرر من الهجمات الإرهابية المروعة في كرايست تشيرش. ما زلنا نشعر بالصدمة والحزن لهذه المأساة ونلتزم بالعمل مع القادة في نيوزيلندا والحكومات الأخرى وصناع التكنولوجيا للمساعدة في مواجهة خطاب الكراهية وتهديدات الإرهاب».

وتابع «نواصل العمل على مدار الساعة لمنع ظهور هذا المحتوى على موقعنا، وذلك باستخدام مزيج من التكنولوجيا والجهد البشري. فنحن نعمل مباشرة مع شرطة نيوزيلندا للرد على الهجوم ودعم تحقيقهم. لقد أزلنا فيديو المهاجم في غضون دقائق من وصوله إلينا، وفي أعقاب ذلك، قمنا بتوفير مورد على أرض الواقع لسلطات إنفاذ القانون. سوف نستمر في دعمهم بكل طريقة ممكنة».

مسؤولية «فيسبوك»

قبل ثلاث سنوات، خرج مارك زوكربيرغ، مؤسس «فيسبوك» معلقاً على حادث دموي آخر، انتشر مقطع فيديو لبث حي، قادم من ولاية مينيسوتا الأمريكية، يظهر رجلاً من الشرطة يطلق الرصاص على شخص يدعى فيلاندو كاستل، وبثه صديقه مباشرة عبر موقع فيسبوك. وقتها اشتعلت الأحداث في الولايات المتحدة، وشهدت البلاد صدامات مروعة بين المتظاهرين والشرطة، وخرج مؤسس «فيسبوك» معرباً عن أمله في ألا يشاهد مقطع فيديو آخر مثل هذا المقطع على «فيسبوك»، فكم نحن بعيدون عن هذا الأمل حتى الآن خصوصاً بعد واقعة نيوزيلندا؟.

أجاب المتحدث باسم عملاق التواصل الاجتماعي «فسيبوك» على سؤال «الرؤية» قائلاً«عملنا في مكافحة الإرهاب لم ينتهِ بعد، فالإرهابيون يأتون من أيدلوجيات عديدة، وأخطرها الأيديولوجيات المرنة للغاية. لذلك نحن في شركة «فيسبوك» ندرك مسؤوليتنا في مواجهة هذا التهديد الكبير، وسوف نظل ملتزمين بهذه المسؤولية».



مراقبة المحتوى الدموي

وعن التعاون مع السلطات النيوزيلندية، قال المتحدث «أبلغتنا الشرطة في نيوزيلندا بعدم مشاركة بعض التفاصيل حول الواقعة بسبب التحقيقات الجارية. نحن نحترم ذلك بالتأكيد، خصوصاً أننا نعمل معهم بشكلٍ مباشر وندعم تحقيقاتهم، وسوف نستمر في دعمهم بكل طريقة ممكنة. لكن يمكننا القول إن الفيديو الذي تم بثه للواقعة حصل على 200 مشاهدة خلال البث المباشر، ولم يبلغنا أي مستخدم عن الفيديو أثناء البث، وتم عرض الفيديو نحو 4000 مرة إجمالاً قبل حذفه من منصتنا».

وشرح المتحدث في تصريحاته الخاصة نظام العمل لمتابعة المحتوى على الشبكة العملاقة، وقال «قمنا بمضاعفة حجم فرق السلامة والأمن لدينا بأكثر من الضعف خلال العام الماضي ليصل العدد الإجمالي إلى أكثر من 30000 شخص، نصفهم تقريباً، أي 15000، مراجعو محتوى. إضافة لذلك نحن متواجدون في أكثر من 20 موقعاً حول العالم عبر مناطق زمنية متعددة، وفرقنا تعمل على الدوام بشكل جماعي وذلك على مدار الساعة، وطوال أيام الأسبوع، لضمان أننا قادرون على مراجعة التقارير بسرعة ودقة. نحن ندرك أن أمامنا الكثير مما يجب علينا القيام به، وهذا هو السبب في أننا نواصل الاستثمار في هذه الفرق والتكنولوجيا المتقدمة، للحفاظ على الأشخاص الذين يستخدمون خدماتنا».

وعن التعامل مع اللغات المختلفة التي يستخدمها مشتركو «فيسبوك»، قال المتحدث «نحن نعمل بشكلٍ جماعي حول العالم في أكثر من منطقة، ولدينا مراجعون يمكنهم متابعة المحتوى بأكثر من 50 لغة مختلفة، بينها اللغة العربية. وحين يتم توظيف مراجعين، ينصب تركيزنا في فيسبوك على إتقان اللغة بشكلٍ كامل، وأن يكون لدى المراجعين معرفة قوية وفهم عميق للثقافات المحلية المرتبطة باللغة أو المنطقة الجغرافية التي يدعمون نظم السلامة فيها، وهدفنا من هذا كله، ضمان قدرتنا على التعامل مع التقارير بدقة».