تعرضت منصة فيسبوك خلال الأشهر الماضية للهجوم على جميع الجبهات من المحافظين بدعوى التحيز الليبرالي، ومن الليبراليين بدعوى إتاحة الفرصة للرجعيين، ومن الحكومات والإعلام بدعوى سماح المنصة بانتشار الأخبار الزائفة والتضليل الإعلامي، ومن منظمات حقوق الإنسان بدعوى تسهيل التنمر والتحرش.

مؤسس ورئيس فيسبوك، مارك زوكبيرغ، قال إن الشركة ترغب في تحويل المنصة إلى مجتمع عالمي واحد، وهي فكرة راديكالية نظراً للتنوع الهائل للمجتمعات والمفاهيم الثقافية لمستخدمي فيسبوك في أنحاء العالم، وللخروج من هذا المأزق ترى الشركة أن عمليات مراجعة المحتوى المنشور يمكن أن تسهم إلى حد كبير في علاج هذه المشكلات، إلا أن عملية المراجعة نفسها مسألة معقدة للغاية، وبشكل عملي فهي تنقل ـ للمرة الأولى - التحكم في حرية التعبير من الحكومات إلى القطاع الخاص.

والحقيقة أنه مع نمو منصات التواصل الاجتماعي في الحجم والتأثير، بدأت غالبيتها في تعيين مشرفين لمراقبة المحتوى المنشور، في البداية كان العمل يتركز على حذف المحتوى غير القانوني الواضح، مثل الصور الإباحية للأطفال أو المواد الإرهابية، ثم تطورت العملية إلى فرض قواعد تمنع المحتوى المزعج أو خطاب الكراهية أو القضايا التي يمكن أن تثير الجدل المجتمعي والقانوني.

توظف فيسبوك فريق السياسات، وهو مكون من محامين ومختصين في العلاقات العامة ومسؤولين سابقين وخبراء في إدارة الأزمات يقومون بإعداد هذه القواعد العامة. وهي القواعد التي يتم تطبيقها على أرض الواقع من قبل أكثر من 7500 مشرف بشري وفقاً لتصريحات الشركة، هؤلاء المشرفون يقررون اتخاذ إجراء (أو عدم اتخاذه) ضد محتوى معين تكتشفه أنظمة الذكاء الاصطناعي العاملة أو يقوم بالإبلاغ عنه المستخدمون الآخرون الذين يعتقدون أن هذا المحتوى يخالف القواعد وأنظمة الذكاء الاصطناعي متطورة للغاية وناجحة في اكتشاف المواد الإباحية، أو المحتوى الدعائي «سبام» أو الحسابات المزيفة، ولكنها ليست على نفس الدرجة من الكفاءة عندما يتعلق الأمر بموضوعات مثل خطاب الكراهية.

يتم دعم فريق السياسات من قبل آخرين داخل المجمع المركزي لشركة فيسبوك الذي يشبه حجم مدينة صغيرة في ولاية كاليفورنيا، تتعامل إحدى هذه الفرق مع أزمات المحتوى، بينما تعمل مجموعة أخرى على كتابة برمجيات مراجعة المحتوى باستخدام الذكاء الاصطناعي، في الوقت الذي تتابع فيه مجموعة ثالثة مستويات الدقة والاتساق المتعلقة بالمحتوى في جميع أنحاء العالم. وأخيراً يوجد فريق مهمته التأكد من تناغم الفرق جميعها وعملها على نحو صحيح.

وتعتبر عملية ضبط المحتوى أكبر المشكلات اللوجستية التي تواجهها فيسبوك وتحاول أن تحلها بأبسط الطرق، المشكلة الأساسية هي وجود أكثر من ملياري مستخدم نشط للمنصة ينشرون المليارات من المنشورات يومياً بأكثر من مئة لغة، ويحاول فريق العمل مراجعة أكثر من 10 ملايين منشور أسبوعياً يشتبه بمخالفتها للقواعد، وبنسبة خطأ لا تزيد على واحد في المئة، كما يسعى الفريق إلى مراجعة جميع أنواع المحتوى التي يبلغ عنها المستخدمون في فترة لا تتجاوز 24 ساعة، وهي مهمة شاقة للغاية.

ووفقاً للبيانات التي تعلن عنها الشركة، فلكل حالة تقوم الشركة بحذفها عن طريق الخطأ (أو تركها) هناك أكثر من مئة منشور ضار تمت مراجعته بشكل صحيح والتعامل معه قبل أن يشعر به المستخدمون، ولكن بينما تنجح بنسبة كبيرة برمجيات الذكاء الاصطناعي في التعامل مع أنواع مختلفة من المحتوى، فإن النسبة تتراجع بشكل كبير في مناطق أخرى، مثل خطاب الكراهية التي لا تتجاوز نسبة نجاح الأنظمة الآلية فيها 38 في المئة مع التركيز على اللغة الإنجليزية.

في عام 2009، وظفت الشركة 12 شخصاً لمراجعة المحتوى الذي ينشره أكثر من 120 مليون شخص حول العالم، وعندما انفجر استخدام المنصة في العديد من المناطق والبلدان التي لم يكن الموظفون على علم بها، أدركت الشركة ضرورة وضع الطابع الرسمي على قواعدها، وتوسيع نطاق القوة البشرية المسؤولة عن عمليات المراجعة، ومع زيادة انتشار المنصة وجدت فيسبوك نفسها فجأة مضطرة للتعامل مع العديد من المواقف والسياقات والتواريخ الجيوسياسية المعقدة، وأصبح من الضروري أن تتخذ قرارات سريعة بشأن ما الذي يسمح به أو لا يسمح به على الموقع. جاء التطور عملياً في السنوات التالية: فإذا كانت فيسبوك سوف تتوسع في أماكن لا تسود فيها اللغة الإنجليزية، فإن الحل العملي البسيط هو توظيف المزيد من المشرفين الذين يتحدثون باللغة المحلية.

بطبيعة الحال لا تسير الأمور دائماً بسلاسة، وأحياناً تظهر العديد من التعقيدات القانونية والثقافية، فعلى سبيل المثال تتابع 9 دول مختلفة بدأب ونشاط وإصرار القضايا المتعلقة بإنكار الهولوكوست مع فيسبوك، وهذه الدول تتضمن عدداً من القوانين التي تجرّم «إنكار الهولوكوست»، ولكي تتوافق فيسبوك مع القوانين المحلية فإنها في هذه الحالة لا تحذف المنشورات التي تنكر الهولوكوست، ولكنها تقوم بمنع المستخدمين من تلك البلدان من تصفح تلك المنشورات.

يتحدث فريق سياسة تعديل المحتوى في فيسبوك غالباً عن محاولة «رسم الخطوط» ثم توصيل تلك الخطوط بوضوح، ولكن ـ مرة أخرى - فإن مقياس فيسبوك واستراتيجيتها المختارة المتمثلة في إنشاء سياسات خاصة لآلاف الأنواع المختلفة من المحتوى يجعل شرحها للجمهور، وحتى للمشرفين على إدارة المحتوى، مسألة شديدة الصعوبة.

أما عملية تنقيح وتطوير السياسات المتعلقة بمراجعة «الميمز» أو الإهانات فهي لا تنتهي، حيث تقوم فيسبوك باستمرار بتحديث إرشادات الإشراف الداخلي، ولكن عندما ينتهي الفريق من توصيف إحدى الحالات ووضع إرشادات التعامل معها، تكون حالات أخرى قد ظهرت على السطح.

عندما يقوم أحد المستخدمين بالإبلاغ عن منشور أو أي محتوى آخر لأنه يعتقد أنه مسيء أو ينتهك شروط استخدام الموقع، يتم إرسال التقرير إلى أحد المراجعين للعمل عليه، وعندها يقرر المراجع ترك المحتوى أو حذفه أو تصعيد الموضوع إلى عضو ثانٍ في الفريق ربما يكون لديه معرفة أعمق حول نوعية المحتوى. في بعض الأحيان ربما يحتاج الأمر إلى مراجع ثالث، لكن المهم لن يكون حذف المحتوى أو تركه، ولكن أيضاً تحديد سبب القرار، وهي أسباب يمكن أن تتداخل في الكثير من الأحيان: هل ينتهك المحتوى سياسة العري، هل يشجع على الانتقام، هل يندرج تحت بند خطاب الكراهية، أم أنه إهانة لشخص أو مجموعة؟، ويتم إرسال البيانات المتعلقة بسبب الحذف إلى الإدارة، وتساعد تلك البيانات المنصة على إدراك نوعية المحتوى المتداول عبرها، كما يمكنها تطوير أفضل لآليات منع انتشار مثل هذا المحتوى.

تستخدم فيسبوك أيضاً البيانات التي يوفرها المراجعون في محاولة «أتمتة» العملية وتسهيلها، وتحسين أنظمة الذكاء الاصطناعي التي تعمل على إزالة المحتوى المخالف قبل أن يقوم المستخدمون بالإبلاغ عنه.

الذكاء الاصطناعي لمراقبة المحتوى

تقول شركة فيسبوك إن أدوات الذكاء الاصطناعي المستخدمة في مراجعة المحتوى، والتي يتم تطويرها عن طريق مدخلات فريق المراجعة البشري، تكتشف ما يقرب من نسبة 100% من البريد الدعائي المزعج، و99.5% من المواد المرتبطة بالإرهاب التي تحذف فوراً، و98.5% من الحسابات المزيفة، و96% من المحتوى الجنسي، بينما نسبة 86% من المحتوى العنيف يتم إزالتها فوراً حتى قبل أن يبلغ المستخدمون عنها.