الثلاثاء - 21 سبتمبر 2021
الثلاثاء - 21 سبتمبر 2021

تكنولوجيا قتل الحقيقة

انتشر فيديو على شبكة الإنترنت في مايو من العام الماضي، يظهر فيه الرئيس الأمريكي دونالد ترامب يقدم النصيحة لشعب بلجيكا بخصوص تغير المناخ: «كما تعلمون كانت لدي الشجاعة للانسحاب من اتفاقية باريس للمناخ»، قال وهو ينظر مباشرة للكاميرا: «كذلك يجب أن تفعلوا».

أنتج هذا الفيديو على يد حزب سياسي بلجيكي، وتم نشره على حسابات الحزب في «فيسبوك» و«تويتر»، وجذب المئات من التعليقات التي كانت غاضبة في مجملها من تدخل الرئيس الأمريكي في سياسة بلجيكا الخاصة بالمناخ، ولكن المفاجأة المدوية أن هذا الفيديو وحديث الرئيس الأمريكي لم يكن أكثر من مجرد تزييف عالي التقنية، وأن الرجل لم يتحدث مطلقاً عن بلجيكا.

اعترف الحزب البلجيكي بتكليف استوديو إنتاج لاستخدام تقنيات التعلم الآلي، أو ما يعرف حالياً باسم «التزييف العميق» لإنتاج نسخة فيديو متماثلة من خطب ترامب الحقيقية، ليقول ويفعل في الفيديو أشياء لم يفعلها على الإطلاق في الحقيقة.

وقال مسؤولو الحزب إن الهدف أن يجذب الفيديو المزيف اهتمام الناس، وبعدها يتوجهون إلى عريضة إلكترونية تطالب الحكومة البلجيكية باتخاذ إجراءات أكثر صرامة تتعلق بالمناخ.

أما الاستوديو الذي أنتج الفيديو، فقد قال لاحقاً، إنهم اعتقدوا أن التزوير الواضح سيجعل الناس يتشككون في أصالة الفيديو، وأن حركة شفاه ترامب في الفيديو لا تتزامن مع الكلام، إلا أن ما حدث هو تصديق الجمهور للفيديو والغضب منه، وفي محاولة لاحتواء الضرر أصدر الحزب بياناً يؤكد فيه أن الفيديو مختلق وأن ترامب لم يصدر هذه التعليقات.

ربما يكون فريق الدعاية التابع للحزب قد قلل من تقدير قوة التزوير، أو ربما بالغ في تقدير مدى انتباه الجمهور، ولكن في كل الأحوال قدّم هذا الحزب اليساري الصغير، بقصد أو من دون قصد، مثالاً مثيراً للقلق عن تطور التكنولوجيا التي تسمح بخلق فيديو كامل تم التلاعب به في سياق سياسي واضح، ومثالاً على الأضرار الفادحة التي يمكن أن تتسبب فيها الموجة الجديدة المتطورة من تقنيات التلاعب بالمعلومات.

وإذا كانت الموجة الأولى قد اعتمدت بالأساس على التلاعب في الصور الفوتوغرافية فإن الموجة الجديدة أشد خطورة لأنها تتضمن لقطات فيديو تبدو حقيقية بشكل كبير.

مقاطع الفيديو المزيفة يمكن الآن إنتاجها باستخدام إحدى طرق تعليم الآلة التي يطلق عليها اختصاراً GAN، وهي تقنية ابتكرها طالب يسمى «إيان جودفلو» عام 2014 كطريقة لإنشاء بيانات جديدة من مجموعة بيانات موجودة بالفعل، على سبيل المثال من الممكن عبر هذه التقنية دراسة عدة صور لشخصية شهيرة ثم إنشاء صورة جديدة تحاكي هذه الملامح من دون أن تكون نسخة من أي من الصور الأصلية، أيضاً يمكن أن تستخدم تقنية GAN لخلق مقطع صوتي جديد اعتماداً على مقاطع صوتية قديمة أو نص جديد من نصوص جديدة، وهكذا.

استمرت تلك التقنية محدودة الانتشار بين خبراء الذكاء الصناعي في مجتمع الأبحاث حتى عام 2017 عندما قام أحد مستخدمي موقع Reddit للحوار الاجتماعي ببث مجموعة من مقاطع الفيديو الإباحية التي يظهر بها عدد من الممثلين، وهي مقاطع مختلقة بالكامل باستخدام تلك التقنية الجديدة، وعندما انتبهت وسائل الإعلام لخطورة ما يحدث ونشرت عنه قام الموقع بحظر هذه المقاطع التي تتعارض مع سياسة الاستخدام الخاصة به، ولكن عند هذه اللحظة اتخذت الأمور منحى آخر عندما قام صانع هذه المقاطع بنشر تطبيق سهل الاستخدام لصناعة مثل هذه الفيديوهات المختلقة، وفجأة أصبح بمقدور أي شخص يمتلك اتصالاً بالإنترنت وصورة الشخص المطلوب أن يقوم بإنتاج فيديو مختلق يمكن تصديقه بسهولة.

أثارت هذه التقنية كثيراً من المخاوف بين الخبراء والسياسيين على حد سواء.

في أبريل من العام الماضي أطلق المخرج «جوردان بيلي» بالتعاون مع شبكة «بزفيد» فيديو مختلقاً للرئيس الأمريكي السابق أوباما وهو يتحدث بعبارات مسيئة عن الرئيس الحالي ترامب، وذلك لرفع الوعي بين الجمهور حول قدرة الذكاء الصناعي على التلاعب بالحقيقة، وفي سبتمبر أرسل ثلاثة أعضاء من الكونغرس الأمريكي رسالة إلى مدير المخابرات الوطنية يحذرون فيها من إمكانية استخدام هذه التقنيات في «حملات المعلومات المضللة خلال الانتخابات».

وعلى الرغم من المخاوف المتصاعدة من إساءة استخدام هذه التكنولوجيا، إلا أن مدير مبادرة الأخلاقيات وحوكمة الذكاء الصناعي بجامعة هارفارد، تيم هوانج، يقلل من خطر انتشارها على نطاق واسع، أو من تأثيرها القريب في الأحداث السياسية، مثل الانتخابات، فالخبير الذي قام بدراسة انتشار المعلومات المضللة على شبكة الإنترنت لسنوات طويلة يعتقد أن استخدام تكنولوجيا تعليم الآلة لإنتاج فيديو مقنع للمشاهد لا يزال مسألة تحتاج لخبرة واسعة في التعامل مع البيانات، وأن الراغب في نشر معلومات مضللة يريد أن ينشر هذه المعلومات على أوسع نطاق بأقل جهد ممكن، وفي هذه الحالة فإن التلاعب بصورة باستخدام الفوتوشوب سيؤدي الغرض من دون الدخول في تفاصيل فنية معقدة.

ولكن في الوقت نفسه، يعترف هوانج بأنه كلما أصبحت الفيديوهات المختلقة أكثر واقعية وأسهل إنتاجاً خلال السنوات المقبلة، فإن هذا الأمر سيؤدي إلى ظهور حقبة من التزوير تختلف تماماً عما قبلها، أضف إلى ذلك حقيقة أن مثل هذه التكنولوجيا بدأت في الانتشار عبر الإنترنت، وعندها يمكن أن يفاجأ العالم بـ «عاصفة من المعلومات الزائفة المصنوعة بدقة».

في أغسطس 2018، كشف فريق دولي من الباحثين عن طريقة لإنتاج ما أسموه «صور الفيديو العميقة»، وهو نوع جديد من التلاعب بالفيديو، حيث يمكن أن يتحكم فيه شخص بصورة فيديو شخص آخر ويجعله يردد ما يقوله الشخص المتحكم، وأرفق الباحثون بعملهم نموذجاً عملياً لفيديو يجلس فيه شخص أمام الكاميرا ويقول بعض الكلمات ويرسم تعبيرات مختلفة بوجهه، وفي الخلفية فيديو للرئيس الأمريكي السابق باراك أوباما يكرر التعبيرات والكلمات نفسها.

وفي بيان صحافي حول تلك التقنية، قال الباحثون إنهم يدركون إمكانية إساءة استخدام هذه التكنولوجيا، ولكنهم أكدوا في الوقت نفسه أن هذا الابتكار ربما يحدث ثورة حقيقية في مجال صناعة الترفيه السينمائي، وأن هذا هو الغرض الأساسي من العمل.

ويقول أستاذ الكمبيوتر في جامعة بيركلي بكاليفورنيا، هاني فريد، والذي قضى 20 عاماً يطور تقنيات التحقق من تزييف المواد الرقمية، في مقال على موقع الجامعة، إنه «على الرغم من القفزات الهائلة التي يقدمها التطور في رسوميات الكمبيوتر باستخدام الذكاء الصناعي إلا أن على الباحثين إدراك التداعيات السياسية والاجتماعية التي يمكن أن تصاحب هذه التطورات وتأتي بنتائج سلبية».

اكتشاف عمليات التزوير

دفع انتشار هذه التكنولوجيا آخرين للبحث في طرق تسهل اكتشاف عمليات التزييف، حيث نشر باحثون من جامعة بيركلي ورقة تضع إطاراً نظرياً لاكتشاف الفيديوهات المتلاعب بها، كما أعلنت شبكة «فيسبوك» أيضاً التزامها بتطوير نماذج لتقنيات تعلم الآلة تسمح باكتشاف تلك الفيديوهات المزيفة.

ومع ذلك يعتقد كثيرون أن الاعتماد على تلك الطرق وحدها لن يحل المشكلة، خاصة مع التطور المذهل الذي تشهده عمليات التزوير نفسها.
#بلا_حدود