- Global Voices الأصوات العالمية - https://ar.globalvoices.org -

نزاع مجلس رقابة شركة ميتا مع إرشادات المحتوى المُبهمة لفيسبوك وإنستغرام

التصنيفات: إثيوبيا, السودان, نيجيريا, تقنية, حجب, حروب ونزاعات, حرية التعبير, حقوق الإنسان, صحافة المواطن, أدفوكس

استخدمت بإذن من جيوفانا فليك

عندما تُستخدم وسائل التواصل الاجتماعي بالشكل الصحيح، يمكن أن تشكّل حبلاً للنجاة للمدافعين عن حقوق الإنسان. يمكن للمستخدمين، من خلال منصات الإنترنت، رفع الوعي حول القضايا المهمشة من قبل وسائل الإعلام الرئيسية التقليدية [1]، ويمكنها تقديم أدلة قيّمة تُدين جرائم الحرب، وتجلب الجُناة للعدالة [2].

لكن في الشهور الماضية، وجد المستخدمون، الذين يقومون برفع الوعي حول انتهاكات حقوق الإنسان على إنستغرام وفيسبوك، (كلاهما ملك لشركة ميتا Meta)، أنفسهم تحت رحمة خوارزميات ميتا وإرشاداتها المبهمة للمحتوى. نتيجة لذلك، وجد “مجلس الرقابة” في الشركة (نظام تقديم الطلبات، مؤسس من قبل شركة ميتا للمستخدمين المعترضين على إزالة محتواهم بغير حق)، نفسه لا يقوم بمراجعة قرارات الشركة الأصلية فحسب، بل أيضًا بتزويد إرشادات السياسة للسماح “لعملاق التكنولوجيا” بحماية حقوق المستخدمين بشكل أفضل.

على سبيل المثال، قام المجلس بإبطال قرار اتخذته ميتا بإزالة مقطع فيديو على إنستغرام يعرض الآثار الدموية التي خلفها هجوم إرهابي في نيجيريا [3]. تمت إزالة المنشور تبعًا لسياسة ميتا، التي تحظر مقاطع الفيديو التي تصوّر العنف بشكل مُبالغ والمحتوى الذي يتضمن تعليقات سادية على صور تظهر المعاناة البشرية. تمت إزالته بالرغم من أنه وفقًا للمجلس، لم تشِر أي من التعليقات والوسوم على مقطع الفيديو إلى استنتاج المتعة من معاناة الآخرين، بل كان أصحاب المنشور يحاولون نشر الوعي بين أفراد مجتمعهم. في الحقيقة، كان سعي الحكومة النيجيرية، للحد من التغطية على الهجمات الإرهابية الأخيرة، أمرًا هامًا لقرار المجلس، لضمان حرية التعبير لدى المستخدمين. أشار المجلس بشكل مؤكد أن مفهوم ميتا لمصطلح “سادي”، لم يُكشف للعموم، وأن الإرشادات الداخلية المزودة لمدراء “عملاق التكنولوجيا”، لم تكن وافية.

من المفترض أن تقوم “سياسة المحتوى العنيف والصادم” [4] بالسماح للمستخدمين بشجب ورفع الوعي حول “القضايا المهمة مثل انتهاكات حقوق الإنسان، والنزاعات المسلحة أو الأعمال الإرهابية”. لكن أشار المجلس إلى أن: “سياسة المحتوى العنيف والصادم، لا توضّح آلية سماح ميتا للمستخدمين بمشاركة المحتوى المصوّر، بهدف رفع الوعي، أو توثيق الانتهاكات”.

كانت هذه، دون شك، المرة الأولى التي يقوم بها المجلس بتصعيد مخاوف كهذه. قبل هذا القرار، قامت ميتا بإزالة مقطع فيديو يوثق الرد العنيف للقوات السودانية [5] على المتظاهرين عقب استيلاء قوات الجيش على الحكومة المدنية. تراجعت الشركة عن قرارها بعد ذلك كونه استثناء “لأهميته الإخبارية”، الأمر الذي يسمح للمحتوى بالبقاء متاحًا، إذا كان يخدم الصالح العام. بالرغم من موافقته على تراجع ميتا عن قراراها، أشار المجلس إلى أن سياسة الأهمية الإخبارية لم توضّح متى استفادة المحتوى، الذي يوثّق أعمالًا وحشية، لهذ الموافقة: عدم وجود تعريف يوضّح معنى مصطلح “الأهمية الإخبارية”، ترك العديد من المستخدمين عرضة لقرارات “اعتباطية” و”غير دائمة”. إضافةً إلى ذلك، خلال السنة الماضية، قبل مارس/آذار 2022، قامت ميتا بنشر 17 إعفاء مبني على “الأهمية الإخبارية”، وفقًا لسياسة المحتوى العنيف. باعتبار أن ميتا قد أزالت 90.7 مليون منشور حسب هذا المعيار المجتمعي في الثلاثة أرباع الأولى من سنة 2021، كانت هنالك مخاوف جليّة أن المحتوى، الذي قد يخدم الصالح العام، لم يكن متاحًا.

كانت سياسة ميتا في حظر الإشادة بالأشخاص والمنظمات الخطرة [6]، محطًا آخر لانتقادات المجلس. أوصى [7] المجلس عدّة مرات أن تقوم ميتا بتفصيل المعايير والأمثلة الإيضاحية، لزيادة فهم المستخدمين استثناءات القرارات المحايدة، والشجب، ونقل الأخبار. قال المجلس أن مصطلح “إشادة” حتى لم يكن معرّفًا كما يجب. تقوم إرشادات ميتا الداخلية بتنبيه المستخدمين لإزالة محتواهم في حال كان “يدفع الناس للتفكير بطريقة أكثر إيجابية حول جماعة معينة مما يجعل المعنى لكلمة ‘إشادة'، يتمحور حول تأثيره على الجمهور أكثر من تمحوره حول نيّة المتحدث [8]“. بالتالي، تُحجب منشورات المستخدمين التي تنتقد بشكل صريح انتهاكات حقوق الإنسان [9]، أو حتى التي تنقل أخبار نشاطات منظمة طالبان [8] بأسلوب محايد، إذا ذكرت اسم منظمةٍ مُستهدفة من قبل السياسة. ما يجعل الأمر أكثر سوءًا هو حقيقة أن ميتا لم تترك قائمتها للمنظمات الخطرة متاحًة للعامة.

هذه المخاوف ليست بالأمر الجديد. في تحليلٍ [10] موسّع، أشارت منظمة المادة 19 [11] غير الحكومية، أنه منذ عام 2018 وشروط الخدمة لدى عمالقة وسائل التواصل الاجتماعي يوتيوب، وفيسبوك، وتويتر، وغوغل- تتصف بافتقارها للشفافية وتدنّي معاييرها عندما يتعلق الأمر بحرية التعبير.

قامت ميتا بتأسيس نظام “بنوك خدمة مطابقة الوسائط” من أجل تعزيز فِرق إدارة المحتوى. تقوم آليًا بتحديد وإزالة الصور المحددة مسبقًا بواسطة مراجعين بشريين، واعتبارها مخالفة لقوانين الشركة. تم تأسيسها بشكل أساسي لمساعدة ميتا باتخاذ قرارات بسرعة وفعالية. انتهى الأمر بمثل هذه الأنظمة بزيادة تأثير القرارات البشرية الخاطئة.

في إحدى المرات التي قام فيها أحد المستخدمين بنشر رسم كرتوني ينتقد الشرطة الكولومبية [12]، تمت إزالته بعد مطابقته آليًا مع صورة قد وضع عليها مراجع بشري مسبقًا علامًة بصفتها مثيرة للمتاعب. من منظور أوسع، وكون الهدف من الرسم الكرتوني هو انتقاد أجهزة الدولة أو أعمالها، كان فيسبوك مخطئًا في إضافته للمجموعة من البداية. ما يجعل الأمر أكثر سوءًا، إزالة أنظمة ميتا الآلية منشورات لمئات المستخدمين الآخرين، الذين نشروا نفس الرسم الكرتوني. قام 215 مستخدمًا من هؤلاء، بتقديم اعتراضات على الحجب، ونجح 98 بالمئة منهم. بالرغم من هذا، ماطلت ميتا في إزالة الرسم الكرتوني من مجموعة الوسائط.

على النقيض، انتقد المجلس ميتا في قرار متعلق بإثيوبيا [13] لأنها تأخرت في التعامل مع محتوى يحرّض على التوتّر العرقي والنزاع المسلح. وفقًا للمجلس: “نحتاج للمزيد من الشفافية لمعرفة إذا كانت مقاييس ميتا متلائمة في جميع سياقات النزاعات المسلحة”. بينما كانت ميتا تتخذ تحركات سريعة خلال النزاع الروسي الأوكراني، كانت بطيئة للغاية بما يتعلق بمناطق أخرى تُعاني النزاعات مثل إثيوبيا وميانمار. كشف القرار الإثيوبي عن بعض الصعوبات في السيطرة على الأحاديث في خضمّ النزاع المسلح القائم. وفقًا لتعليق عام لأحد أكاديميين: “نقص في التنسيق مع المجتمعات في إثيوبيا”. المحتوى الذي يصعّد العنف ضد قبائل التيجراي قد “نفذ بين الثغرات” بسبب نقص المدراء المتحدثين باللغة الأصلية. في مثال على ذلك، بقي منشور على فيسبوك يدعو لإجلاء قبائل التيجراي من إقليم أمهره على المنصة لأكثر من أربعة أشهر. استنادًا لتقرير [14] لمكتب التحقيقات الصحفية، أشار المحقق إلى أن حملات الكراهية على الإنترنت قد حرّضت على الانتهاكات بحق قبائل التيجراي الذين يعيشون في مدينة قوندر.

نظرًا للعدد الضئيل من المحتوى الذي تقوم ميتا بتنظيمه على منصاتها -23.2 مليون منشور تم تصنيفهم بالعنيف والصادم وتمت “معالجة أمرها [15]” في الربع الثالث من عام 2022- من المؤكد استمرار الشركة في حذرها في التفريق بين الحفاظ على حرية التعبير لدى المستخدمين، والحرص على ألّا تصبح منصّتا فيسبوك وإنستغرام مكانًا آمنًا للمحتوى المُخالف. الضغط العالمي [16] على مزودي المحتوى الرقمي لدفعهم لاتخاذ مواقف أكثر صرامة تجاه المعلومات المضللة، وخطابات الكراهية، لن يقوم سوى بمفاقمة المخاطر الموجودة أصلًا في هذه العملية. مع توصيات المجلس للسياسات وتزويد الإرشاد اللازم لتحقيق التوازن، هنالك تعقيد ما: فحسب ما يقترحه اسمها، التوصيات استشارية فحسب، شركة ميتا ليست مجبرة على العمل بها (علمًا أنها التزمت بالإجابة عليها خلال 60 يومًا [17]). إذا أرادت ميتا الاستمرار في كونها مساحًة آمنة للمدافعين عن حقوق الإنسان، عليها التعاون بجديّة وبنيّة خالصة مع مجلس الرقابة.