
الصورة من إعداد ليز كاريغان وصفاء، مع عناصر بصرية من أليساندرو كريبستا، مستخدمة بإذن.
كُتب هذا المقال بقلم صفاء ضمن سلسلة «الفجوات المُرقمنة»، ونُشر أصلًا على موقع tacticaltech.org، ويُعاد نشر نسخة محرّرة منه على غلوبال فويسز بموجب اتفاقية شراكة.
كانت وسائل التواصل الاجتماعي أداةً أساسية للمعلومات والتواصل لدى أفراد المجتمعات المُهمَّشة تقليديًّا. فالشباب يصلون عبرها إلى مجتمعات مهمّة قد لا يتيسر لهم الوصول إليها في الواقع، مثل المساحات المرحِّبة بمجتمع الميم-عين (LGBTQ+). وكما قالت إحدى المراهقات:
“Throughout my entire life, I have been bullied relentlessly. However, when I’m online, I find that it is easier to make friends… […] Without it, I wouldn’t be here today.”
“تعرّضتُ للتنمّر بلا رحمة طوال عمري. لكن عندما أكون على الإنترنت، أجد أن تكوين الصداقات أسهل… […] ولولا ذلك، لما كنت هنا اليوم.”
مع ذلك، يقول خبراء إن وسائل التواصل الاجتماعي كانت “أفضل ما حدث […] وأنها الأسوأ أيضًا”. بالنسبة لمجتمع العابرين/العابرات جنسيًّا، إذ أسفر خطاب الكراهية والإساءات اللفظية عن عواقب مأساوية في الواقع. تشير الأبحاث حتى اليوم إلى أن “تجارب وسائل التواصل الاجتماعي قد تكون سيفًا ذا حدّين بالنسبة لشباب مجتمع الميم-عين؛ إذ يمكنها أن تحميهم من مخاطر الصحة النفسية وتعاطي المواد أو تزيدها.”
في يناير/كانون الثاني 2025، أعلن مارك زوكربيرغ أن شركة ميتا (التي تضم فيسبوك وإنستغرام) ستُنهي برنامج التحقّق من الحقائق عبر جهاتٍ خارجية لصالح اعتماد نموذج “ملاحظات المجتمع” على إكس (تويتر سابقًا). وشملت قرارات شركة ميتا إنهاء السياسات التي تحمي مستخدمي مجتمع الميم-عين (LGBTQ+). ولا تزال المعلومات المُضلِّلة مشكلةً مستمرةً عبر منصّات التواصل الاجتماعي، تُعزّزها وتُضخّمها تصاميم التطبيقات نفسها، حيث تجلب المنشورات التي تحصد أكبر عدد من النقرات والإعجابات أعلى درجات المكافأة، سواء من حيث الانتباه أو الربح المالي.
أظهرت إحدى الدراسات أن “أكثر 15% من مستخدمي فيسبوك المنتظمون، مسؤولون عن 37% من العناوين الزائفة التي تمّت مشاركتها في العينة، مما يشير إلى أن عددًا محدودًا من المستخدمين قد يُحدث تأثيرًا غير متناسب على منظومة المعلومات بأكملها.”
أثار إعلان شركة ميتا إنهاء برنامج التحقق من المعلومات قلقًا واسعًا في أوساط الصحفيين ومنظمات حقوق الإنسان والباحثين. قال مفوّض الأمم المتحدة السامي لحقوق الإنسان، فولكر تورك، في هذا الصدد:
“Allowing hate speech and harmful content online has real world consequences.”
“السماح بخطاب الكراهية والمحتوى الضار على الإنترنت له عواقب واقعية في العالم الحقيقي.”
وُجّهت إلى شركة ميتا اتهامات بالضلوع، أو على الأقل المساهمة، في تصعيد الإبادة الجماعية ضد الروهينغا في ميانمار، فضلًا عن تأجيج العنف العرقي في كل من كينيا وإثيوبيا ونيجيريا، وذلك جزئيًا نتيجة انتشار المعلومات المضللة على منصتها.
في تقرير داخلي مسرّب من فيسبوك عام 2019، ورد ما يلي:
“We have evidence from a variety of sources that hate speech, divisive political speech, and misinformation on Facebook … are affecting societies around the world,”
“لدينا أدلّة من مصادر متعددة تُظهر أنّ خطاب الكراهية، والخطاب السياسي الانقسامي، والمعلومات المضللة على فيسبوك…تؤثر على المجتمعات في أنحاء مختلفة من العالم”.
وأضاف التقرير:
“We also have compelling evidence that our core product mechanics, such as virality, recommendations, and optimizing for engagement, are a significant part of why these types of speech flourish on the platform.”
“كما لدينا أدلّة قوية تشير إلى أنّ الآليات الجوهرية في بنية المنتج، مثل خاصيّة الانتشار السريع، وخوارزميات التوصية، وتحسين التفاعل، تُشكّل جزءًا أساسيًا من الأسباب التي تجعل هذا النوع من الخطاب يزدهر على المنصة.”
وقد ردّت الشبكة الدولية لتدقيق الحقائق على إنهاء برنامج التحقق من المعلومات الذي استمر تسع سنوات، برسالة مفتوحة أعقبت إعلان مارك زوكربيرغ في عام 2025، جاء فيها: “إن قرار إنهاء برنامج شركة ميتا للتحقق من المعلومات عبر جهات خارجية يُعدّ خطوةً إلى الوراء لكل من يسعى إلى بناء فضاء رقمي يُكرّس للمعلومات الدقيقة والموثوقة”.
معلومات هشّة وخوارزميات فوضوية
تتحكم الخوارزميات التي تقف وراء منصات التواصل الاجتماعي في ترتيب المعلومات وأولويتها وتكرارها وتوصيتها للمستخدمين عبر ميزة آخر الأخبار ونتائج البحث.
لكن، على الرغم من تعدّد التقارير والدراسات وتغيّر سلوكيات المستخدمين، لم تُقدم هذه الشركات على تعديلات تُذكر في تصميم واجهات الاستخدام تواكب أساليب التفاعل الحديثة، أو تُمكّن المستخدم فعليًا من التحقق من المعلومات بطريقة مجدية.
حتى عندما تقوم وسائل الإعلام بنشر تصحيحات للمعلومات الخاطئة أو الادعاءات التي لا تستند إلى دليل، والتي ساهمت في ترويجها، فإنّ ذلك غير كافيًا لعكس الضرر. كما أوضحت منصة First Draft News:
“It is very, very difficult to dislodge [misinformation] from your brain.”
“من الصعب جدًا جدًا أن تُزيل المعلومات المضللة من دماغك.”
عندما تُنشر معلومات زائفة على الإنترنت أو في الأخبار وتبدأ بالانتشار، حتى وإن تم حذفها خلال دقائق أو ساعات، فإنّ “الضرر قد وقع” فعليًا.
نادرًا ما تحظى التصحيحات أو البيانات التوضيحية بالاهتمام ذاته الذي تحصده المعلومة الكاذبة الأصلية، حتى إن تمّت مشاهدتها، فإنها في الغالب لا تُدمج في الذاكرة ولا تُغيّر القناعة السابقة.
الخوارزميات منتشرة إلى حدّ قد يجعلها تبدو، للوهلة الأولى، أمرًا عاديًا أو تافهًا، لكنها في الواقع شديدة الأثر. في حالات شائعة مثل الأب الذي علم بحمل ابنته من خلال خوارزمية توصية، أو الأب الآخر الذي “احتفل” في خاصية مراجعة العام بوفاة ابنته، تُبرز الحاجة الملحّة لأن يأخذ مطوّرو ومصمّمو المحتوى الخاضع للتنسيق الخوارزمي أسوأ السيناريوهات المحتملة بعين الاعتبار. على الرغْم من قلّتها، تظلّ الحالات الاستثنائية مهمّة وتستحق الفحص والتخفيف.
أظهرت تقارير ودراسات عديدة، في سياق تعميق انزلاق الجمهور في دوامة التطرف الرقمي، كيف يمكن لخوارزميات التوصية في وسائل التواصل الاجتماعي أن تؤدي إلى تطرف المستخدمين استنادًا إلى نوعية المحتوى الذي تُعطيه الأولوية وتعرضه.
“Moral outrage, specifically, is probably the most powerful form of content online.”
“الغضب الأخلاقي، على وجه الخصوص، هو على الأرجح أقوى أشكال المحتوى على الإنترنت.”
وجدت دراسة أُجريت عام 2021 أنّ خوارزمية تيك توك قادت المشاهدين من مقاطع تحتوي على خطاب كراهية ضد المتحوّلين جنسيًا نحو محتوى يميني متطرف وعنيف، يتضمّن رسائل عنصرية، معادية للنساء، ومُقصية لأصحاب الهمم.
“Our research suggests that transphobia can be a gateway prejudice, leading to further far-right radicalization.”
“تشير أبحاثنا إلى أن رهاب المتحوّلين قد يكون بوابة تمهّد للتطرّف اليميني.”
أما يوتيوب، فقد أُطلق عليه سابقًا لقب “محرّك التطرف”، ولا يزال يُواجه صعوبات واضحة في خوارزميات التوصية، كما تُظهر تقارير حديثة عن تطبيق يوتيوب كيدز الذي قاد مشاهدين صغار السن إلى محتوى مرتبط باضطرابات الأكل.
وقبيل الانتخابات الألمانية في عام 2025، أظهرت الأبحاث أن خلاصات المحتوى عبر المنصات الرقمية، خصوصًا على تيك توك، كانت تميل بوضوح نحو الخطاب اليميني.
تآكل المصداقية
أصبح الناس يبحثون عن المعلومات بطرق مختلفة، تتجاوز القنوات الإخبارية التقليدية. كشف تقرير نُشر عام 2019 أن المراهقين يحصلون على الجزء الأكبر من أخبارهم عبر وسائل التواصل الاجتماعي. وفي عام 2022، بيّن مقال أن العديد من المراهقين باتوا يستخدمون تيك توك أكثر من غوغل كمصدر للمعلومة.
في العام نفسه، أظهرت دراسة أن البالغين دون سن الثلاثين يثقون بالمعلومات الواردة من وسائل التواصل الاجتماعي تقريبًا بقدر ثقتهم بالمصادر الإخبارية الوطنية. أما في عام 2023، فقد كشف تقرير دولي شامل أن أقل من نصف المشاركين (40%) فقط قالوا إنهم “يثقون بالأخبار في معظم الأوقات”.
وقد حذّر الباحثون من أن المسار التصاعدي لاضطراب المعلومات قد يؤدي تدريجيًا إلى تعزيز سيطرة الحكومات على تدفق المعلومات، مشيرين إلى أن “الوصول إلى بنى التكنولوجيا الفائقة التركيز سيُصبح عنصرًا أكثر حيوية في أدوات القوة الناعمة التي تستخدمها القوى الكبرى لترسيخ نفوذها.”
شهدت انتخابات إندونيسيا عام 2024 بروزًا لافتًا لاستخدام الصور الرمزية الرقمية المُنتَجة عبر الذكاء الاصطناعي، خصوصًا في استقطاب انتباه الناخبين الشباب.
استخدم المرشّح السابق والرئيس الحالي برابوو سوبيانتو صورة رمزية رقمية لطيفة، صمّمها الذكاء الاصطناعي التوليدي، ووزّعها على منصات التواصل، بما في ذلك تيك توك، ما مكّنه من إعادة تشكيل صورته العامة بالكامل والفوز بالرئاسة، في تحوّل صرف الأنظار عن اتهامات خطيرة طالته بارتكاب انتهاكات جسيمة لحقوق الإنسان.
يُعد الذكاء الاصطناعي التوليدي، بما فيه روبوتات المحادثة مثل ChatGPT، أيضًا عنصرًا محوريًا في تفاقم اضطراب المعلومات، نظرًا لقدرته على إنتاج نصوص وصور واقعية بدرجة عالية من الإقناع.
حتى المحتوى الذي يبدو غير مؤذٍ على صفحات مزعجة مثل “Shrimp Jesus” يمكن أن يُفضي إلى عواقب واقعية ملموسة، مثل تآكل الثقة، والتعرض للاحتيال، وتسريب البيانات الشخصية لصالح سماسرة المعلومات الذين يعيدون تغذية تلك البيانات في الأنظمة، مما يُسهم في تعزيز التأثير الرقمي.
علاوة على ذلك، قد تكون مخرجات الذكاء الاصطناعي التوليدي خاضعة لقدر عالٍ من الضبط والتحكّم. ووفقًا لتقرير Freedom House لعام 2023:
“Automated systems have enabled governments to conduct more precise and subtle forms of online censorship,”
“الأنظمة المؤتمتة مكّنت الحكومات من تنفيذ أشكال أكثر دقّة وهدوءًا من الرقابة الرقمية.”
وأضاف التقرير:
“Purveyors of disinformation are employing AI-generated images, audio, and text, making the truth easier to distort and harder to discern.”
“مروّجو المعلومات المضللة باتوا يستخدمون صورًا وأصواتًا ونصوصًا مُنتجة عبر الذكاء الاصطناعي، مما يجعل الحقيقة أكثر قابلية للتشويه، وأصعب في التمييز.”
كما أكدنا مرارًا وتكرارًا في هذه السلسلة، فإنّ التكنولوجيا ليست خيرًا مطلقًا ولا شرًا مطلقًا، إنّما تتحدّد قيمتها بالغاية التي تُستخدم من أجلها.
“Technology inherits the politics of its authors, but almost all technology can be harnessed in ways that transcend these frameworks.”
“التكنولوجيا ترث السياسات والأيديولوجيات التي يحملها مُصمّموها، لكن معظم التقنيات يمكن تسخيرها بطرق تتجاوز هذه الأطر.”
تُفيد هذه الاستخدامات المختلفة والمقارنات عند مناقشة أدوات وأساليب بعينها، لكنها تظل مفيدة على مستوى سطحي فقط كما في حالة الصور الرمزية الرقمية التي أُشير إليها في هذا السياق.
أحد الأمثلة البارزة يأتي من فنزويلا، حيث تهيمن الرسائل المؤيدة للحكومة المُنتَجة عبر الذكاء الاصطناعي على المشهد الإعلامي، بينما يواجه العاملون في الصحافة تهديدات جدّية بالسجن.
في مواجهة هذا الواقع، لجأ الصحفيون إلى استخدام الصور الرمزية الرقمية لحماية هويتهم والحفاظ على خصوصيتهم. هذه بلا شك قصة صمود، لكنها تقع ضمن سياق أوسع وأكثر قتامة يتعلّق بالسلطة والعقاب. فرغم أن أي أداة بعينها قد تكشف عن فوائد ومخاطر في استخدامها، إلا أن توسيع زاوية النظر يكشف عن بنى سلطوية وهيكلية تُعرّض الناس للخطر، والمقايضات الناتجة عن استخدام التكنولوجيا ليست متكافئة بطبيعتها.
يمكن لحقيقتين أن تتعايشا في آنٍ واحد؛ فالتكنولوجيا تُستخدم من جهة كأداة لتمكين الأفراد وتعزيز قدراتهم، وتُستخدم من جهة أخرى كوسيلة للإيذاء والقمع. وهذه المزدوجة ليست تفصيلًا عابرًا، بل مسألة جوهرية تعكس التوتر البنيوي في علاقة الإنسان بالتقنية.







