
صورة من تصميم أويوان لام باستخدام كانفا برو
منذ إطلاقها في يناير/كانون الثاني 2025، تحدّت أداة الذكاء الاصطناعي التوليدية الصينية (DeepSeek R1) الاعتقادات السائدة حول تطوير الذكاء الاصطناعي، كفاءة التكلفة، والمنافسة العالمية، حتى اعتبر بعضهم بمساواة فرص تطوير الذكاء الاصطناعي. مع ترويج الحزب الشيوعي الصيني (CCP) لأداة Deepseek خارج الصين، وجعل تكنولوجيا الذكاء الاصطناعي المتقدمة متاحة للدول النامية في الجنوب العالمي، تأتي هذه المبادرة مصحوبة بمخاطر خفية وتبعات متعلقة بحقوق الإنسان.
كان الخبراء يعتقدون سابقًا بحدوث الابتكار المتقدم في الذكاء الاصطناعي في الدول الغنية، مدعومًا بشركاتٍ قوية بسبب التكاليف الهائلة للأجهزة. حتى تصريح سام ألتمان، مؤسس شركة OpenAI، خلال زيارته الهند عام 2023 بأن تدريب أنظمة الذكاء الاصطناعي الأساسية بميزانية تبلغ 10 ملايين دولار أمريكي سيكون عبثًا. “يمكنك المحاولة لكن سيكون من المستحيل المنافسة معنا.”
— Amitabh Verma (@amitabh26) June 8, 2023
سام ألتمان – مؤسس OpenAI وChatGPT – في الهند، يرد على أسئلة بعض المستثمرين في المشاريع الناشئة
مع ذلك، جاءت اختراقات ديبسيك لتقلب تصريحات ألتمان رأسًا على عقب واضطرَّ للاعتراف بأن الذكاء الاصطناعي الصيني “نموذج مثير للإعجاب، خصوصًا بما يمكنهم تقديمه مقابل السعر.”
“الذكاء الاصطناعي المصنوع في الصين أثار اهتمامًا واسعًا في الدول النامية، ومهّد الطريق أمام الصين لتتربع كشريكٍ تكنولوجي أساسيٍ للعالم الجنوبي، دافعةً بسردية ردم فجوة الذكاء الاصطناعي في المناطق الأقل تطورًا.”
بالإضافة، فإن توظيف الصين الاستراتيجي للذكاء الاصطناعي في سياستها الخارجية مع مبادرات، مثل Digital Silk Road، ومُقترح إنشاء منظمة التعاون العالمي للذكاء الاصطناعي، قد يُعيد رسم موازين القوى الإقليمية لصالحها.
إن طبيعة DeepSeek R1 مفتوحة المصدر، تتيح للمطورين تنزيل النموذج وتعديله وضبطه بدقة بما يلائم الظروف المحلية. يمكن تكييفه مع لغاتٍ إقليمية مثل السواحيلية والهوسا والأمهرية، والأوضاع الاقتصادية المختلفة.
على سبيل المثال، تخطط الحكومة الإندونيسية لتطوير نموذجها المحلي الخاص من ديبسيك لاستخدامه في القطاعات الحكومية والخاصة.
اقرأ المزيد : هل يمتلك الذكاء الاصطناعي فعلًا القدرة على تحسين حياة الأغلبية السكانية في الدول النامية؟
هذه الروابط لا تُمكّن النمو التكنولوجي فحسب، بل تُعزّز أيضًا التوافق الجيوسياسي.
يرى بعض المحللين أن ازدياد الاعتماد على التكنولوجيا والمعايير وتدفّق البيانات الصينية في إفريقيَا وآسيا قد يغيّر موازين القوى بعيدًا عن الولايات المتحدة وأوروبا. كما يمكن ترك أثرًا على التوازن داخل المنتديات الدولية، مثل الأمم المتحدة.
إعادة تشكيل السياسات العالمية
إن استخدام ديبسيك، سواء استُخدم داخل الصين أو خارجها، يضبط مخرجات روبوت الدردشة بما يساير المواقف الرسمية للحزب الشيوعي الصيني. في حين نشرت عدة وسائل إعلام تقارير عن الرقابة أو تعديل الردود في المواضيع السياسية الحساسة، فإن الخطر الحقيقي لا يكمن بمجرد حجب المعلومات أو حذفها.
بحسب آليكس كولفيل، الباحث في مشروع الإعلام الصيني (CMP)، فإن تشكيل السرديات عبر الذكاء الاصطناعي التوليدي يُعدّ أسلوبًا متقدّمًا للتلاعب بالرأي العام. وفيما يلي مثال ورد في تقرير المشروع:
When asking questions about natural disasters in China, for example, the model treats Chinese government data and sources as infallible, and portrays the leadership’s response as being effective, transparent and humane. Meanwhile, dissenting voices are either minimized, omitted entirely, or explained away as “biased” or lacking understanding.
عند طرح أسئلةٍ عن الكوارث الطبيعية في الصين، يتعامل النموذج مع بيانات ومصادر الحكومة الصينية كأنها شيء موثوق تمامًا ويقدّم النموذج صورةً عن إجراءات الحكومة الصينية تجاه الكارثة باعتبارها فعّالة، شفافة، وإنسانية. وفي الوقت نفسه، يتم تقليص الآراء المعارضة أو حذفها بالكامل، أو تبريرها باعتبارها “منحازة” أو تفتقر للفهم.”
بعبارةٍ أخرى، قد يتحول نموذج ديبسيك اللغوي الكبير (LLM) لأداة تمرير التوجهات السياسية لبكين، والمساهمة في رسم الصورة حول قضايا حساسة، كحقوق الإنسان وتايوان والتنمية الاقتصادية ودور الصين في التجارة العالمية.
والأخطر من ذلك، أن السرديات السياسية الصينية قد تُصدّر لدولٍ أخرى بتكييف النموذج اللغوي الكبير(LLM). وقد حذّر أحد الباحثين في مشروع الإعلام الصيني:
But if even cutting-edge tech companies in developed nations, for all their resources and funds, are struggling to train propaganda out of DeepSeek, what hope do start-ups in the Global South have?
لكن إذا كانت حتى الشركات التقنية الرائدة في الدول المتقدمة ، على الرغم من مواردها الضخمة وأموالها، تكافح لتنقية مخرجات DeepSeek من الرسائل الدعائية، فما الأمل أمام الشركات الناشئة في العالم الجنوبي؟
أثارت أداة ديبسيك مخاوف بعض الدول مثل أستراليا، كوريا الجنوبية، وتايوان، التي حظرت استخدامه على الأجهزة الحكومية، مستشهدة بمخاطر أمنية وغياب الشفافية حول كيفية معالجة ديبسيك للبيانات الشخصية للمستخدمين.
الدعاية الصينية بالذكاء الاصطناعي: ما وراء اداة ديبسيك
أظهرت عدة تقارير بأن الصين استغلت “ديبسيك” وتقنيات الذكاء الاصطناعي الأخرى لإنشاء ونشر الدعاية، ويتضمن ذلك Deepfakes والمحتوى المعدّل، للتأثير على الرأي العام وزرع الانقسامات في دولٍ أخرى.
أشار خبراء أمن البيانات، بريت غولدنشتاين وبريت بينسون من جامعة فاندربيلت، إلى شركة صينية تعمل بالذكاء الاصطناعي (Golaxy) التي، بالإضافة إلى مراقبة الرأي العام، تستخدم الذكاء الاصطناعي لجمع كمية بيانات ضخمة من منصات التواصل الاجتماعي الصينية والغربية، وإنشاء “شبكات بوت شبيهة بالبشر” و”تحليل نفسي لاستهداف الأفراد”.
بينما نفت الشركة هذه الادعاءات، حذّر الباحثان في مقال رأي نشرته صحيفة نيويورك تايمز:
A.I.-driven propaganda is no longer a hypothetical future threat. It is operational, sophisticated and already reshaping how public opinion can be manipulated on a large scale.
لم تعد الدعاية المعززة بالذكاء الاصطناعي خطر افتراضي يلوح في المستقبل. فهي تعمل بالفعل وبدرجة عالية من التطوّر، وأصبحت تعيد تشكيل أساليب التلاعب بالرأي العام على نطاق واسع.
تُظهر الوثائق المسربة بأنه الشركة أجرت عمليات في هونج كونج عام 2020، بالتزامن مع تمرير المدينة قانون الأمن القومي، “بالتعرّف على آلاف المشاركين والقيادات الفكرية بين 180 ألف حساب على تويتر في هونج كونج”، وثم “ملاحقة ما يعتبر أكاذيب ومفاهيم مضللة” عبر شبكاتها الآلية. كما تم رصد عملية مشابهة خلال الانتخابات العامة في تايوان عام 2024.
شرح الباحثان كيف تلاعبت الدعاية المدعومة بالذكاء الاصطناعي بالرأي العام على نطاق واسع عبر منصات التواصل الاجتماعي :
By extracting user data and studying broader patterns, A.I. can build synthetic messaging designed to appeal to a wide spectrum of the public. It can adapt to a user’s tone, values, habits and interests, according to the documents. Then it can mimic real users by liking posts, leaving comments and pushing targeted content.
من خلال استخراج بيانات المستخدمين ودراسة الأنماط الأوسع، يمكن للذكاء الاصطناعي إنشاء رسائل مصطنعة مصممة لجذب أطياف واسعة من الجمهور العام. حسب الوثائق، يمكن تكييفها لتلائم أسلوب المستخدم وقيمه وعاداته واهتمامته. كما يمكن تقليد المستخدمين الحقيقيين بوضع إعجابات على المنشورات، كتابة تعليقات، وترويج المحتوى المستهدف.
تقرير عام 2024 بعنوان “نفس الأهداف، كتيّبات جديدة”، صادر عن قسم استخبارات التهديدات في مايكروسوفت، أكد أيضًا كيف كثّفت الصين حملات نفوذها على الإنترنت في منطقة آسيا والمحيط الهادئ باستخدام محتوى مُولّد بالذكاء الاصطناعي. وجاء في التقرير:
The influence actors behind these campaigns have shown a willingness to both amplify AI-generated media that benefits their strategic narratives, as well as create their own video, memes, and audio content. Such tactics have been used in campaigns stoking divisions within the United States and exacerbating rifts in the Asia-Pacific region — including Taiwan, Japan, and South Korea.
أظهر المؤثرون المسؤولون عن هذه الحملات قابلية لتطبيق الإعلام المطور بالذكاء الاصطناعي الذي يخدم السرديات الاستراتيجية، بالإضافة إلى لإنشاء فيديوهات خاصة بهم، ميمز، ومحتوى صوتي. استُخدمت هذه التكتيكات في حملات تغذي الانقسامات ضمن الولايات المتحدة الأمريكية، وزيادة حدة الانقسامات في منطقة المحيط الهادئ في آسيا – بما يتضمن تايوان واليابان وكوريا الجنوبية.
تصدير تكنولوجيا المراقبة
إلى جانب النماذج اللغوية الكبيرة، روجت الصين أيضًا لتصدير تقنيات ذكاء اصطناعي أخرى، كالتعرف على الوجه. أعرب بعض الباحثين عن قلقهم حيال تأثير تقنيات المراقبة هذه. على سبيل المثال، أعربت أستاذة القانون، آنا برادفورد، عن قلقلها في دراستها عن السلطوية الرقمية الصينية، مع تصدير التكنولوجيا الرقمية وبُنيتها التحتية، ستسعى الحكومة الصينية إلى ترويج معاييرها التنظيمية وممارساتها الرقابية على مستوى العالم:
Many receiving countries have welcomed Chinese technologies and accompanying regulatory standards as a path toward digital sovereignty and development. For authoritarian governments, an additional motivation has been to gain access to surveillance technologies that they eagerly use toward illiberal ends.
رحبت العديد من الدول المستقبِلة بالتقنيات الصينية والمعايير التنظيمية المصاحبة لها كطريق نحو السيادة الرقمية والتنمية. أما بالنسبة للحكومات السلطوية، فكان هناك دافع إضافي يتمثل في الحصول على تقنيات المراقبة التي تستخدمها بحماسة لتحقيق غايات غير ديمقراطية.
أما بالنسبة للدول النامية، يمكن لتكنولوجيا المراقبة الصينية قليلة الثمن حل العديد من المشاكل، مثل الحد من الجرائم، ولكن هناك حاجة إلى المزيد من الأبحاث لمعرفة تأثيرها على المؤسسات الديمقراطية، والحريات المدنية، وديناميكيات القوى العالمية، كما قالت خبيرة الشؤون العامة شينا تشيستنت جريتنز.
تسعى حكومة بيكين لتكون شريكًا تقنيًا أساسيًا للعالم الجنوبي، بتقديم أنظمة منخفضة التكلفة وقابلة للتكييف مثل DeepSeek R1. من خلال هذه التكتيكات،لا تبني الدولة السلطوية قدرة رقمية فحسب، بل تخلق أيضًا توافق سياسي محتمل، لتفرض دورها كقيادة في حوكمة الذكاء الاصطناعي على المستوى العالمي.
في الوقت الحالي، تتسابق الولايات المتحدة مع الصين في حوكمة الذكاء الاصطناعي، بهدف حماية مصالحها الاقتصادية العالمية بشكل رئيس. ظلّت دعوات المجتمع المدني لتطوير إطار حقوق الإنسان ضمن حوكمة الذكاء الاصطناعي العالمي مهمّشة. دون تدخل مناسب، قد نشهد اعتيادًا عالميًا لاستخدام تقنيات الذكاء الاصطناعي لأغراض المراقبة والدعاية.







