سياسة جلوبال فويسز حول الذكاء الاصطناعي: لماذا نتمسك بالإنسان أولًا؟

تفتخر “جلوبال فويسز” بنشر كتابات وترجمات ورسومات يبدعها البشر من أجل بشر، ونتوقع من مساهمينا الحفاظ على هذا المعيار.

مع تزايد شيوع استخدام الأدوات القائمة على النماذج اللغوية الكبيرة (LLMs) مثل “تشات جي بي تي” (ChatGPT) و”ديب سيك” (DeepSeek) و”ميدجورني” (Midjourney)، وغيرها من أشكال “الذكاء الاصطناعي” التوليدي، وتكاملها المتزايد مع المنصات وأنظمة التشغيل الحالية، أصبح من الضروري لجلوبال فويسز وضع سياسة واضحة بشأن استخدامها على موقعنا.

لدينا سببان رئيسيان للحد من استخدام النماذج اللغوية الكبيرة في عملنا، وكلاهما مرتبطان بمهمتنا الأساسية:

  1. الثقة. لم تُبرمج النماذج اللغوية الكبيرة لتكون واقعية أو دقيقة بالضرورة. ورغم أن نماذج الاحتمالات الخاصة بها قد تنتج أحيانًا معلومات صحيحة، إلا أن ذلك ليس أحد أهدافها الأساسية، والأمثلة على الردود الخاطئة تمامًا كثيرة. نسعى جاهدين لنقل الحقائق، فالاعتماد على النماذج اللغوية الكبيرة في الكتابة أو الترجمة، أو البرامج التي تولد رسومات أو توضيحات بناءً على أمر نصي، من شأنه المخاطرة بانتهاك تلك المبادئ، فضلاً عن تآكل الثقة التي نطلبها من قرائنا.
  2. إيصال الأصوات غير الممثلة. تستخدم النماذج اللغوية الكبيرة البيانات الموجودة —على سبيل المثال، النصوص الرقمية التي تم تدريبها عليها— لحساب الردود المحتملة. وبالتالي، فإن النتائج التي تنتجها تكون منحازة نحو البيانات الأكثر شيوعًا ووفرة المتاحة عبر الإنترنت. وهذا، على المدى الطويل، يؤدي إلى دفع الإنترنت نحو التجانس والتشابه، وتهميش أو محو التعدد والاستثناءات، بما في ذلك الأصوات الأقل تمثيلًا التي نلتزم كمؤسسة بدعمها وإبرازها. نحن نسعى لنشر الأفكار والمعرفة حتى —بل وبالأخص— إذا لم تتناسب تمامًا مع اللغة القياسية أو طرق التفكير السائدة. هذا أهم بكثير بالنسبة لنا من شيء “يبدو” صحيحًا لغويًا ولكنه لا يعبر عن وجهة نظر مبنية على تجارب ورؤى إنسان فرد.

بالإضافة إلى هذين السببين، هناك اعتبارات مهمة أخرى: الأثر البيئي للنماذج اللغوية الكبيرة؛ وقضايا حقوق النشر التي يثيرها كل من تدريبها ومخرجاتها، واحترام المؤلفين والرسامين الذين استُخدمت أعمالهم دون إذن؛ وتهميش البشر الذين يعملون على تنقيح عمليات هذه النماذج، غالبًا مقابل أجور زهيدة وفي ظروف سيئة.

إيجاد التوازن

نتفهم أن النماذج اللغوية الكبيرة تبدو وكأنها توفر طريقة سهلة للكتابة أو الرسم أو الترجمة، وأنها مريحة بشكل خاص للأشخاص الذين يكتبون بلغة قد لا تكون لغتهم الأولى، أو يحتاجون إلى الامتثال لقواعد أسلوب أو معايير نشر غير مألوفة. كما ندرك أن النماذج اللغوية الكبيرة، وغيرها من التقنيات المجمعة تحت راية “الذكاء الاصطناعي”، لا يمكن تمييزها دائمًا بسهولة، بل هي طيف يتراوح من مدققات الإملاء والقواعد إلى المخرجات القائمة على الأوامر النصية، وغالبًا ما تكون مدمجة مع برامج أخرى، مما يجعل من الصعب العمل بدونها تمامًا.

علاوة على ذلك، ندرك أن الكتاب والرسامين والمترجمين استخدموا منذ فترة طويلة أدوات مختلفة لدعم عملهم، مثل القواميس والمعاجم وأدلة الأسلوب، والرسومات/الصور المرجعية، وما إلى ذلك. وتعمل بعض التطبيقات المشار إليها باسم “الذكاء الاصطناعي” بطريقة مماثلة. فقد يبحث المترجمون عن كلمات محتملة في مترجم عبر الإنترنت بدلاً من الوصول إلى قاموس ورقي؛ وقد يقوم الكتاب بتشغيل التدقيق الإملائي أو البحث عن مرادفات.

ومع ذلك، تمامًا كما لا نقبل مقالًا منسوخًا من موسوعة أو ويكيبيديا (حتى مع تغيير بعض الكلمات)، أو ترجمة استبدلت كل كلمة بنتيجة بحث في القاموس، فلن نقبل أيضًا كتابة أو ترجمة أو رسمًا تم إنشاؤه تلقائيًا بالكامل.

كمؤسسة لا مركزية، يجب أن نكون قادرين على وضع درجة عالية من الثقة في مساهمينا. لا توجد تقنيات حالية يمكنها تحديد الكتابة أو الترجمة المولدة بواسطة النماذج اللغوية الكبيرة، أو الرسومات المولدة بالأوامر النصية بشكل موثوق، وتلك التي تدعي القيام بذلك غالبًا ما تعاني من نفس المشاكل الأخلاقية والبيئية التي تعاني منها النماذج اللغوية الكبيرة نفسها. لذلك، نحتفظ بالحق في إخضاع الكتابة أو الترجمة أو الرسومات التي تظهر عليها علامات الاعتماد على هذه التقنيات لمراجعة صارمة، وطلب إعادة الكتابة أو رفض النشر أو إزالة المقالات تمامًا حسب الاقتضاء، إذا وجدنا أن هذه الأدوات قد استُخدمت بطرق تتعارض مع مهمتنا.

وأخيرًا، نعلم أن التكنولوجيا تتغير بسرعة؛ ومن المحتمل أن تحتاج هذه السياسة إلى التغيير أيضًا، وسنقوم بتحديثها حسب الحاجة.