تكنولوجيا

“ميتا” تدين نفسها في تدبيرها “المنحاز” لإسرائيل بمحتوى الحرب بغزة

“ميتا” تدين نفسها في تدبيرها “المنحاز” لإسرائيل بمحتوى الحرب بغزة

خلص تقرير لمجلس رقابة أنشأته شركة ميتا أن الأخيرة المالكة لمنصتي فيسبوك وإنستغرام، قد انتهكت قواعدها الخاصة بإدارة المحتوى، عبر إزالة منشورين حول الحرب في غزة من وسائل التواصل الاجتماعي في أكتوبر.

وأشار مجلس الرقابة، الممول من قبل ميتا للإشراف بصورة مستقلة على القرارات المتعلقة بإدارة المحتوى إلى أنه ما كان ينبغي إزالة المحتوى الخاص بالمنشورين.

ويحث المجلس الشركة على استخدام المزيد من الإدارة البشرية للمحتوى بدلاً من البرمجيات الآلية لضمان حرية التعبير.

وواجهت المنصة اتهامات بحجب المحتوى خلال الصراع بين إسرائيل وحماس في غزة.

ووفقاً لمجلس الرقابة، فإن أول مقطع فيديو أجرى تحقيقات حوله، نُشر على انستغرام وهو يُظهر ما خلفته غارة جوية إسرائيلية على مستشفى الشفاء في غزة خلال الهجوم البري الإسرائيلي.

ويُظهر المنشور فلسطينيين، بينهم أطفال مصابون أو قتلى، وعملت الأنظمة الآلية في ميتا بوضع علامة على المحتوى وإزالته لاحتوائه على مشاهد صعبة للغاية.

أما القضية الثانية فتتعلق بمقطع فيديو نُشر على فيسبوك وهو لامرأة إسرائيلية تتوسل إلى خاطفيها كي لا يقتلوها أثناء أخذها رهينة خلال هجوم حماس على إسرائيل في السابع من أكتوبر.

واعتبرت برمجيات إدارة المحتوى أن الفيديو يروّج لمنظمة إرهابية من خلال نشر رسالة حماس وبالتالي تمت إزالة هذا الفيديو أيضاً.

وقدّم المستخدمون في كلتا الحالتين شكوى لدى مجلس المراقبة الذي قام بأول “مراجعة مستعجلة” له على الإطلاق، إذ توصل إلى قرار خلال 12 يوماً (بدلاً من الوقت المعتاد والبالغ 90 يوماً) مفاده أن المحتوى تمت إزالته دون وجه حق. فأعادت ميتا نشر المقطعين مع إضافة تحذيرات للمشاهدين.

والآن يقول المجلس إنه يتعين على ميتا بذل المزيد من أجل الاستجابة بصورة أسرع للظروف المتغيرة على الأرض.

ويقول أيضاً إن القضيتين تشيران إلى أن استخدام الأدوات الآلية لإدارة المحتوى (بدلاً من المدير البشري) يزيد من احتمال حجب منشورات “قيّمة” عن طريق الخطأ.

وقال مايكل ماكونيل، الرئيس المشارك لمجلس الرقابة إن “هذه القرارات كان من الصعب جداً اتخاذها وتطلبت نقاشات مطولة ومعقدة داخل المجلس”.

وقال ماكونيل إن “المجلس ركّز على حماية الحق في حرية التعبير للأشخاص من كافة الأطراف حول هذه الأحداث المرعبة، مع ضمان أن لا تكون أي من الشهادات تحرض على العنف أو الكراهية. وهذه الشهادات مهمة، ليس فقط للمتحدثين عنها، وإنما أيضاً للمستخدمين حول العالم الذين يسعون للحصول على المعلومات المتنوعة في الوقت المناسب حول الأحداث الدائرة، وبعضها قد يمثل أدلة مهمة على انتهاكات خطيرة محتملة لحقوق الإنسان والقانون الدولي الإنساني”.

وأشار ماكونيل إلى أن “منصات التواصل الاجتماعي مثل فيسبوك وإنستغرام غالباً ما تكون هي الوسائط الوحيدة خلال الصراع المسلح التي تقدم المعلومات، خاصة عندما يكون وصول الصحفيين مقيّد أو حتى محظور”.

ونشر مجلس الرقابة بيانات أيضاً حول إدارة المحتوى الخاص بالحرب في غزة على المنصات تشرح أن المجلس شاهد، خلال الأسابيع التي تلت هجوم السابع من أكتوبر، زيادة بثلاثة أضعاف في المعدل اليومي لطلبات الاستئناف (على قرارات ميتا) من جانب المستخدمين، مرتبطة بمنطقة الشرق الأوسط وشمال أفريقيا.

وفي أكتوبر الماضي، اعتذرت ميتا عن خطأ تقني أضاف عبارة “إرهابي” إلى السير الذاتية المترجمة لبعض مستخدمي انستغرام الذين يصفون أنفسهم بأنهم فلسطينيون.

وهناك اتهامات سابقة لشركة “ميتا” بحجب المحتوى المؤيد للفلسطينيين وهي اتهامات موثقة تماماً.

وفي ماي 2021، اتهمت منظمة هيومان رايتس ووتش إنستغرام بإزالة مقاطع فيديو وصور وتعليقات حول الأزمة.

وقالت شركة التواصل الاجتماعي رداً على الاتهامات إن المنشورات أزيلت لاحتوائها على “خطاب أو رموز كراهية”، وغيرت من الخوارزميات الخاصة بها، لكن الاتهامات أدت إلى تكليف ميتا (مجلس الرقابة) بإجراء مراجعة مستقلة لإدارتها للمحتوى الخاص بالحرب الإسرائيلية – الفلسطينية في 2021.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

تابع آخر الأخبار من مدار21 على WhatsApp تابع آخر الأخبار من مدار21 على Google News