«فيسبوك» متهمة بتقديم الأرباح على سلامة المستخدمين

«فيسبوك» متهمة بتقديم الأرباح على سلامة المستخدمين

تخوض "فيسبوك" أخطر أزمة لها منذ فضيحة "كامبريدج أنالتيكا" بعدما اتهمت مبلغة الشركة بتقديم "الربح على الأمان"، وسلطت الضوء على أعمالها الداخلية من خلال آلاف الصفحات من المذكرات الداخلية المسربة.
تم الكشف عن الوثائق للمنظمين الأمريكيين وقدمها المستشار القانوني لفرانسيس هوجن إلى الكونجرس بصيغة منقحة. حصل اتحاد من المؤسسات الإخبارية، بما في ذلك صحيفة "فاينانشيال تايمز"، على النسخ المنقحة التي تلقاها الكونجرس.
في وقت سابق من هذا الشهر، أدلت هوجن بشهادتها في الكونجرس، قائلة إن شبكة وسائل التواصل الاجتماعي لا تعمل ما يكفي لضمان سلامة مستخدميها البالغ عددهم 2.9 مليار، وتستخف بالضرر الذي يمكن أن تسببه للمجتمع، وأنها ضللت المستثمرين والجمهور مرارا وتكرارا. نشرت صحيفة "وول ستريت جورنال" أيضا سلسلة من المقالات تحت عنوان، مستندات فيسبوك.
فيما يلي أربع اكتشافات مفاجئة تحويها الوثائق:
أولا، "فيسبوك" لديها مشكلة لغوية ضخمة. في الأغلب ما تتهم "فيسبوك" بالفشل في مراقبة خطاب الكراهية على موقعها باللغة الإنجليزية، لكن المشكلة أسوأ بكثير في الدول التي تتحدث لغات أخرى، حتى بعد أن وعدت باستثمار مزيد عقب إلقاء اللوم عليها لدورها في تسهيل الإبادة الجماعية في ميانمار في 2017.
حذرت إحدى الوثائق من العدد الضئيل للغاية من المشرفين على المحتوى باللهجات العربية. وجدت دراسة أخرى عن أفغانستان، حيث يوجد خمسة ملايين مستخدم لفيسبوك، أن الصفحات التي تشرح كيفية الإبلاغ عن خطاب الكراهية تمت ترجمتها بشكل غير صحيح.
حدثت الإخفاقات على الرغم من أن بحث فيسبوك الخاص وضع بعض الدول على أنها "عالية الخطورة" بسبب المشهد السياسي الهش وتكرار خطاب الكراهية.
وفقا لإحدى الوثائق، خصصت الشركة 87 في المائة من ميزانيتها لتطوير خوارزميات الكشف عن المعلومات المضللة في 2020 للولايات المتحدة، مقابل 13 في المائة لبقية العالم.
قالت هوجن، إن "فيسبوك" يجب أن تكون واضحة بشأن الموارد التي تمتلكها حسب البلد واللغة.
ثانيا، لا تفهم "فيسبوك" في أغلب الأحيان كيف تعمل خوارزمياتها. يظهر عديد من الوثائق أنها في حيرة من أمرها بسبب الخوارزميات الخاصة بها.
وجدت مذكرة داخلية في أيلول (سبتمبر) 2019 أن الرجال تظهر لهم منشورات سياسية أكثر 64 في المائة من النساء في "كل بلد تقريبا"، مع كون هذه القضية كبيرة بشكل خاص في الدول الإفريقية والآسيوية.
بينما كان من المرجح أن يتابع الرجال الحسابات التي تنتج محتوى سياسيا، قالت المذكرة الداخلية إن خوارزميات ترتيب المحتوى على "فيسبوك" لعبت أيضا دورا مهما.
وجدت مذكرة داخلية تعود إلى حزيران (يونيو) 2020 أنه من "المضمون فعليا" أن "أنظمة فيسبوك الرئيسة تظهر تحيزات منهجية بناء على عرق المستخدم".
أشار المؤلف إلى أن ترتيب المحتوى الإخباري ربما يتأثر أكثر بالأشخاص الذين يشاركون بشكل متكرر أكثر من أولئك الذين يشاركون وينخرطون بشكل أقل، الأمر الذي قد يرتبط بالعرق. ينتج عن ذلك إعطاء الأولوية لمحتوى من أعراق معينة على غيرها.
ثالثا، مع فشل الذكاء الاصطناعي الخاص بها، جعلت "فيسبوك" من الصعب الإبلاغ عن خطاب الكراهية. قالت "فيسبوك" منذ فترة طويلة إن برامج الذكاء الاصطناعي الخاصة بها يمكنها اكتشاف وإزالة خطاب الكراهية وإساءة الاستخدام، لكن الوثائق تظهر أن لهذه البرامج حدودا.
وفقا لمذكرة أصدرتها مجموعة من الباحثين في آذار (مارس) 2021، الشركة تتخذ إجراءات بشأن ما لا يزيد على 3 إلى 5 في المائة من خطاب الكراهية و0.6 في المائة من المحتوى العنيف. تشير مذكرة داخلية أخرى إلى أن ذلك قد لا يتمكن أبدا من تجاوز نسبة 10 إلى 20 في المائة، نظرا إلى أن فهم السياق الذي تستخدم فيه اللغة "يمثل تحديا غير عادي" للذكاء الاصطناعي.
مع ذلك، قررت "فيسبوك" فعليا في 2019 الاعتماد بشكل أكبر على الذكاء الاصطناعي وخفض الإنفاق على الكادر البشري عندما يتعلق الأمر بخطاب الكراهية. على وجه الخصوص، جعلت الشركة من الصعب الإبلاغ والاستئناف ضد القرارات المتعلقة بخطاب الكراهية.
قالت "فيسبوك"، "عند محاربة خطاب الكراهية على فيسبوك، فإن هدفنا هو تقليل انتشاره، وهو مقدار ما يراه الناس بالفعل". أضافت أن خطاب الكراهية يمثل 0.05 في المائة فقط مما يراه المستخدمون، وهو رقم انخفض 50 في المائة خلال الأرباع الثلاثة الماضية.
رابعا، تكشف الوثائق عن الصعوبة التي واجهتها "فيسبوك" لاحتواء انفجار خطاب الكراهية والمعلومات المضللة على منصتها حول أعمال الشغب التي أثارها أنصار الرئيس الأمريكي السابق، دونالد ترمب، في السادس من كانون الثاني (يناير) في واشنطن.
تظهر المذكرات الداخلية أن الشركة أوقفت بعض إجراءات الحماية في حالات الطوارئ في أعقاب انتخابات تشرين الثاني (نوفمبر) 2020، لتهرع إلى إعادة بعضها مرة أخرى مع اندلاع أعمال العنف. وجد أحد التقييمات الداخلية أن التنفيذ السريع للإجراءات قد تعرقل بسبب انتظار الموافقة من الفريق المعني بالسياسات.
حتى الإجراءات الاستباقية فشلت في تحقيق التأثير المطلوب. في تشرين الأول (أكتوبر) 2020، أعلنت "فيسبوك" أنها ستوقف التوصية بـ"المجموعات المدنية" التي تناقش القضايا الاجتماعية والسياسية. لكن نتيجة لصعوبات فنية في تنفيذ التغيير لا يزال ثلاثة ملايين مستخدم أمريكي يوصون بمجموعة مدنية واحدة على الأقل من بين 700 ألف مجموعة مدنية محددة يوميا بين منتصف تشرين الأول (أكتوبر) 2020 ومنتصف كانون الثاني (يناير) 2021، وفقا لمذكرة بحثية.
رفضت "فيسبوك" التعليق على بعض تفاصيل الادعاءات، وبدلا من ذلك قالت إنها لم تضع الأرباح قبل سلامة الناس، وإن "الحقيقة هي أننا استثمرنا 13 مليار دولار ولدينا أكثر من 40 ألف شخص للقيام بعمل واحد، المحافظة على سلامة الناس في منصة فيسبوك ".

الأكثر قراءة