مقدمة للترجمة
لا تتوقف التداعيات السلبية للأخبار الكاذبة في النطاقات الصحية عند حد التأثيرات النفسية، إذ تمتد مُسبّبة أضرارا مباشرة تصل إلى حد الوفاة. ومن هنا وجب علينا أن نتساءل عن السبب في انتشار تلك النوعية من المعلومات المضللة، أهي فقط طبيعة البشر الذين يعشقون الإثارة والفكر المؤامراتي، أم أن المنصات التي تُنشر عليها تلك الأخبار لها دور في تلك الكارثة؟ لماذا يتردد فيسبوك في حذف حسابات المشاهير الذين يضللون الناس؟ ولِمَ تسمح المنصة بانتشار المعلومات المضللة في المجموعات والصفحات التي يجتمع فيها المتطرفون سياسيا؟ والأهم من ذلك، لِمَ تمنع منصات يوتيوب وتويتر وفيسبوك الباحثين في هذه النطاقات من الوصول إلى جميع المعلومات المطلوبة لتحليل الظاهرة؟!
مادة الترجمة
تَعَرّض فيسبوك مؤخرا إلى انتقادات عديدة بسبب السماح للمعلومات الطبية المضللة بالانتشار على المنصة، وظهرتْ بعض المستندات الداخلية المُسرَّبة التي تشير إلى أن فيسبوك قد يكون أسوأ مما كنا نعتقد سابقا، وأنه يغض الطرف عن هذه المعلومات عمدا. وتُعدّ هذه المعلومات المغلوطة مصدر قلق رئيسيّا، إذ توصلت إحدى الدراسات إلى أن المشاركين الذين تلقوا معلوماتهم من فيسبوك كانوا على الأرجح أكثر ميلا لمقاومة اللقاحات من أولئك الذين تلقوا معلوماتهم من وسائل الإعلام الرئيسية.
بصفتي باحثا في وسائل الإعلام الاجتماعية والمدنية، فإنني أعتقد أن فهمنا لكيفية انتشار المعلومات المُضللة على الإنترنت هو أمر بالغ الأهمية، لكن دائما ما نجد أن الأقوال أسهل من الأفعال. إن مجرد إحصاء المعلومات المُضللة على منصات التواصل الاجتماعي سيُحيلنا إلى سؤالين رئيسين دون إجابة: أولهما، ما مدى احتمالية أن يصادف المستخدمون هذه المعلومات المُضللة؟ وثانيهما، هل من المحتمل أن يكون لهذه المعلومات تأثير مختلف على المستخدمين؟
أثر فيسبوك
في أغسطس/آب 2020، نشرت مؤسسة "آفاز" (وهي منصة غير ربحية مهتمة بقضايا حقوق الإنسان والكشف عن المعلومات الخاطئة) دراسة تفيد بأن خوارزميات فيسبوك المسؤولة عن كشف المعلومات المضللة تُشكل تهديدا كبيرا للصحة العامة، إذ وجدوا أن المصادر التي شاركت معلومات صحية مضللة بصورة متكررة -تقريبا 82 موقعا إلكترونيا و42 صفحة على فيسبوك- حققتْ نسب مشاهدة تصل إلى حوالي 3.8 مليار مشاهدة في السنة.
للوهلة الأولى قد يُدهشك الرقم، لكن من المهم أيضا أن تفهم أننا إذا تعاملنا مع المسألة حسابيا واعتبرنا أن 3.8 هو البسط، فسنحتاج في هذه الحالة إلى حساب المقام لإدراك ما تعنيه نسبة المشاهدة هذه، فإذا اعتبرنا المقام المحتمل هو 2.9 مليار، والذي يشير إلى عدد المستخدمين النشطاء شهريا على الفيسبوك، فسنجد في متوسط أن كل مستخدم صادف على الأقل معلومة واحدة مُضللة من هذه المصادر.
لكن الأمر ليس بهذه البساطة. يُقدّر الباحثون في مجال التسويق الإلكتروني أن مستخدمي فيسبوك يقضون وقتا يتراوح ما بين 19-38 دقيقة يوميا على المنصة. في هذه الحالة، إذا اعتبرنا أن 1.93 مليار مستخدم نشط يرى كل منهم ما يعادل 10 منشورات يوميا -على أقل تقدير- فيمكننا بحسبة بسيطة أن نصل إلى نسبة انتشار هذه المنشورات المضللة على فيسبوك، وذلك بضرب هذين الرقمين في عدد أيام السنة (365)، ليظهر لنا الناتج 7.044 تريليون، وهو ما سنعتبره المقام للبسط الذي سبق وذكرنا أنه 3.8 مليار مشاهدة. بمعنى أبسط، ستكون النتيجة النهائية لقسمة البسط على المقام هي 0.05%، وهي نسبة المنشورات المُضللة.
حينما نعلن أن نسبة مشاهدة المحتوى على هذه الصفحات هي 3.8 مليار، فإن ذلك يعني أن هذه النسبة تغطي المحتوى الكامل بما فيه المفيد أيضا، واستنادا إلى ما استخلصناه سابقا حول نسبة المنشورات المضللة التي لا تتعدى 1/20 بالمئة (0.05%)، فإن ذلك قد يجعلنا نتساءل: هل علينا أن نقلق بالفعل إزاء الانتشار الواسع لهذه المعلومات المُضللة التي صادفها كل مستخدم ولو مرة واحدة على الأقل، أم أنه من المطمئن أن 99.95٪ من منشورات الفيسبوك ليست من المصادر التي تحذّر منها مؤسسة "آفاز"؟
ما يستحق القلق
لا يجب أن نقلق في الحقيقة بسبب أي مما سبق، لكن ما يستحق القلق فعلا هو آلية توزيع هذه المعلومات، فنتساءل إن كان من المحتمل فعلا أن يواجه كل مستخدم للفيسبوك معلومات صحية مُضللة بشكل عشوائي، أم أن الموضوع في الأصل انتقائي، يركز على الأشخاص الذين عبّروا عن رفضهم للقاحات أو من يبحثون عن معلومات "صحية بديلة" ليكونوا هم الأكثر عرضة لهذا المحتوى.
لتوضيح ذلك، قدمت دراسة أخرى تركز على المحتوى المتطرف على يوتيوب طريقة لفهم توزيع المعلومات المضللة، وذلك عن طريق دراسة الخوارزميات التي يجري عبرها إظهار المحتوى المتطرف، وذلك المحتوى الذي يدعم التطرف الأبيض، وقد خلص القائمون على الدراسة إلى تركز عرض المحتوى العنصري بين الأميركيين الذين يُضمرون بالفعل آراء عنصرية واستياء عرقيا، ومن ثم فإن خوارزميات اليوتيوب قد تعزز هذا النمط.
ظهرت دراسة أخرى نشرها مركز مكافحة خطاب الكراهية الرقمية بعنوان "مستغلو الجائحة"، درست 30 مجموعة من مجموعات فيسبوك المناهضة للقاحات، وبينت أن هناك اثني عشر شخصا فقط من المشاهير استغلوا المجموعات لإقناع الناس بعدم تلقي اللقاح وكانوا مسؤولين عن حوالي 70% من المحتوى المضلل المتداول على منصات التواصل الاجتماعي، وأشهر ثلاثة منهم تسببوا في تداول ما يقرب من نصف هذه النسبة. ولكن -مرة أخرى- من المهم أن نتساءل: كم عدد المجموعات المناهضة للقاحات التي يسمح لها فيسبوك بالبقاء؟ وما النسبة المئوية للمستخدمين الذين يواجهون هذا النوع من المعلومات التي تنشرها هذه المجموعات؟
بعيدا حتى عن آليات القسمة والتوزيع ومحاولة معرفة النسب الحقيقية، فإن مثل هذه الأنواع من الدراسات تثير حقا تساؤلات مهمة على غرار: "إذا كان الباحثون يستطيعون بالفعل العثور على هذا المحتوى، فلماذا لا تستطيع منصات التواصل الاجتماعي التعرف عليه وإزالته رغم أن فيسبوك وحده قادر على حل 70% من مشكلات التضليل هذه بحذف عشرات الحسابات فقط؟". ظلت هذه المشكلة قائمة حتى أواخر أغسطس/آب الماضي، إلى أن بدأ فيسبوك أخيرا بحذف 10 حسابات من أصل 12 حسابا لنشطاء ومشاهير مناهضين للقاحات.
لنأخذ على سبيل المثال المُنتِج الأميركي "ديل بيغتري" الذي يُعد أحد أبرز النشطاء المناهضين للقاحات على فيسبوك. مشكلة "بيغتري" مثلا ليست في تجنيده متابعين جُدُدا لمكافحة اللقاحات، وإنما في متابعة مستخدمي فيسبوك لمنشوراته على مواقع أخرى، وجلب هذا المحتوى لمشاركته على فيسبوك. وكما نرى، فإن الأمر لا يقتصر فقط على 12 فردا يروجون لمعلومات صحية مُضللة، بل يتجاوز الأمر أبعد من ذلك ليصل إلى آلاف من مستخدمي الموقع الذين يشاركون هذه المعلومات مع غيرهم. لذا، بات الأمر معقدا، لأن حظر حسابات الآلاف من مستخدمي فيسبوك أصعب بكثير من حظر اثني عشر ناشطا مناهضا للقاحات. يُعد هذا هو السبب الرئيسي في أن مسائل القسمة والتوزيع ضرورية لفهم نسبة انتشار المعلومات الخاطئة على الإنترنت، إذ تسمح للباحثين بالتساؤل عن مدى شيوع أو ندرة مثل هذه السلوكيات ومن يشاركها.
إذا كان الملايين من المستخدمين يواجهون أحيانا بعض المعلومات الصحية المضللة، فإن علامات التحذير المقترنة بهذه المنشورات قد يكون لها دور فعال، لكنها تفقد تأثيرها إن كان مصدر تداول هذه المعلومات هو مجموعة أصغر تبحث بنشاط عن هذا المحتوى وتشاركه. إن محاولة فهم المعلومات المضللة من خلال عدها دون النظر إلى مسائل القسمة والتوزيع هو ما يحدث حينما لا تجد النوايا الحسنة في طريقها سوى أدوات سيئة، فلا يتيح أي موقع من مواقع التواصل الاجتماعي للباحثين أن يجروا حساباتهم بدقة حول مدى انتشار محتوى معين على الموقع.
فمثلا، يفرض فيسبوك قيودا على معظم الباحثين، فيتيح لهم فقط أدوات مثل "كراود تانجل (Crowd tangle)" (وهي واحدة من أحدث أدوات البحث التي أطلقها فيسبوك لمراقبة المعلومات العامة، وفهم كيفية انتشار المعلومات)، لكن هذه الأداة مخصصة لحساب عدد مشاهدات المحتوى، دون نسب وطريقة التوزيع. وبالمثل، فإن معظم منصات التواصل الاجتماعي تسير على نفس نهج فيسبوك، فيمنع تويتر الباحثين بصورة صريحة من حساب عدد مستخدميه أو عدد التغريدات التي يشاركونها في اليوم الواحد. ولا يقل اليوتيوب صرامة عنهم في جعل الأمور أصعب على الباحثين لمعرفة عدد مقاطع الفيديو التي يستقبلها الموقع، لدرجة أن شركة جوجل تطلب بانتظام من المرشحين لوظائفها تقدير عدد مقاطع الفيديو التي يستقبلها يوتيوب لتقييم مهاراتهم الحسابية.
مؤخرا زعم قادة هذه المنصات أن أدواتهم على الرغم من مشكلاتها فإنها مفيدة للمجتمع، لكن حجتهم هذه ستكون أكثر إقناعا لو أتاحوا للباحثين فرصة للتحقق من هذا الادعاء بأنفسهم. ولأن تأثيرات وسائل التواصل الاجتماعي باتت أكثر انتشارا وهيمنة، فعلى الأرجح سيزداد الضغط على شركات التكنولوجيا الكبيرة للإفصاح عن مزيد من البيانات المتعلقة بمستخدميها والمحتوى الذي يشاركونه. ولو افترضنا أن هذه الشركات استجابت بالفعل وسمحت للباحثين بالوصول إلى المزيد من المعلومات، فهل يا تُرى ستسمح لهم بإجراء عمليات حسابية دقيقة لفهم طريقة توزيع المحتوى؟ وإن رفضت ذلك، فهل لأنها تخشى مما قد يتوصل إليه الباحثون في النهاية؟
هذا التقرير مترجم عن The Atlantic