سيقدم YouTube طرقًا جديدة لمكافأة منشئي المحتوى

سيقدم YouTube طرقًا جديدة لمكافأة منشئي المحتوى

لندن: أفادت هيئة الإذاعة البريطانية (بي بي سي) يوم الجمعة أن مجموعات مناهضة التطعيم تستخدم الرموز التعبيرية للجزرة للتهرب من أدوات الاعتدال الآلي التي تستخدمها شبكات التواصل الاجتماعي لتحديد الأخبار التي لا تتوافق مع سياسات المنصة.

كشف تحقيق في عدد من مجموعات فيسبوك حيث تم استبدال رمز الجزرة الإيموجي بكلمة “لقاح”. نظرًا لأن خوارزمية Facebook تركز عادةً على الكلمات بدلاً من الرموز التعبيرية ، فقد تمكن الأعضاء من تجاوز آليات إدارة المحتوى الآلية للمنصة.

يقال إن إحدى مجموعات Facebook التي استخدمت هذا التكتيك كان لديها أكثر من 250.000 عضو.

كان لدى المجموعات ، التي لا يمكن الانضمام إليها إلا عن طريق الدعوة ، إرشادات واضحة وتطلب من الأعضاء “استخدام كلمات مشفرة لكل شيء” و “عدم استخدام كلمة c أو v أو b أبدًا” ، في إشارة إلى “COVID” ، “التطعيم”. “و” الداعم “.

وقال التحقيق أيضا إن الجماعات التي تستخدم الرموز التعبيرية للجزرة روجت لمزاعم لم يتم التحقق منها بأن الناس تعرضوا للأذى أو القتل بسبب اللقاحات.

لاحظ مارك أوين جونز ، باحث المعلومات المضللة في جامعة حمد بن خليفة في قطر ، هذا الاتجاه بعد دعوته للانضمام إلى إحدى المجموعات وانتقل إلى Twitter لمشاركة النتائج التي توصل إليها.

وقال: “هؤلاء كانوا أشخاصًا تحدثوا عن أقارب ماتوا بعد وقت قصير من تلقي لقاح COVID-19”. “ولكن بدلاً من استخدام الكلمات” COVID-19 “أو” اللقاح “، استخدموا الرموز التعبيرية للجزرة.

“في البداية كنت مرتبكًا بعض الشيء. ثم نقرت على أنها تُستخدم كوسيلة للتهرب ، أو ربما التهرب ، من خوارزميات اكتشاف الأخبار المزيفة على Facebook.”

بعد أن أبلغت هيئة الإذاعة البريطانية (بي بي سي) ميتا النتائج بالنتائج ، تمت إزالة المجموعات ، على الرغم من ظهور بعضها مرة أخرى بعد ذلك بوقت قصير.

READ  تحتفل الممثلة والممثلة الكوميدية المعاقة ميسون زيد باختلافهما

قال ميتا: “لقد أزلنا هذه المجموعة لخرقها سياسة المعلومات المضللة الضارة الخاصة بنا وسنراجع أي محتوى مشابه آخر وفقًا لهذه السياسة. نواصل العمل عن كثب مع خبراء الصحة العامة وحكومة المملكة المتحدة لمواصلة معالجة المعلومات الخاطئة حول لقاحات فيروس كورونا”. بالوضع الحالي.

تعرضت Meta ، إلى جانب منصات التواصل الاجتماعي الأخرى ، للتدقيق في العامين الماضيين لفشلها في إزالة الأخبار المزيفة حول COVID-19 واللقاحات.

قال Facebook العام الماضي إنه أزال أكثر من 20 مليون قطعة من المحتوى تحتوي على معلومات خاطئة حول COVID-19 أو اللقاحات منذ بداية الوباء.

يصعب على الخوارزميات التعرف على الرموز التعبيرية لأن الذكاء الاصطناعي مدرب على النصوص والكلمات ، مما قد يفسر كيف تمكنت هذه المجموعات من المرور دون أن يلاحظها أحد لفترة طويلة.

نظرًا لأن الكراهية القائمة على الرموز التعبيرية تشكل تحديًا متزايدًا للاكتشاف الآلي ، أنشأ فريق من الباحثين في جامعة سياتل أداة تسمى HatemojiCheck ، وهي مجموعة اختبار تكشف نقاط الضعف في نماذج الكشف عن الكراهية الحالية وتكتشف لغة الكراهية التي يتم التعبير عنها من خلال الرموز التعبيرية.

Written By
More from
ملخص اتحاد لاعبات التنس المحترفات: Coco Gaff يصل إلى نصف النهائي في دبي
24 فبراير – فاز كوكو جاف المصنف الخامس في ربع نهائي أمريكا...
Read More
Leave a comment

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *