بالنسبة إلى مشاهدي YouTube غير الراضين عن مقاطع الفيديو التي أوصت بها المنصة ، فإن النقر فوق الزر “لم يعجبني” قد لا يحدث فرقًا كبيرًا ، وفقًا لتقرير بحثي جديد.
قال يوتيوب المستخدمين يفعلون طرق عديدة للإشارة إلى أنهم لا يوافقون على المحتوى ولا يريدون مشاهدة مقاطع فيديو مماثلة. لكن الباحثين في مؤسسة موزيلا قالوا إن كل هذه الضوابط غير فعالة نسبيًا تقرير نشرت يوم الثلاثاء. وكانت النتيجة أن المستخدمين استمروا في تلقي توصيات غير مرغوب فيها على موقع يوتيوب ، أكبر موقع فيديو في العالم.
وجد الباحثون أن زر “عدم الإعجاب” في YouTube قلل التوصيات المتشابهة وغير المرغوب فيها بنسبة 12 بالمائة فقط ، وفقًا لتقريرهم بعنوان “هل يعمل هذا الزر؟” كان النقر على “عدم التوصية بقناة” فعالاً بنسبة 43 بالمائة في تقليل التوصيات غير المرغوب فيها ، والنقر كانت كلمة “غير مهتم” فعالة بنسبة 11 بالمائة ، وكانت إزالة مقطع فيديو من سجل المشاهدة فعالة بنسبة 29 بالمائة.
قام الباحثون بتحليل أكثر من 567 مليون توصية على مقاطع فيديو يوتيوب بمساعدة 22700 مشارك. استخدموا أداة RegretReporter التي طورتها Mozilla لدراسة خوارزمية توصيات YouTube. جمعت بيانات حول تجارب المشاركين على المنصة. لكن المشاركين لم يكونوا ممثلين لجميع مستخدمي YouTube لأنهم قاموا بتنزيل الأداة طواعية.
قال جيسي ماكروسكي ، أحد الباحثين الذين أجروا الدراسة ، إن YouTube يحتاج إلى أن يكون أكثر شفافية ويمنح المستخدمين تأثيرًا أكبر على ما يرونه.
انتشار المعلومات المضللة والأكاذيب
قال السيد ماكروسكي في مقابلة: “ربما يجب علينا في الواقع احترام استقلالية الإنسان وكرامته هنا ، والاستماع إلى ما يقوله لنا الناس ، بدلاً من دفعهم بكل ما نعتقد أنهم سيأكلونه”.
دافع يوتيوب عن نظام التوصية الخاص به. وقالت إلينا هيرنانديز المتحدثة باسم يوتيوب في بيان “ضوابطنا لا تستبعد موضوعات أو وجهات نظر كاملة لأن ذلك يمكن أن يكون له آثار سلبية على المشاهدين مثل خلق غرف صدى.” “لا يأخذ تقرير Mozilla في الحسبان كيفية عمل أنظمتنا فعليًا ، لذلك من الصعب علينا استنباط العديد من الأفكار.”
قال موقع يوتيوب أيضًا إن استطلاعات الرأي الخاصة به أظهرت أن المستخدمين راضون بشكل عام عن التوصيات التي رأوها ، وأن النظام الأساسي حاول عدم منع توصيات أي محتوى يتعلق بموضوع أو رأي أو متحدث. وقالت الشركة أيضًا إنها مهتمة بالتعاون مع باحثين أكاديميين آخرين في إطارها برنامج العلماء.
طلب أحد المشاركين في الدراسة من موقع YouTube يوم 17 يناير عدم التوصية بمحتوى مثل مقطع فيديو عن بقرة ترتجف من الألم ، والتي تضمنت صورة للحافر الخطأ. في 15 مارس ، أوصى المستخدم بعرض مقطع فيديو بعنوان “كان هناك ضغط في هذا الحافر” ، والذي تضمن مرة أخرى صورة بيانية لطرف ساق بقرة. ومن الأمثلة الأخرى على التأييد غير المرغوب فيه مقاطع فيديو للبنادق ، والعنف من الحرب في أوكرانيا ، وعرض تاكر كارلسون على قناة فوكس نيوز.
كما قام الباحثون بتفصيل حلقة لمستخدم على موقع يوتيوب رفض مقطع فيديو بعنوان “الجدة تأكل عجين البسكويت على الغداء كل أسبوع. هذا ما حدث لعظامها”. على مدار الأشهر الثلاثة التالية ، استمر المستخدم في مشاهدة توصيات لمقاطع فيديو مماثلة حول ما حدث لمعدن وكبد وكلى الناس بعد تناول عناصر مختلفة.
قال أحد المستخدمين: “في النهاية ، يعود الأمر دائمًا”.
منذ تطوير نظام التوصية ، أظهر YouTube لكل مستخدم إصدارًا مخصصًا من النظام الأساسي يعرض مقاطع فيديو تحدد خوارزمياته المشاهدين الذين يرغبون في مشاهدتها بناءً على سلوك المشاهدة السابق والمتغيرات الأخرى. كان الموقع فحص بعناية لإرسال الناس إلى مدارس أجنبية للتضليل والتطرف السياسي.
في يوليو 2021 ، أصدرت Mozilla دراسة وجدت أن YouTube أوصى بنسبة 71 بالمائة من مقاطع الفيديو التي قال المشاركون إنها تحتوي على معلومات مضللة وخطاب يحض على الكراهية ومحتويات أخرى مرفوضة.
قال موقع YouTube إن نظام التوصية الخاص به يعتمد على العديد من “الإشارات” ويتطور باستمرار ، لذا فإن توفير الشفافية حول كيفية عمله ليس سهلاً مثل “كتابة صيغة”.
كتب كريستوس جودرو ، نائب رئيس قسم الهندسة في YouTube ، في الشركة: “يعتمد عدد من الإشارات على بعضها البعض للمساعدة في إعلام نظامنا بما تجده مرضيًا: النقرات ، ووقت المشاهدة ، والردود على الاستطلاع ، والمشاركة ، وإبداءات الإعجاب وعدم الإعجاب”. مشاركة مدونة سبتمبر الماضي
“Social media addict. Zombie fanatic. Travel fanatic. Music geek. Bacon expert.”