Дослідження з’ясувало, чому YouTube пропонує небажаний контент

Дослідження ефективності роботи алгоритмів YouTube виявило, що вони рекомендують небажаний контент.

Про це йдеться на сайті Mozilla Foundation, передає Укрінформ.

Mozilla провела дослідження за допомогою RegretsReporter — розширення браузера з відкритим кодом. Люди добровільно передавали свої дані і надали дослідникам доступ до пулу збережених рекомендаційних даних YouTube.

Як з'ясувалося, люди з неангломовних країн частіше стикаються з образливим контентом у YouTube, а у рекомендаціях з’являються відео з мовою ненависті, жорстокістю та шахрайством.

Читайте також: Як викрити шахрая та розпізнати фейк у соцмережі – поради кіберполіції

Волонтери скаржилися модераторам платформи на відеоролики і через поширення паніки щодо коронавірусу, і через політичну дезінформацію, і через невідповідні «дитячі» мультфільми.

Понад 71 відсоток усіх відеозаписів, на які поскаржилися добровольці, були активно рекомендовані власним алгоритмом YouTube. Наразі майже 200 таких відеороликів були вилучені з платформи, серед них і декілька таких, які YouTube вважав порушниками власної політики. Ці відео мали загальну кількість переглядів 160 мільйонів, йдеться у звіті Mozilla.

Читайте також: WhatsApp блокуватиме дзвінки користувачам, які не погодяться з новою політикою месенджера

«Наше дослідження підтверджує, що YouTube не лише розміщує, а й активно рекомендує відео, які порушують власну політику. Зараз ми також знаємо, що люди в неангломовних країнах, найімовірніше, зазнали найбільшої шкоди від алгоритму рекомендацій YouTube, який не контролюється», — зазначив старший менеджер з питань захисту інтересів Mozilla Бренді Геркінк.