Meta робить все можливе для дотримання правильного балансу щодо модерації онлайн-контенту

16 лютого 2022, 11:28
Новини компаній
depositphotos

depositphotos

Щодня люди по всьому світу користуються Facebook та Instagram, щоб спілкуватися з родиною та друзями, обмінюватися інформацією та висловлювати свою думку. Розмови, які відбуваються на цих платформах, відображають різноманіття мільярдів людей, які обговорюють все: від домашніх тварин до політики. Наша мета — дати людям можливість вільно й відкрито обмінюватися інформацією та спілкуватися в безпечному та захищеному середовищі.

Річард Лаппін, керівник відділу політики щодо органічного контенту, EMEA

Я маю понад 15 років міжнародного досвіду в галузі політики, прав людини, законів і відповідності вимогам нормативно-правових актів. З них десятиліття присвятив роботі в Бюро демократичних інститутів і прав людини ОБСЄ (БДІПЛ), перш ніж приєднатися до команди Meta. Впродовж останніх двох з половиною років я допомагав компанії розробляти та впроваджувати нашу політику щодо контенту в Європі, на Близькому Сході та в Африці. Ці політики, які називаються Стандартами спільноти, мають на меті захистити людей від можливої шкоди, водночас захищаючи свободу вираження поглядів.

Відео дня

Стандарти спільноти ґрунтуються на відгуках та порадах експертів у таких галузях, як безпека дітей, боротьба з тероризмом та правоохоронна діяльність. Вони охоплюють всі теми, починаючи з булінгу, харасменту, мови ворожнечі до відвертого насильства, шахрайства та видавання себе за іншу особу. Стандарти спільноти поширюються на всіх, у всьому світі та на будь-який контент.

Щоб визначити та перевірити контент на відповідність нашим Стандартам спільноти, ми використовуємо поєднання технологій, звітів та перевірок нашими командами. Як показує звіт компанії про застосування стандартів спільноти (Community Standards Enforcement Report), наша технологія виявлення контенту, що порушує Стандарти, вдосконалюється і відіграє все більш суттєву роль у перегляді контенту. Технологія тепер допомагає завчасно виявляти такий контент в найрізноманітніших сферах, не покладаючись виключно на повідомлення користувачів про нього. Завдяки їй ми також можемо автоматизувати рішення щодо певних сфер, де є високі ризики публікації такого контенту, а також визначити пріоритет контенту, який критично важливо перевірити у першу чергу, незалежно від того, повідомлено про нього чи виявлено нашими проактивними системами. Разом ці три аспекти технології змінили процес перегляду контенту та суттєво покращили нашу здатність правильно модерувати контент у масштабі.

Тим не менш, все ще є області, де важливо аби контент перевіряли люди. Наприклад, розпізнавання того, чи хтось є об'єктом булінгу, може мати багато нюансів та залежати від контексту. Крім того, штучний інтелект покладається на велику кількість даних, отриманих під час вивчень та оглядів, які ми проводимо нашими командами задля визначення важливих моделей поведінки та пошуку контенту, що потенційно порушує Стандарти. Ось чому для досягнення успіху нашою системою перегляду контенту потрібні як люди, так і технології. Наші команди, які зараз налічують 15 000 модераторів контенту у всьому світі, включають й українців. Так, останні переглядають контент в українському сегменті платформи та зосереджуються на тих випадках, коли важливо, щоб саме люди його перевіряли. Ми використовуємо технології, щоб бути спроможними масштабувати наші зусилля у сферах, де це може бути найбільш ефективним.

Компанії оцінюють за те, як дотримуються їхніх правил. Чотири роки тому ми почали публікувати дані щодо видалення контенту, котрий порушує правила, включно з цифрами про те, скільки людей його бачать і яку його к-сть ми видаляємо. Ми публікуємо ці звіти щокварталу та піддаємо їх незалежному аудиту. Вони показують, наприклад, рівень поширення мови ворожнечі - іншими словами, скільки мови ворожнечі люди насправді бачать на платформі. Наразі цей показник становить 0,03%. Це означає, що на кожні 10 000 одиниць контенту лише 3 вважаються тими, що поширюють мову ворожнечі. За останні три квартали цей показник скоротився майже на 50%.

poster
Дайджест головних новин
Безкоштовна email-розсилка лише відбірних матеріалів від редакторів NV
Розсилка відправляється з понеділка по п'ятницю

Соціальні установки постійно змінюються: у кожній країні є пікові точки щодо цього. Нові способи розповідати історії та ділитися зображеннями можуть вивести цю напругу на поверхню швидше, ніж будь-коли. Робота моєї команди полягає в тому, щоб зрозуміти цю напругу і відобразити її в наших Стандартах спільноти, аби наші технології та модератори могли застосувати їх до контенту на нашій платформі. Наші правила змінюються з часом — відповідно до зростання нашої спільноти та соціальних проблем у всьому світі. Ми знаходимося в постійному діалозі з експертами та місцевими організаціями, щоб зрозуміти проблеми, пов’язані з багатьма темами: від безпеки дітей до тероризму та прав людини.

Ці напруги — між підвищенням обізнаності про насильство та його пропагандою, між свободою вираження поглядів і свободою від страху — є складними філософськими темами. Питання модерації контенту є проблемою для всієї галузі. Багато організацій борються з цим, але універсальних юридичних стандартів для забезпечення чіткості у цьому питанні вкрай мало.

FB_CommunityStandards
Фото: FB_CommunityStandards

Ми часто стикаємося з критикою з боку людей, які хочуть, щоб ми видаляли ще більше контенту, як і від тих, хто закликає видаляти його навпаки — менше. Розцінюємо це як позитивний сигнал і свідчення того, що з нашого боку немає нахилу в ту чи іншу сторону — зберігається баланс. Альтернатива — нічого не робити і дозволяти публікувати що-небудь — це не те, чого хоче наша спільнота.

Технології надали більшій кількості людей чимало можливостей для ширшого спілкування, ніж будь-коли раніше. Ми віримо, що переваги цього набагато перевищують ризики. Але ми також визнаємо, що суспільство все ще перебуває у стані дискусії щодо того, що є прийнятним, а що шкідливим. Ми в Meta віримо, що відграємо важливу роль у цій розмові.

Показати ще новини
Радіо NV
X