На початку 2025 року компанія Meta оновила політики модерації контенту, що спричинило бурхливі обговорення серед користувачів та експертів. Зміни, нібито покликані боротися з дезінформацією та мовою ненависті, водночас викликають підозри щодо їхньої політичної вмотивованості. Як ці нововведення вплинуть на інформаційний простір?
Сьомого січня 2025 року Марк Цукерберґ оголосив1 про значні зміни в політиці модерації контенту Meta і підході компанії до цього питання: він постулює повернення до пріоритету свободи вираження поглядів у Facebook, Instagram і Threads. Цукерберґ заявив, що ідеологія щодо контенту, яка раніше діяла на платформі, стала надмірно обмежувальною. А це призвело до надмірної цензури і численних помилок у видаленні контенту.
Серед ключових змін, про які розповів очільник компанії, — відмова від послуг сторонніх фактчекерів. Замість цього Meta впровадить систему «нотаток спільноти», що дозволить користувачам безпосередньо позначати оманливий контент. Крім того, Цукерберґ оголосив про спрощення політики щодо контенту, знявши обмеження на такі чутливі теми, як імміграція та гендерна ідентичність, які, на його думку, обмежували відкриту дискусію на платформах Meta.
Також компанія змінює стратегію правозастосування: автоматичні фільтри аналізу контенту тепер будуть зосереджені насамперед на серйозних порушеннях, тоді як на менш серйозні порушення модератори звертатимуть увагу після скарг користувачів. Завдяки цьому, вважають в компанії, буде зменшено кількість дописів, помилково видалених за попередньої практики модерації.
Як раніше працювала стратегія модерації контенту в Meta
Система модерації контенту Meta змінювалась з моменту заснування. Був час, коли в компанії не працювали модератори контенту, а автоматизовані системи реагували лише на прояви гейтспічу2 – «мови ненависті». У 2016 році перед виборами президента США в компанії запровадили програму перевірки фактів. На сторінках Центру прозорості Meta детально пояснюється3, як компанія працює із контентом. Запуск програми перевірки фактів став початком співпраці з незалежними організаціями, які перевіряли й оцінювали потенційно оманливий контент на всіх платформах, зокрема Facebook, Instagram та Threads.
Організації, які стали експертами, — це ті, що пройшли сертифікацію в Міжнародній фактчекінговій мережі4 (International Fact-Checking Network, IFCN), а в Європі — у Європейській фактчекінговій мережі стандартів5 (European Fact-Checking Standards Network, EFCSN).
Коли допис визначався як такий, що вводить в оману, він часто отримував попереджувальну позначку, що фактично обмежувало його видимість для користувачів.
Проте модерація контенту — це завжди складне завдання, і платформі доводиться балансувати між свободою слова та безпекою користувачів. Компанія намагалась його впорядкувати, створивши, до прикладу, правила спільноти (тепер вони називаються стандартами спільноти), в яких зафіксувала, що можна писати на сторінках її соцмереж, а чого не можна. Проте спроби передбачити всі можливі проблеми компанія так і не змогла.
Для особливо складних випадків модерації контенту, які вимагають дискусій, Meta створила наглядову раду6 — незалежний орган, який приймає рішення щодо модерації контенту на сайтах компанії. Раду було анонсовано у 2018, вона розпочала7слухання справ у 2020, а перші рішення були прийняті8 на початку 2021. Наглядова рада розглядає9 найбільш суперечливі питання стосовно модерації контенту.
Проте й це не завжди допомагало. Особливо проблема загострилась на початку повномасштабного вторгнення Росії в Україні. Навіть попри те, що компанія зняла10 деякі обмеження на мову ненависті стосовно російських військових, багато українських активістів скаржилися на блокування чи зменшення охоплень. Одним із найбільш примітних випадків було блокування гештеґів11, що супроводжували дописи з розповідями про знищення мирного населення в Бучі. Подекуди наглядовій раді доводилося розглядати питання щодо дописів, пов’язаних з Україною. До прикладу, у листопаді 2022 року ця структура скасувала12 рішення модераторів Meta про видалення допису, в якому російську армію порівнювали з нацистами.
Чому стара система модерації виявилась неефективною
У Meta заявили, що модерація була потрібна для виконання правил спільноти та боротьби з фейками. Проте рішення модераторів часто сприймалися як боротьба з бажанням користувачів вільно висловлюватися на платформах компанії.
Окрім того, попри незалежність фактчекінгових організацій, за словами Цукерберґа, часто ці структури були упередженими, а процес модерації був непропорційно спрямований на певні точки зору. Дослідження NewsGuard, рейтингової агенції, яка оцінює якість онлайн-медіа, опубліковане вже після анонсу Цукерберґа, зафіксувало неефективність роботи цих структур. За даними аналізу, проведеного спеціалістами NewsGuard, лише 14% дописів із російською, китайською та іранською дезінформацією були позначені13 Meta як неправдиві. «Переважна більшість дописів (понад 86%), які пропагують іноземні дезінформаційні наративи, поширюються без жодних позначок перевірки фактів, які використовує Meta», — стверджує організація.
За даними NewsGuard, одна з причин такої ситуації полягає в тому, що алгоритм Meta не може ідентифікувати фейк, до прикладу, при перефразуванні оригінального допису з дезінформацією. Адже в Meta заявляють, що після того, як незалежний партнер перевірить одну неправдиву публікацію, компанія шукає інші пости з «майже ідентичними» формулюваннями. Проте маркує як фейк лише ті, що «такі самі або майже повністю збігаються» з перевіреним.
Однією з головних проблем була складність системи модерації, яка була розроблена для управління великими обсягами контенту на всіх платформах. Ця складність часто призводила до помилок: за твердженням Meta, 10–20% видаленого контенту були помилковими14.
Крім того, надмірна залежність Meta від автоматизованих інструментів призвела до помилкових результатів модерації. Алгоритми, що використовуються для виявлення шкідливого контенту, часто спрацьовували помилково, особливо це стосувалось неангломовного контенту. Наприклад, автоматизовані системи визначення терористичного вмісту не могли впоратися з арабським контентом, помилково15 ідентифікуючи дописи до 77% випадків.
Політичний контекст
Попри попередні спроби Meta стати платформою без політики і те, що на передвиборчій кампанії в США у 2024 році кандидати не особливо активно використовували її платформи, представники республіканської партії були незадоволені роботою системи модерації. Ще до виборів республіканці намагалися вплинути16 на соціальні медіа, аби ті змінили підходи, зокрема щодо дезінформації, під час виборів. Ці претензії підкріплювалися твердженнями про те, що соціальні мережі упереджені проти консервативних точок зору.
Як фейсбук, інстаграм та інші соцмережі Meta стали платформами «без політики»
Зокрема, багато республіканців стверджували, що соціальні медіа цензурують консервативні голоси. Ці настрої посилилися напередодні виборів: мовляв, платформи пригнічують легітимний політичний дискурс. Причому це почалося17 відразу після атаки на Капітолій 6 січня 2021 року і тривало18 практично до листопадових виборів. У серпні 2024 року Марк Цукерберґ заявив про ковід-цензуру з боку адміністрації Байдена, що іще сильніше роздмухнуло істерію навколо обмежень на платформах Meta.
Після виборів президента США критика систем модерування соцмереж з боку прихильників Трампа нікуди не зникла. А штучне зменшення політичного контенту на Meta, яке спостерігалось весь 2024 рік, призвело до того, що прихильники нового президента активно дискутували, а потім і святкували свою перемогу на X (Twitter) та інших сервісах (Truth Social, Parler). Натомість на той момент жодна інша технологічна платформа не набула19 популярності як майданчик для дискусій для лібералів.
Натомість бажання очільника Meta налагодити контакт з обраним президентом, його пожертва20 в мійльон доларів до інавгураційного фонду Трампа та й подальші зміни в системі модерації є спробою покращити відносини між керівником Meta та новим президентом. Тож анонсовані зміни щодо контенту Meta — це перенесення правил дискусій, характерних для політиків-республіканців, на всі соцмережі соцмедіа-гіганта.
Що конкретно зміниться в модеруванні Meta
Ось ключові зміни в політиках Meta, оголошені Цукерберґом:
— відмова від сторонніх фактчекерів та перехід до системи «нотаток спільноти»
Замість співпраці з понад 90 незалежними організаціями, які мали перевіряти дописи та додавати позначки, що вказують на дезінформацію, тепер в компанії працюватиме система нотаток спільноти. Це означає, що користувачі соціальних платформ зможуть самі позначати потенційно суперечливий контент. Усунення сторонніх фактчекерів і запровадження нотаток спільноти є значним відходом від традиційної практики модерації контенту в Meta.
— спрощення політики щодо контенту: зняття обмежень щодо чутливих тем, таких як імміграція та гендерна ідентичність
Раніше ці теми часто позначалися прапорцями або жорстко модерувалися. Знімаючи ці обмеження, Мета, імовірно, прагне заохотити користувачів вільно ділитися своїм досвідом і поглядами та демонструє свою прихильність до існування різних точок зору на цю тему.
— нова стратегія притягнення до відповідальності за порушення політик
Тепер Meta зосередить свої автоматизовані фільтри насамперед на серйозних порушеннях і незаконному вмісті, як-от тероризм, експлуатація дітей та шахрайство. Крім того, компанія планує підвищити поріг достовірності, необхідний для видалення контенту. Тобто щоб позначити або видалити допис, потрібні будуть більш вагомі докази, аніж проста скарга користувачів.
На мою думку, загалом цей новий підхід до правозастосування спрямований на створення більш збалансованого середовища, в якому свобода вираження поглядів є пріоритетом, але яке при цьому ефективно протидіє шкідливому контенту. Однак він також викликає21 занепокоєння щодо можливості поширення дезінформації та мови ворожнечі в менш регульованому просторі.
Від жорсткої модерації до онлайн-свавілля? Якими будуть цифрові платформи Meta
Наразі складно сказати, якими будуть нові правила платформи і як вони діятимуть за нових умов пом’якшення модерації. Проте експертні оцінки щодо них або обережні, або радше негативні. Більшість фахівців з онлайн-контенту, спеціалістів з фактчекінгу, захисників цифрових прав та аналітиків попереджають, що Meta може перетворитися на платформу, на якій процвітає мова ненависті, булінг, образи.
Президентка і генеральна директора організації GLAAD (Gay & Lesbian Alliance Against Defamation) — американської неурядової організації, що займається викоріненням гомофобії та дискримінації предсавників ЛГБТК+-спільноти — Сара Кейт Елліс сказала22, що «Meta дає зелене світло тим, хто може булити ЛГБТК-людей, жінок, іммігрантів та інші маргіналізовані групи і застосовувати до них дегуманізаційні наративи». Центр демократії та технологій (CDT), що виступає за захист цифрових прав і свободу вираження поглядів, назвав23 зміни в політиках Meta «руйнівними для свободи вираження поглядів, оскільки вони посилять атаки й переслідування на багатьох людей і завдадуть їм шкоди».
Генеральний директор британсько-американської громадської організації «Центр протидії цифровій ненависті» Імран Ахмед впевнений24, що кардинальні зміни модерації контенту показують, як платформа знімає з себе відповідальність за безпеку користувачів: «Це створить хвилю безперечної брехні, загрожуватиме цілісності наших спільнот, нашій демократії та потенційно завдасть шкоди громадському здоров’ю та нашим дітям».
У більш віддаленій перспективі такі зміни можуть означати активне поширення на платформах Meta теорій змов. Деякі уже стали допустимими25 на платформі, до прикладу, так звана теорія заміщення (GRT), яка стверджує, що «існують свідомі спроби замінити біле населення шляхом імміграції, інтеграції, абортів і насильства проти білих людей». Саме ця теорія була ідеологією відразу декількох гучних випадків масових вбивств, до прикладу, вбивства26 мусульман у Крайстчерчі.
Наразі складно сказати, якою буде платформа після запровадження всіх оновлень. Проте очевидно, що відсутність належної відповідальності з боку платформи за контент, що поширюється на її сторінках, може підірвати довіру до цифрових комунікацій загалом, а в довгостроковій перспективі це відкриває шлях для ширшого розповсюдження небезпечних теорій змов, що вже призводили до трагічних наслідків.