Стаття Технології — 06 червня, 2023

Непідсудні рекомендації. Як одне рішення Верховного суду США вплине на соціальні платформи

ТЕКСТ:

Верховний суд США виніс1 важливе рішення у двох справах, суть яких полягала у відповідальності соціальних платформ та роботу рекомендаційних алгоритмів. Це рішення можна назвати перемогою Кремнієвої долини, адже воно захищає платформи від претензій до них щодо рекомендацій контенту, розміщеного на сайтах. Окрім того, це рішення є відмовою послабити Section 230 (Розділ 230 Закону про пристойність в комунікаціях) — основну норму закону, яка говорить про те, що за контент користувачів, розміщений у соцмережах, несуть відповідальність лише його автори (користувачі), а не платформи. 

У своєму рішенні Верховний суд став на бік не лише технологічної індустрії, але й захисників цифрових прав з організації Electronic Frontier Foundation, якістверджували2, що накладення на технологічні платформи більшої відповідальності може порушити основні функції багатьох сайтів і потенційно навіть створити правовий ризик для окремих користувачів інтернету.

Хто й чому звинувачував Twitter та Google у Верховному суді

Верховний суд розглядав дві справи — «Гонсалес проти Google» та «Таамне проти Twitter». 

У справі«Таамне проти Twitter»3 Верховний суд постановив, що Twitter не буде звинувачуватись у сприянні та підбурюванні до тероризму, за те, що платформа розміщувала твіти, створені терористичною групою ІДІЛ. У цьому випадку до суду подали родичі жителя Йорданії, який загинув у 2017 році у Стамбулі внаслідок теракту, вчиненого бойовиками «Ісламської держави». Позивачі стверджували, що Twitter усвідомлено допомагала терористам тим, що не видаляла контент, створений учасниками угрупування. Відповідно, на думку авторів позову, такі дії порушують федеральні закони боротьби з тероризмом і сприяють терористичній діяльності. 

У справі«Гонсалес проти Google»4 суд залишив в силі рішення суду нижчої інстанції, яке захищало платформи соціальних мереж від широкого кола позовів щодо модерації вмісту. У цьому випадку позивачі висловили претензії до відеохостингу YouTube, що належить компанії Google. Їхня суть полягала у звинуваченні відеосервісу в підтримці терористичної організації, а все — через рекомендації відеороликів, створених бойовиками «Ісламської держави». 

У цій справі позов подав батько дівчини, яка загинула у 2015 році в Парижі від теракту, здійсненого тим самим угрупуванням. Позивач звинувачував Google в тому, що платформа не лише не завадила поширенню відео терористів на платформі YouTube, але й рекомендувала його окремим користувачам. Це, на думку авторів позовів, є також сприянням роботі терористичної організації та опосередкованою допомогою їм вербувати нових учасників та залучати фінансування. У другому позові ініціатори підкреслювали, що проблемою є не лише факт розміщення відео, але й потрапляння їх у рекомендації, що є більш очевидними кроками у сприянні тероризму. 

Одностайне колегіальне рішення суддів полягає в тому, що фактів недостатньо, аби вважати ці дії допомогою у терористичних діях чи вчиненні теракту. Суддя підкреслив, що, якщо слідувати логіці позивачів, то винним у терористичній діяльності можна назвати будь-яку торгову організацію або сервіс, чиїми товарами та послугами користуються терористи. Так само можна назвати поплічниками терористів виробників та продавців паперу чи компанію-власника сервісу електронної пошти. 

Що таке Section 230 і який стосунок цієї норми до рішення Верховного суду

Протягом кількох місяців багато юридичних експертів не виключали, що розгляд Верховним судом справ проти Twitter і Google призведе до наступних змін до Розділу 230 (Section 230) — закону, який регулює відповідальність соціальних платформ за контент користувачів. 

Натомість у рішенні суду значиться таке: «Ми відмовляємося розглядати застосування Розділу 230 до цих скарг». Якби рішення суду було іншим, це могло б означати перегляд Розділу 230 та нові підходи до відповідальності платформ за користувацький контент. 

Розділ 230 (Section 2305) — це стаття за номером 230 американського Закону про пристойність у сфері комунікацій (Communications Decency Act6, CDA). 

Вона визначає відповідальність за користувацький контент з боку компаній-власників соціальних платформ. Згідно з цією статтею, за контент, розміщений користувачами на сторінках соціальних платформ, відповідають лише безпосередньо користувачі, а не платформи, на яких вони розмістили інформацію. 

Ця стаття вважається7 однією з базових законодавчих норм, завдяки якій соціальні платформи існують у знайомому нам вигляді. Вона вказує: якщо, до прикладу, користувач напише допис із безпідставними звинуваченнями політика чи публічної особи, та й будь-якої іншої людини, то в судовому порядку відповідати за наклеп буде автор допису, а не платформа, на якій цей допис з’явився. Проте ця стаття не забороняє соціальним сервісам модерувати контент відповідно до власних правил. 

Коментуючи рішення Верховного суду, в Electronic Frontier Foundationпояснили2, які негативні наслідки могли б виникнути за умови зміни Розділу 230. Якби онлайн-сервісам загрожувала відповідальність за прості рекомендації контенту або розміщення посилань, це докорінно змінило б можливість людей вільно висловлюватися та ділитися інформацією. Зміна положень Розділу 230 знищила б багато переваг, які онлайн-сервіси надають своїм користувачам. Окрім того, якби платформи зазнали відповідальності лише за розміщення вмісту, пов’язаного з терористичними організаціями, вони мусили б цензурувати великі обсяги контенту, зокрема новини про терористичні акти та будь-яку згадку терористичних організацій. 

Відповідальність за контент користувачів може виглядати по-різному, адже будь-що, що є в інтернеті чи розміщено на сторінці користувача UGC-сервісу, може виглядати як рекомендація. UGC-сервіси (user generated content) — це ті, в яких вміст розміщують самі користувачі, а не найняті журналісти чи автори. Це соцмережі, форуми, блог-платформи: від Facebook, Twitter, Tiktok до Reddit, Quora, Medium. Відповідальність за користувацький контент може означати, що навіть звичайні користувачі інтернету, які добровільно стають модераторами на різних сайтах, можуть зіткнутися з юридичними ризиками. 

Чи повинні соціальні платформи регулювати контент і що з алгоритмами?

Попри те, що соціальні платформи не відповідають за користувацький контент, такі сервіси містять правила, згідно з якими вони можуть видаляти окремі дописи й банити користувачів. З початку повномасштабного вторгнення українські користувачі стали особливо часто страждати від видалення й блокування дописів. Через це компанії Meta довелось давати пояснення: українціпідозрювали8, що з українським контентом працюють росіяни. Міністерство цифрової трансформації зверталося до Meta із проханнямпокращити9 модерацію українського контенту. Ба більше, на офіційному сайтіпетицій10 президента України з’явився заклик звернутися до керівництва Meta «з проханням переглянути правила спільнот та перестати блокувати українські акаунти, що висвітлюють події в Україні, збирають кошти на допомогу ЗСУ та постраждалим громадянам та врешті називають війну війною». Петиція набрала необхідні 25 тисяч голосів і перебуває на розгляді президента. У компанії Meta запевнили8, що український контент не модерують у Росії. 

Найбільш яскравим прикладом недостатніх зусиль щодо модерування контенту стала соціальна платформа Twitter. Після купівлі сервісу Ілоном Маском модерування контенту значно погіршилося, на сайті стали масовопрацювати11 ботоферми, що поширюють пропаганду. Експерти відзначилизростання12 дискримінаційного контенту, в певний момент Twitter буквально заполонили акаунти, щопоширювали13 мову ненависті та дезінформацію. Детальне дослідження журналістів BBCпоказало14, що Twitter не здатен впоратись із потоком пропаганди та фейків. Це сталося через те, що Ілон Маск скоротив велику кількість співробітників компанії, серед них — відділи, які займалися модерацією контенту та боротьбою з поширенням дезінформації. 

Прямим наслідком цих процесів сталавтрата15 рекламодавців сервісом Twitter, які не бажали розміщувати рекламні дописи поруч із фейками чи контентом із мовою ненависті. 

В інтернеті існують немодеровані платформи, до прикладу,Parler16 чи4chan17. Проте через контент ультраправого спрямування й прихильників теорій змови часто технологічні компанії видаляють їхні додатки чи блокують такі сервіси.   

Складніша історія стосується не лише розміщення контенту, а рекомендаційних алгоритмів. У рішенні Верховного суду в обох справах суд чітко визначив, що алгоритми не залежать від природи контенту, а той факт, що ці алгоритми співставили певний контент, створений терористами, з певними користувачами, не перетворює платформи на помічників в їхній незаконній діяльності. Водночас якщо пригадати початок війни проти України та дії соціальних сервісів, то одним із перших кроків, запроваджених соціальними сервісами,стало18 обмеження доступності дописів російських пропагандистів в рекомендаціях та позбавлення їх монетизації, тобто заробітку за допомогою реклами. Власне, й Twitter тоді відключив профілі пропагандистів від рекомендацій — при спробі пошукати на сайті акаунт Мєдвєдєва чи «РИА Новости» Twitter не показував ці назви у списку. 

 

Підписатися на Куншт

Корисна розсилка про науку.
Статті, відео і подкасти щотижня та без спаму.

Що буде далі?

У США уже давно спостерігаються спробизмінити19 Розділ 230. 

Проти Розділу 230 в такому виглядівиступав20 Дональд Трамп — свої претензії колишній президент висловив після того, як Twitter видалив окремі дописи Трампа та додав помітку про те, що глава держави поширює неперевірений контент. 

Трамп заявляв, ніби соціальні платформи мають необмежені можливості щодо модерування контенту — адже вони можуть видаляти дописи з мовою ненависті чи фейки — але не мають відповідальності за користувацький вміст. 

Натомість захисники цифрових прав, зокрема організація Electronic Frontier Foundation,переконані21, що Розділ 230 є одним з найбільш цінних інструментів захисту свободи слова в інтернеті. 

Коментуючи ще в жовтні 2022 року необхідність реформи цієї законодавчої норми, сенатори заявили, що вона є застарілою, і її потрібно змінити. Питання в тому, як саме ці зміни будуть впроваджені. Один із можливих напрямків реформи — надати сайтам більше повноважень щодо модерації вмісту.  

Проте існує й інший підхід до роботи соціальних платформ, який ужепродемонстровано22 в Техасі. Ще в 2021 році там ухвалили закон про соціальні мережі HB20 — Texas House Bill 20, який забороняв соціальній платформі з аудиторією понад 50 мільйонів користувачів на місяць, «блокувати, забороняти, видаляти, деактивовувати, обмежувати» будь-який контент, який базується на точці зору певної людини. Ця норма дуже складна для виконання, адже вона означає заборону на видалення екстремістського контенту, мови ненависті, дезінформації та багато чого іншого, стосовно чого можна сказати, що цей контент базується на власній думці користувача. 

Справа, яку розглядали у Верховному суді, цікава тим, що вона була першою спробою визначити відповідальність не лише за контент на платформах, але й за роботу рекомендаційних алгоритмів. Адміністрація Байдена ще в грудні оприлюднила заяву про те, що платформи соціальних мереж потенційноповинні23 нести відповідальність за рекомендації, зроблені їхніми алгоритмами контенту. А відповідні закони (вочевидь, мова йшла про Розділ 230) не повинні захищати великі технологічні компанії від позовів, що стосуються рекомендаційних алгоритмів. 

Можна припустити, що саме в цьому напрямку слід очікувати реформи Розділу 230, особливо за умови розвитку інструментів штучного інтелекту. Тим більше, що у світі уже є спроби регулювання рекомендаційних алгоритмів. Наприклад, у Європі ухвалили24 норму прозорості алгоритмічного регулювання, головна суть якої — у розкритті алгоритмів за запитом влади. 

Навряд інтернет-сервісам вдасться уникнути реформи Розділу 230, так само як регуляційні алгоритми, найімовірніше, теж потраплять у поле зору законотворців, особливо зараз, коли світ переживає нашестя технологій штучного інтелекту й намагається зрозуміти, як жити й розвиватися з цією новою технологією. Як це регулювання буде реалізоване, сказати складно. Очевидно, що соціальним платформам, попри небажання відкривати свої рекомендаційні алгоритми з одного боку, й бажання заробітку на них з іншого, доведеться піти на співробітництво із владою в цьому питанні. 

Посилання:

  1. Рішення Верховного суду США щодо соціальних платформ.
  2. Про ухиляння від цензури Верховного суду.
  3. Справа «Таамне проти Twitter».
  4. «Гонсалес проти Google» .
  5. Розділ 230: що це таке.
  6. Communications Decency Act.
  7. The Washington Post про Розділ 230.
  8. Meta просять не блокувати контент українських блогерів у соцмережах.
  9. Текст петиції.
  10. Meta: Український контент Facebook не модерують в Росії, а дописи не видаляють лише через скарги.
  11. Скорочення у Twitter і російські тролі.
  12. Дослідження показує зростання антисемітських твітів.
  13. Хейтспіч і теорії змови у Twitter.
  14. Про тролінг за часів керівництва Маска.
  15. Про рекламодавців і Twitter.
  16. Parler.
  17. 4chan.
  18. Як російська агресія змінила пошукові сервіси та соціальні мережі.
  19. Сенатори попереджають bigtech щодо Розділу 230.
  20. Твіт Дональда Трампа.
  21. Розділ 230.
  22. Відповіді техкомпаній.
  23. Про заяву Адміністрації Байдена.
  24. Закон про цифрові послуги.

Популярні статті

Стаття Суспільство — 20 березня

Міражі науки. Як Близький Схід втратив наукову першість

Стаття Суспільство - 15 березня

Що допомагає диктаторам здобути владу. Треба розжувати

Стаття Пост правди - 19 липня

Інформаційні операції минулого. Пост правди, сезон 5, епізод 5