Генератори контенту, які використовують штучний інтелект, дуже вправні у створенні підробних відео. Якщо світ не знайде спосіб боротьби з такими фейками, інтернет перетвориться на глобальний майданчик неправдивого контенту.
Наприкінці січня 2024 року на платформі X (твіттер) стали масово поширювати підробні відео сексуального характеру, героїнею яких була співачка Тейлор Свіфт. Модератори платформи не змогли швидко відреагувати й заблокувати їх, тож деякі відео стали дуже популярними: один із них набрав1 понад 45 мільйонів переглядів й понад 24 тисячі репостів. Публікація протрималася на сайті близько 17 годин — цього було більш ніж достатньо, аби контент став по-справжньому вірусним. Журналісти 404Media дослідили2, що ці відео перебралися у X (твіттер) з телеграму. Фан-база співачки дуже швидко мобілізувалась і почала скаржитися на них. Окрім того, фанати створили хештег #ProtectTaylorSwift, за допомогою якого «забили»3 пошукові видачі реальними знімками зірки — за деякими даними4, за добу понад 80 тисяч людей використали цей хештег. Утім деякі відео змогли5 потрапити у фейсбук та інстаграм.
Попри обурливість історії із підробними секс-відео співачки, в цьому випадку їй пощастило. І не лише тому, що фанати вирішили боротися самотужки. На захист Свіфт стало багато відомих людей та представників офіційних організацій. Із заявою виступили6 керівник Microsoft Сатья Наделла, Гільдія кіноакторів7, Національна мережа боротьби зі зґвалтуваннями, насильством та інцестом8. До обурення ситуацією долучилися представники Білого дому — прессекретарка Карін Жан-П’єр назвала9 інцидент «тривожним» і додала, що адміністрація президента Байдена закликає Конгрес вжити законодавчих заходів щодо цієї проблеми. Згодом конгресмен Джозеф Морелл подав3 законопроєкт10 під назвою «Закон про запобігання підробкам інтимних зображень» (Preventing Deepfakes of Intimate Images Act), який, за його словами, зробить створення таких відеороликів федеральним злочином.
Історія з діпфейками Тейлор Свіфт — не єдина, яка трапилася з початку 2024 року. До прикладу, діпфейки використовують злочинці: співробітник компанії з Гонконгу перерахував11 зловмисникам 25 мільйонів доларів, отримавши фейкове голосове повідомлення від свого керівника. Ще один відомий випадок — фальшиві голосові повідомлення, які надійшли¹² американським виборцям нібито від Джо Байдена. У них фейковий голос чинного президента закликав виборців не долучатися до праймеріз.
Використовуються діпфейки не лише в політичних процесах. Фінансові злочинці намагаються за допомогою цих інструментів обманювати жертв. До прикладу, штучно згенеровані відео, на яких зображені Такер Карлсон, Мартін Лютер Кінґ та Дональд Трамп закликали американців допомогти Трампу знову стати президентом. У людей, які бачили цей діпфейк, долучилися до закликів на підтримку та передали свої дані, почали¹³ списувати гроші з кредитних карток. Той факт, що ці відео масово поширювалися на ютубі та фейсбуці, показав неспроможність соціальних платформ оперативно виявляти й видаляти діпфейки.
Популярність такого контенту стрімко зросла останнім часом, і це напряму пов’язано з доступністю інструментів штучного інтелекту, здатних його генерувати. Завдяки цим сервісам створити підробку може будь-хто. Це й показали перші місяці 2024 року. Експерти очікують, що найближчим часом ми спостерігатимемо¹⁴ навалу підробних відео.
Що таке глибинні фейки
Глибинні фейки, або діпфейки (deep fakes), існують уже декілька років. Назва цього виду фейкового контенту походить від поєднання термінів «глибинне навчання» (deep learning) та, власне, слова «фейк».
Діпфейками називають підробні відео чи аудіо, створені за допомогою інструментів штучного інтелекту. Суть діпфейку полягає у накладанні різних зображень та голосової доріжки так, аби буквально змусити людину на відео говорити те, що потрібно його авторам. Іноді в діпфейках тіло однієї людини поєднують з головою іншої людини, і жертва підробки не говорить, а чинить те, що потрібно авторам відео. Саме такий підхід використовується у створенні порнодіпфейків, і вони були першим напрямком застосування діпфейкових відео. Такі відео про Тейлор Свіфт і поширилися наприкінці січня в соціальних платформах.
Перші діпфейкові відео з’явилися ще в 2017 році. Їх розмістив на платформі Reddit один із користувачів та використав назву «deepfakes» для своїх робіт. Того ж року в інтернеті з’явилося¹⁵ багато підробних секс-відео з відомими акторками.
Чому з розвитком ШІ проблема глибинних фейків стає особливо актуальною
Поява інструментів на кшалт ChatGPT, а згодом — таких сервісів, як Sora, значно спростили створення діпфейків. Раніше потрібні були потужні комп’ютери, які б спочатку генерували підробку, а потім вдосконалювали її (до появи сучасних ШІ-продуктів діпфейки створювали з використанням технології GAN¹⁶ — генеративно-змагальної мережі, generative adversarial network). Таку назву отримав алгоритм машинного навчання, який базується на комбінації двох нейромереж. Перша генерує відео, друга оцінює ймовірність того, що це відео підробка. Якщо друга визначає відео як фейкове, перша мусить створити новий відеоролик. Через їх постійне «змагання» між собою GAN дозволяє створити доволі високоякісні фейки.
Тепер же поява інструментів штучного інтелекту зі зручним інтерфейсом та зрозумілою взаємодією з ними спростила процес створення фейків.
Діпфейки стали повсюдними. Підлітки використовують цю технологію для створення¹⁷ секс-відео з однокласницями. У Британії це явище стало аж занадто масовим¹⁸. Ба більше, виникло відгалуження цієї технології — так звані «undress»-додатки, тобто додатки для «роздягання», які теж переживають сплеск інтересу за останні місяці.
На фоні таких історій експерти попереджають, що цього року діпфейки можуть масово використовувати¹⁹ під час виборів у різних країнах світу задля впливу на результат.
Їхні побоювання небезпідставні. Дослідники з британського Центру протидії цифровій ненависті перевірили²⁰, що популярні ШІ-інструменти (ChatGPT Plus, Image Creator, Midjourney і DreamStudio) використовують для створення підробних відео у 40% випадків. Іншими словами, інструменти штучного інтелекту вже сьогодні стали популярними засобами в руках «фейкоробів».
Що пропонують законодавці
Нашестя такого підробного контенту та оцінка його потенційної шкоди змусила законодавців оперативно запроваджувати відповідальність за поширення діпфейків.
У Британії ще в 2018 році запропонували²¹ законопроєкт, який вводив кримінальну відповідальність за поширення підробних секс-відео. Чіткіші правила покарання за такі дії внесли²² у британський Закон про безпеку в інтернеті (Online Safety Bill).
Після історії з Тейлор Свіфт американські законодавці запропонували²³ Закон про знищення відвертих підроблених зображень і редагування без згоди (DEFIANCE, The Disrupt Explicit Forged Images and Non-Consensual Edits). Він передбачає не лише кримінальну відповідальність за поширення таких відео, але й можливість жертвам отримати компенсацію. Криміналізувати поширення діпфейків готуються²⁴ і в ЄС.
Президент США Джо Байден закликав²⁵ прийняти законопроєкт, який регулює інструменти штучного інтелекту та забороняє імітацію голосу з їх допомогою. Це, вочевидь, відповідь на ту саму історію з роботизованими дзвінками.
Поки законотворці розглядають можливість боротьби із діпфейками на законодавчому рівні, у США відбувся перший арешт за створення підробних відео сексуального характеру. У Флориді заарештували двох підлітків 13 та 14 років, які так знущалися²⁶ з однокласниць.
Що пропонують техногіганти: спеціальні «водяні знаки» для ШІ-контенту
Соціальні платформи стали основними майданчиками для поширення діпфейкових відео. Тож саме вони одними з перших почали шукати шляхи розв’язання проблеми. Meta, TikTok та Google об’єдналися із OpenAI, Microsoft та Adobe в альянс, мета якого — розробити27 систему ідентифікації та маркування підробних відео. Цікаво, що в цій поважній групі техногігантів немає X (Twitter), хоча саме ця платформа сприяла поширенню підробних відео з Тейлор Свіфт.
У Meta розповіли28 про створення спеціальної системи позначок — цифрових водяних знаків, які повинні допомогти виявляти підробку. Вони дозволять29 додати видимі ідентифікатори того, що користувачі бачать штучно згенерований контент, а за потреби — заблокувати його.
Meta також працюватиме разом з іншими розробниками для впровадження стандарту C2PA (Coalition for Content Provenance and Authenticity, Коаліція за походження та автентичність вмісту), який передбачає, що до контенту будуть додавати дані, які покажуть, хто саме створив продукт. За задумом розробників, якщо контент не матиме такої цифрової відмітки, яка б розкривала його авторство, це означає, що вміст створено автоматизованими інструментами, до прикладу, ChatGPT. До речі, OpenAI вже використовує30 C2PA у своєму генераторі зображень DALL-E 3.
Окрім того, Meta вимагатиме від творців реклами повідомляти, коли вони скористалися ШІ для її створення. Це насамперед стосуватиметься31 політичної або соціальної реклами.
Інші компанії шукають власні способи для роботи зі штучним контентом. До прикладу, YouTube запроваджує32 нову вимогу до авторів відео із елементами штучного інтелекту — вони самі повинні додавати такі позначки до своїх відеороликів. А далі компанія вирішуватиме: достатньо цієї позначки чи потрібно додати більш видиму, як от для контенту, пов’язаного зі здоров’ям.
Що кажуть експерти: «водяні знаки» — не вихід
Ідея запровадження «водяних знаків» — поки єдине реальне технологічне рішення в боротьбі із підробними відео. Проте їхня ефективність сумнівна.
Дослідники33 з Університету Меріленду довели, що їх можна легко видалити з відео, а зловмисники можуть додавати такі водяні знаки до зображень, створених людиною. Це призведе до хибних спрацювань алгоритмів і завадить навчанню сервісів, у віддаленій перспективі знизивши результативність їхньої роботи. Такого самого висновку дійшли дослідники з Каліфорнійського університету в Санта-Барбарі та Карнеґі-Меллона — вони теж виявили34 серйозні вразливості системи водяних знаків.
Експерти організації Electronic Frontier Foundation запропонували35 критерії, яким повинні відповідати водяні знаки для ШІ-контенту. На їхню думку, вони повинні мати такі властивості:
— працювати після редагування зображення — після того, як зображення було обрізано, повернуто або відредаговано різними способами;
— не бути помітними, як водяні знаки на захищених зображеннях.
Як приклад наводиться незначна зміна окремих елементів відео, як от колір, для якого можна змінити один біт й створити візерунок з таких змінених фрагментів. Цей візерунок не буде видимим для глядачів, але його зможуть розпізнавати спеціальні інструменти.
Навчитися «бачити» підробне й справжнє
Хоча наявні інструменти не надто вправні у визначенні фейків, а запропонований підхід, який базується на водяних знаках, далеко не ідеальний, людство нікуди не втече від цієї проблеми. Нам доведеться або навчитися впізнавати підробний контент, або придумати спосіб ставити відмітки на вмісті, створеному людиною. Інакше інтернет перетворитися на звалище фейків. І тоді ми не будемо сміятися36 над відомим фейковим зображенням Папи Римського у модному пуховику чи дивуватися діпфейку з арештом Трампа. А «прогноз песиміста»37 агенції Bloomberg версії 2017 року, де йшлося про те, що фейкові новини вб’ють фейсбук, стане реальністю. Тільки жертвою стане не лише фейсбук, а й усі сервіси, що працюють з користувацьким контентом: соцмережі, пошукові платформ, відеохостинги.