Стаття Технології — 07 серпня, 2024

Пролітаючи над гніздом Midjourney: діпфейки в режимі реального часу

ТЕКСТ:

У 2019 році приблизно кожні сім з десяти опитаних у США вважали1, що діпфейки й неправдиві новини є серйозною проблемою. У 2021 році вже 96% респондентів заявили2 про бажання обмежити неправдиву інформацію. При цьому заледве пʼята частина опитаних була впевнена3, що зіткнувшись із фейками, зможе їх розпізнати. Час іде, а статистика показує дедалі гірші результати щодо кількості генерованого контенту і його впливу на репутації, політичний дискурс, процеси ухвалення рішень і побут. 

Водночас вдалого регулювання цього питання досі не розробили. Закони переважно спрямовані на рішення проблем, а не їх запобігання. Навіть норми щодо штучного інтелекту (ШІ) в США та ЄС (ловіть їх опис у першому розділі аналітики4), є радше реактивним регулюванням. За останні три роки за допомогою ШІ зробили скандальні порно-фото Тейлор Свіфт5, фейкові відео Ріші Сунака6, діпфейки Зеленського7, Залужного8 і Сирського9, сатиричні генеровані зображення зустрічей Педро Санчеза і Джо Байдена10, і ще цікавіші (принаймні з фактчекінгової точки зору) фейкові аудіозвернення Байдена11 якраз напередодні виборів. 

До того ж ніхто достеменно не розуміє, що потрібно регулювати у випадку з діпфейками. Саму технологію синтетичних медіа12 забороняти немає сенсу — постраждає величезна частка креативних індустрій. Світ позбудеться майбутніх аналогів «Аватара», «Гоббіта» та багатьох інших шедеврів кінематографу. На додачу, ідея заборонити вже відому світові технологію заздалегідь провальна. Це перешкодить Midjourney і DALL-E генерувати рекламу, сатиру і меми, але політичні фейки, порнографія та інший нелегальний контент процвітатиме, адже генеруватиметься підпільно і без мінімального контролю з боку добросовісних корпорацій чи держави. Сценарій не з найкращих.

Утім, давайте про позитив. Якщо говорити про скандали13, повʼязані з діпфейками, — ми ще пливемо у човні, а не вирушили у вільне плавання відкритим океаном. Генеровані відео й зображення, провівши декілька годин чи днів онлайн, переважно виявляються і перевіряються прискіпливими користувачами, фактчекерами чи тими, кого такі діпфейки стосувалися. Що це означає на практиці? Ми все ще здатні розуміти, що є генерованим, а що — ні, і, як наслідок, здатні хоча б частково нівелювати ефект дезінформації. Цікавішою гра стає тоді, коли ми не можемо відрізнити правду від вигадки — ні неозброєним оком, ні технічно. І якщо вам на секунду здалося, що такі часи досі не настали, пропоную поговорити про всіма забуті Zoom-дзвінки (не)Кличка. Не перемикайтесь і не виходьте з кімнати.

Вино з українських кульбаб  діпфейків

Цей випадок потонув у шквалі чи то критики Кличка за вирубку зелених насаджень в Києві, чи то більш популярних діпфейків Зеленського і Залужного. Втім, його характер є небезпечнішим і неочікуванішим, ніж останні. У червні 2022 року мери Берліна, Мадрида, Відня, Будапешта та Варшави отримали запрошення14 на відеодзвінок від Віталія Кличка — і оскільки підтримка України була першим питанням порядку денного, одразу погодилися провести Zoom. Про дзвінок з Києвом навіть оголошувала15 канцелярія сенату Берліна. Двоє мерів говорили16 з, як з’ясувалося, фейковим Кличком понад 15 хвилин і обговорювали багато стратегічних питань. Мер Відня взагалі здогадався17 про несправжність співрозмовника лише після оголошення з Берліна та Мадрида. Що це означає на практиці й чому час задуматися?

Насамперед, як показує розбір ситуації14 від Forbes, це свідчить про низький рівень цифрової безпеки команд органів муніципальної влади (наприклад, угорці заявили, що у них «не було причин для підозр»). Так, для секретаріату мерії Берліна було достатньо, що домен пошти, з якої надійшло запрошення, був схожим на звичний для них український домен співрозмовників. При цьому запрошення надійшло після 21:00, що ускладнило перевірку, але й не викликало питань в контексті збройного конфлікту. Тобто додаткових перевірок не було, а списку офіційних пошт не існує.

По-друге, технологія виготовлення діпфейків прогресує. Експерти говорять про можливість створити більш-менш якісну підробку за два дні. Наприклад, можна повністю генерувати чиєсь зображення, а можна вдатися до технології re-enactment (застосованої у створенні одного з найпопулярніших діпфейків Обами18), яка дозволяє брати кадри з реальних матеріалів (фото чи відео) і накладати їх на міміку шахрая. Детальніше про те, як розвивається і використовується ця технологія, можна подивитися тут19. Інший варіант — просто взяти нарізку реальних виступів людини і за допомогою ШІ зробити плавні переходи, щоб глядачі не помітили технічної обробки. Варіантів — море, і вони стають все більш поширеними й доступними, зокрема й для загальної аудиторії.

Зрештою, низька захищеність програм для відеоконференцій, на кшталт Zoom, Teams i Google Meet сприяє зловживанням (або принаймні не мінімізує їх достатньо). Йдеться про можливість підʼєднатися без додаткової автентифікації, відсутність перевірки фільтрів чи обробки зображень, а також перспективи залишитися анонімним для інших учасників. Помножте це на загальний низький рівень цифрової безпеки й отримаємо численні випадки Zoom-бомбінгу20 — від звичайної порнографії в прямому етері для зриву конференцій до викрадення важливої інформації з конфіденційних дзвінків. 

І якщо цифрова безпека органів місцевого самоврядування — річ поправна і тепер точно буде (чи принаймні мало б стати) актуальнішим питанням, то захист онлайн-дзвінків й існування діпфейків у режимі реального часу — два неабиякі виклики. Про них і поговоримо.

Чи мріє Google Meet про згенеровані відео?

Здавалося б, найгірше, що може трапитися на незахищеному онлайн-дзвінку саме з вами — жарти від колег, які використовують фільтр Тома Круза. Але не все так прозаїчно. Наприклад, під час включення експерта на ВВС News21 за Zoom-посиланням до конференції підʼєдналася стороння жінка і залишалася в етері близько 45 секунд. Ніхто не знав, як їй вдалося підʼєднатися і якою була її мета. Зʼясувати цього так і не вдалося.

Випадок на телебаченні — один з десятків. Після початку пандемії використання додатків для онлайн-конференцій суттєво зросло. Їх використовують з приватною, професійною і навіть дипломатичною метою. Роботу багатьох державних органів перевели онлайн. Але й тут не обійшлося без грандіозних безпекових провалів. Так, нідерландський журналіст підʼєднався до конференції міністрів оборони в ЄС22 через те, що нідерландський міністр випадково затвітив деталі для логіну. Оскільки фото частково містило пароль23 — журналіст підібрав символи, яких бракувало, і доєднався до дзвінка. Зайвим буде казати, що розмова мала винятково конфіденційний характер24 і не була відкрита для медіа.

Схожа історія сталася з британським премʼєром, який затвітив25 ID Zoom-зустрічі назагал. Після таких пригод багато парламентарів і урядовців почали використовувати26 більш захищені платні версії програм, а безпекові служби навіть виступали із заявами25 про небезпеку таких платформ як Zoom для ведення державних справ. Серед ключових проблем виокремили те, що ранні версії програми надсилали аналітичні дані в фейсбук27, додаток не мав захищеного зʼєднання28, потенційно мав звʼязки з Китаєм29 (щонайменше в питаннях управління даними), а також часто працював некоректно: показував поштові адреси й фото незнайомцям30, а навіть іноді розкривав паролі до Windows31. Сьогодні багато діпфейків відомих політиків, активістів та блогерів уже можна знайти онлайн, тоді як дедалі більше з них публікують інформацію32 про фейкові дзвінки та звернення від їхнього імені на різних ресурсах.

Зрештою, чималою проблемою є фейкові Zoom-посилання33 (або ж запрошення на дзвінки в Teams, Google Meet чи інших онлайн-конференціях). Зловмисники і шахраї можуть створити несправжнє посилання для того, щоб дізнатися логін та пароль34 до акаунта працівника і потім використовувати його для крадіжки ідентичності. Це дозволить, до прикладу, організовувати дзвінки з контрагентами чи іншими колегами, підштовхуючи їх до потрібних дій (цікаві історії про це — нижче). Основним щепленням від таких ситуацій є тренінги з цифрової безпеки, хоча ніхто не застрахований від переходу за фішинговим лінком. Бо в таких ситуаціях проблема не тільки і не стільки у захищеності застосунків для конференцій, скільки у здатності розпізнати спробу шахрайства. Чи є способи запобігти катастрофі, ми поговоримо трошки згодом.

На фронті відеоконференцій без змін

З діпфейками в режимі реального часу є дві проблеми: якість самих діпфейків і технічна можливість перевірити, чи перед вами справді та людина, на дзвінок або виступ якої ви очікували. Насамперед варто визнати, що навряд кожен Zoom починатиметься з увімкненої програми перевірки особи учасників. Водночас вельми винахідливі розробники вже створили датасет35, який дозволяє створювати пасовиська ботів на Zoom-дзвінках — зокрема таких, що можуть імітувати тілесні рухи і через це бути менш помітними серед реальних учасників. Інша сучасна розробка дозволяє36 генерувати фейкові відео з уже існуючого онлайн контенту про людину, а також використовувати вже згадану технологію re-enactment у режимі реального часу.

Переважно такі застосунки і плагіни використовують офісні працівники37 — наприклад, потрібно імітувати активну залученість у робочу онлайн-нараду чи розважити колег фільтром з обличчям кінозірки. Останнє до того ж можливо завдяки технологіям заміни облич38 — більшість таких систем сьогодні не потребують жодних попередніх тренувань чи завантажень датасетів. Тобто користувачеві достатньо просто увімкнути власну камеру і позначити ту відому особу, якою він хоче прикинутися. За мінімальної зовнішньої схожості з обраною «ціллю» фільтр лягає дуже природно, тож відрізнити людей без контекстуального аналізу майже нереально. І це при тому, що якість відео у програмах для онлайн-дзвінків сама по собі досить низька — тобто «зернистість» чи невідповідність кольорів часто списують на «глюки» чи поганий звʼязок. Якщо ж цілі не такі мирні, як у лінивих офісних працівників, на GitHub вже існують публічні інструкції39, які допомагають робити онлайн-діпфейки більш реалістичними.

Хто цим переважно користується? Перші у списку, звичайно ж, інтернет-шахраї. Наприклад, відомі скамери з Нігерії, що називають себе Yahoo Boys40, використовують діпфейки, щоб виманювати гроші, втягуючи людей у фейкові романтичні онлайн-стосунки. Багато відео вони викладали в онлайн. Відповідно до даних ФБР41, у 2023 році шахрайство довкола романтичних тем принесло зловмисникам близько 650 мільйонів доларів (і значну частину з них отримали42 Yahoo Boys). Непогана професія, еге ж? Дослідник у сфері онлайн-шахрайства Девід Меймон зʼясував43, що в багатьох відео час від часу навіть помітно обличчя реальних шахраїв та їхніх «жертв» — роблять вони це переважно тому, що не надто переймаються наслідками. Поміж іншого, Yahoo Boys займаються компроментуванням бізнес-пошт44, криптошахрайством45, створенням підробних профайлів42, й іноді це призводило до суїциду неповнолітніх46 (зокрема, через поширення порнофейків і подальший суспільний осуд). Цікаво, що шахрайські техніки й посилання на використовувані технології поширюються переважно у телеграмі як найменш модерованій платформі. Який дивний збіг з російською дезінформацією!

Утім, якщо Yahoo Boys переважно націлювалися на пересічних користувачів, інші шахраї можуть спробувати спіймати більш «велику рибу». Наприклад, минулоріч у Гонконгу міжнародна компанія отримала47 збитків на 25 мільйонів доларів через дзвінок, на якому зімітували головного фінансового директора, що погодив банківські транзакції. Цікаво, що спершу працівник отримав листа і подумав, що він фішинговий48, та лише після дзвінка пересвідчився49, що запит від керівництва «справжній». Помилку виявили аж тиждень по тому. Коли кейс почали розбирати, зʼясувалося, що дзвінок було спроєктовано так, що директор та інші колеги виглядали справжніми і навіть мали досить реалістичні голоси (найімовірніше, знайшли їхні попередні публічні виступи50 і вже на них натренували систему). Схожа ситуація сталася в Японії — тільки там втрати сягнули51 35 мільйонів доларів і сталося це ще в 2020 році. Подібні випадки траплялися47 у Китаї і кількох європейських країнах. Годі й казати, що ефективного рішення за останні пʼять років не знайшли. 

Проблема існує не лише в площині онлайн-шахрайства. Передвиборча реклама чи кампанії, спрямовані на очорнення репутації публічних осіб, вже не за горами. Наприклад, нещодавно нібито Вілл Сміт зʼявився на конференції з компʼютерної графіки та інтерактивних технологій SIGGRAPH 2020. Насправді ж це був його цифровий аватар, створений високоякісною програмою52. Розробник технології під час інтервʼю наголосив53, що в майбутньому щось подібне буде всюди і, очевидно, використовуватиметься не лише для позитивних мистецьких цілей. Уявіть свою реакцію, якщо під час прямого етеру політик робить контраверсійні заяви. Чи повірили б ви? Чи змогли б ви перевірити?

Аналіз Gartner54 показав, що системи біометричної ідентифікації будуть неефективні вже у 2026 році. Тобто для них діпфейки будуть такими ж людьми, як і фото реальних осіб. Чи врятують світ вотермарки55 й інші маркування? У класичному розумінні — навряд. Наприклад, відео шотландської парламентарки Меґґі Чапмен, позначене вотермаркою телебачення шотландського парламенту, набрало56 понад 34 тисячі переглядів і понад 150 репостів. При цьому, Чапмен на відео пропонувала демонтувати усі дороги — що, на думку автора діпфейку, явно мало б натякати на те, що відео несправжнє. Аудиторії це, втім, не допомогло. Чи варто згадувати про те, що відео фейкове? Без вотермарок, щоправда, ситуація ще гірша: минулоріч у Словаччині діпфейк Михала Шимечки56 (кандидата від ліберальної партії) поширювали за два дні до виборів. І хоча чіткого причинно-наслідкового звʼязку встановлено не було, вибори він програв своєму проросійському опоненту. 

Підписатися на Куншт

Корисна розсилка про науку.
Статті, відео і подкасти щотижня та без спаму.

Атлант розправив віртуальні плечі

О, прекрасний світ новий, де ніколи не знаєш, чи раптом не говориш з Siri, Джарвіс або цифровим клоном свого сусіда. Що робити та як не попастися на вудочку шахраїв, дезінформаторів чи звичайних пранкерів?

По-перше, існує багацько технічних інструментів57, щоб перевірити, чи співрозмовник раптом не використовує фільтри або не є цифровим аватаром58. Але навряд кожен з нас постійно вмикає верифікаційні плагіни на кожній зустрічі. Тож подумаймо, що можна робити без допоміжних засобів:

— встановлювати фразу-пароль. Для важливих дзвінків на кшталт бізнес-розмов, наукових конференцій чи міжнародних самітів варто встановлювати «ключову фразу» на додачу до звичайних деталей для логіну — паролю та ID;

— перевіряти особу тих, хто доєднується, поза Zoom-дзвінками. Наприклад, якщо йдеться про дзвінок з людиною, яку ми бачимо вперше, варто загуглити її зовнішність до того, як починати відеоконференцію, або побачитися59 з колегою вживу, якщо є така можливість;

— встановлювати PIN-коди та інші додаткові засоби захисту на дзвінки;

— проводити конференції за одноразовим лінком, який генерується на конкретну зустріч, а не буде доступний постійно;

— здійснювати всі ті заходи60, до яких ми вдаємося, коли перевіряємо, чи відео чи фото не є діпфейком: перевіряти регулярність кліпання, міміку, освітлення, вираз обличчя, ліпсинк (відповідність тексту рухам губ) та інші аспекти. Онлайн також можна попрохати людину повернути голову вбік61, що може вплинути на фільтри.

Наразі ситуація не є надміру критичною, втім, з огляду на швидкий розвиток технологій, світову навалу діпфейків передбачають вже на початку осені. Оскільки діпфейки в режимі реального часу є менш очікуваними і складнішими для перевірки, варто бути обачними. Особливо коли йдеться про питання національної безпеки, бізнес-домовленості чи важливу інформацію у кризові періоди. 

Якщо для звичайних діпфейків принаймні є законодавчі рішення, то фільтри і підробки у режимі реального часу врегулювати не так легко. Тож дискусії щодо законопроєктів на цю тему лише майорять на обрії.  

А наостанок додаємо перелік додатків для самоперевірки:

  • DetectFakes62 (потрібно вгадати, чи зображення штучно згенероване і пояснити, чому);
  • GetTheFakeOut63 (дозволяє вгадувати, чи зображення генеровані — у безкоштовній версії лише фейки:);
  • SumSub64 (потрібно вгадати, яке з двох зображень штучно згенероване);
  • Fraunhofer AISEC65 (потрібно зрозуміти, чи аудіо автентичне);
  • SpotDeepfakes66 (тест на розуміння природи діпфейків, їх поширеності та шкоди);
  • GetBadNews67 (гра, що пояснює, як поширюється дезінформація).

Проводьте важливі розмови обачно, а краще — зустрічайтеся з людьми вживу! Щоправда, так вас ймовірніше за все помітять вуличні камери, але це вже зовсім інша історія.

Цей текст створено спільно з Лабораторією цифрової безпеки.

Підтримайте Куншт

Допоможіть нам розвивати наукову журналістику в Україні! Долучайтеся до нашої спільноти Друзів Куншт!

Посилання:

  1. Дані на Statista.
  2. Скільки людей перевіряють факти з новин?
  3. Фейкові новини в США.
  4. Штучний інтелект у публічному секторі.
  5. Про порно-фото Тейлор Свіфт.
  6. Детальніше про фейкові відео Ріші Сунака.
  7. Допис ІМІ у фейсбуці.
  8. Діпфейки відеозвернення Залужного.
  9. Росіяни поширюють діпфейк Сирського.
  10. Згенеровані зображення зустрічей Педро Санчеза і Джо Байдена.
  11. Фейкові аудіозвернення Байдена.
  12. Синтетичні медіа: типи, застосування та етичні наслідки.
  13. Як дезінформація, створена штучним інтелектом, може вплинути на вибори?
  14. Як зловмисники створили фейкового мера Києва і провели розмови з керівниками п'яти європейських столиць?
  15. Мери Берліна та Мадрида поспілкувалися з фейковим Кличком.
  16. Реакція європейських політиків на відеофейк з мером Києва.
  17. Мер Відня також став жертвою обману з діпфейком Віталія Кличка.
  18. Глибинний фейк Обами.
  19. This Realtime AI Deepfake has gone too far.
  20. Що таке Zoom-бомбінг?
  21. Історія про помилкове під'єднання на ВВС News.
  22. Як нідерландський журналіст підʼєднався до конференції міністрів оборони в ЄС?
  23. Чому журналіст зламав засідання засідання Ради ЄС?
  24. Про конфіденційність відеоконференції.
  25. UK government defends PM's use of Zoom.
  26. House of Commons meeting virtually on a platform described as a 'gold rush for cyber spies'.
  27. Zoom видаляє код, який надсилає дані на фейсбук.
  28. Чи шифруються зустрічі в Zoom наскрізно?
  29. Про шифрування в Zoom.
  30. Zoom передає незнайомцям електронні адреси та фотографії людей.
  31. Прогалини Zoom для зловмисників.
  32. Що станеться, коли ШІ використовуватимуть проти політиків?
  33. Як розпізнати фальшиве запрошення Zoom?
  34. Real-time Deepfakes May Necessitate Enhancements to Wire Transfer BEC Policies.
  35. Zoom-DF.
  36. Як убезпечитися під час онлайн-зустрічей?
  37. Як імітують активну залученість під час онлайн-зустрічей?
  38. Яка програма може підробити вас у реальному часі під час відеозустрічі?
  39. DeepFaceLive.
  40. Нігерійські електронні шахраї ефективніші, ніж будь-коли.
  41. Звіт за 2023 рік.
  42. The Real-Time Deepfake Romance Scams Have Arrived.
  43. Допис Девіда Меймона.
  44. The Decade Big-Money Email Scams Took Over.
  45. What Is a Pig Butchering Scam?
  46. How the latest tragic B.C. sextortion case mirrors a global trend?
  47. Deepfake video conference convinces employee to send $25M to scammers.
  48. Чому ми ведемося на фішинг?
  49. HK firm scammed of $34 million after employee duped by video call with deepfake of CFO.
  50. Hong Kong Video Deepfake Scam Nets HK$200 Million, Fraud Involved Simulation of Multiple Video Conference Participants.
  51. Fraudsters Cloned Company Director’s Voice In $35 Million Heist, Police Find.
  52. Презентаційні ресурси.
  53. ШІ-аватари, віртуальні помічники та діпфейки.
  54. Аналіз Gartner.
  55. Що таке вотемарки?
  56. Небезпеки глибинних фейків під час виборів.
  57. Виявлення діпфейків у реальному часі за допомогою активного освітлення.
  58. Applying Self-recognition Biometrics to Live Deepfake Detection in Video Conferences.
  59. Як захистити себе від діпфейків під час відеодзвінків?
  60. How easy deepfake can join your Zoom and Google meeting?
  61. That Colleague or Customer on Zoom Might Be an AI Deepfake.
  62. DetectFakes.
  63. GetTheFakeOut.
  64. SumSub.
  65. Fraunhofer AISEC.
  66. SpotDeepfakes.
  67. GetBadNews.

Статті, які можуть вас зацікавити

Стаття Технології — 21 квітня

Бреше і не червоніє

Стаття Технології — 31 травня

Чому нам не загрожує повстання штучного інтелекту? Уривок з книги «Як ми вчимося. Чому мозок навчається краще, ніж машина… Поки що»

Озвучена стаття Технології — 09 квітня

Глибока проблема з глибинними фейками. Чи навчиться світ регулювати ШІ-відео

Популярні статті

Стаття Суспільство — 20 березня

Міражі науки. Як Близький Схід втратив наукову першість

Стаття Суспільство - 15 березня

Що допомагає диктаторам здобути владу. Треба розжувати

Стаття Пост правди - 19 липня

Інформаційні операції минулого. Пост правди, сезон 5, епізод 5