Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Як російська пропаганда може використати технологію діпфейк проти України

Суспільство
3 Березня 2022, 18:24

Підробними та змонтованими відео сьогодні важко когось здивувати. Ми бачили, що відеомонтаж та сучасні графічні редактори можуть заставити нас повірити у нечувані речі. Photoshop як інструмент у гібридній війні – це уже справа минулого. Більш небезпечною зброєю стають діпфейки – підробні відео, в якому героя відеоролику заставили рухатися так, як хоче автор відео, або, ще гірше, вклали у його вуста слова, які він ніколи не говорив. Назва цієї технології є скороченням двох слів – «deep» що означає «глибина» та  «fake» – власне «фейк» чи «підробка». Ця назва пояснює технології створення таких відео: технологія глибинного фейку використовує штучний інтелект таким чином, щоб зробити відео максимально реалістичним. Досвідчені користувачі інтернету пам’ятають додаток FaceApp, який працював схоже на генерацію діпфейків – він дозволяв накласти своє обличчя на популярні фрагменти фільмів.

Українські фахівці очікують, що саме за допомогою діпфейк-відео окупанти зможуть спробувати підірвати бойовий дух українців. Російські спецслужби готують до розповсюдження діпфейк, в якому президент Зеленський буцім-то говорить про капітуляцію та про те, що він погодився на вимоги Москви.

Особливість діпфейк-відео полягає в тому, що його автори змінюють артикуляцію (рух губ) людини на відео таким чином, щоб вона співпадала з словами, які вона говорить. Іншими словами, вони буквально «вкладають в уста» людині ті слова, яких вона ніколи не говорила. Тож нефахівцю або людині, яка не знає про таку технологію, дуже важко зрозуміти, що перед нею фальшивка.

Ось як виглядають діпфейки

Сьогодні фахівці з фактчекінгу уже навчилися визначати діпфейк-відео фахівці за певними критеріями. До прикладу, там може бути видно «склейки» чи неприродній рух рота. Також зрозуміти, що перед вами діпфейк, можна, якщо придивитися до обличчя людини – її міміка може вам здатися неприродньою, овал лиця буде майже нерухомий, голос звучатиме дещо штучно. Проте з кожним місяцем діпфейк-відео стають все досконалішими та їх все важче розпіщнавати. Це пов’язано із вдосколенням інструментів, за допомогою яких діпфейки роблять.

Ось приклад одного з найсвіжіших діпфейків з Путіним

Але в будь-якому випадку в сучасних умовах, коли ми живемо в часи воєнного стану та гібридної війни, не варто вірити відео, яке опубліковане в інтернеті, навіть якщо автор публікації – відома людина, що заслуговує довіри. В наш час, коли ситуація швидко змінюється, а перевіряти весь контент немає часу, будь-хто може повірити в діпфейк. Тому, якщо ви побачите відеозвернення високопосадовця, що виступає з певними заявами, йому краще не вірити, доки не отримаєте підтвердження з офіційних джерел. А іще краще – знайти офіційний сайт чи Facebook-сторінку згаданої персони і перевірити, чи є це відео там.