Deepfakes або новий рівень фейків

Наука
19 Червня 2019, 14:58
В умовах тривалої інформаційної війни з Росією, нам не звикати до фейкових новин, але варто знати, що сьогодні з’являється все більше можливостей для підробки фотографій, аудіо- та відеоматеріалів таким чином, що розпізнати підробку стає практично неможливим. Зазвичай, для створення «просунутих» фейкових матеріалів використовують алгоритми глибинного навчання (deep learning), і відповідно на Заході такі фейки називають deepfakes.

 

Нещодавно у США було зафіксовано кілька цікавих випадків використання  та поширення у соцмережах відредагованих відеороликів. У першому випадку, відео з виступу спікера Палати представників Ненсі Пелосі було трохи уповільнено, в результаті чого при перегляді відредагованого відео складається враження, що спікер п’яна і ледь вимовляє слова. За добу відео переглянули більш ніж 2 млн разів, поширили 45 тисяч разів та залишили понад 23 тисяч коментарів на кшталт «геть п’яна» та «безладне базікання». Навіть Рудольф Джуліані, особистий адвокат Трампа, що віднедавна відомий і в Україні, написав у своєму Twitter “Що сталося з Ненсі Пелосі? Її мова якась дивна” і прикріпив посилання на відредаговане відео. Щоправда, незабаром цей запис було прибрано. Точилося багато дискусій щодо того, чи повинен Facebook видалити з платформи уповільнений відеозапис з Ненсі Пелосі. В результаті, відео все ж таки залишили, але зробили помітку про те, що відеозапис було відредаговано.

 

Читайте також: Чим забезпечено успіх фейків

 

І ось, буквально за кілька тижнів в Instagram з’являється фейковий відеозапис вже з Марком Цукербергом у головній ролі. У кліпі Марк говорить про те, як «одна людина володіє краденими даними про мільярди людей, про усі їх таємниці, їх життя та майбутнє». Цього разу були використані вже більш складні технології редагування відео, що дозволяє говорити про deepfake. Менш з тим, у Facebook пообіцяли не видаляти і це відео також.

 

Крім того, виявилося, що фото, повністю синтезовані за допомогою нейромереж, використовують у своїх профайлах шпигуни для встановлення зв’язку з особами, що представляють для них інтерес. Так, на платформі LinkedIn було виявлено профайл Кеті Джонс, яка встигла встановити контакт з кількома впливовими політиками та економістами перш ніж було виявлено, що особи на фото просто не існує, а знімок згенеровано алгоритмом.

 

 

Новини про те, з якою швидкістю та легкістю практично будь-хто може створити та поширити неправдиве відео чи фото, суттєво вплинувши при цьому на думку суспільства, сколихнули американський медіапростір, особливо у світлі президентських виборів, що мають відбутися там наступного року. Тож, Палата представників провела перші слухання на тему deepfake, а представниця Іветт Кларк підготувала законопроект, покликаний встановити необхідний контроль у цій сфері.

 

Законопроект кілька місяців обговорювався серед комп’ютерних спеціалістів, експертів з дезінформації та правозахисників, і наразі він включає три основні положення. По-перше, компанії та дослідники, які розробляють інструменти, що можуть бути використані для створення deepfakes, повинні забезпечити автоматичне додавання відповідних водяних знаків до підроблених матеріалів.

 

Читайте також: Крістін Дюґуен: «Повністю відокремити пропаганду від журналістики ніколи не буде легко»

 

По-друге, соціальні мережі повинні покращити свій інструментарій для виявлення підробок вже безпосередньо на своїй платформі. Громадські організації пропонують також змусити соціальні мережі маркувати усі фото- та відеоматеріали, що були відредаговані таким чином, що це важко виявити людині без додаткових інструментів. Причому таке маркування повинно бути видиме безпосередньо у стрічці новин. А Google, наприклад, повинен забезпечити легший пошук початкового відеоматеріалу аби допомогти журналістам та іншим користувачам швидше виявляти оригінальний відеозапис.

 

Читайте також: Ефект смаженого півня

 

І нарешті, третє ключове положення запропонованого законопроекту стосується покарань, в тому числі у вигляді штрафів та тюремного ув’язнення, для тих осіб, що створили deepfakes, які нанесли шкоду окремим індивідуумам або поставили під загрозу національну безпеку.

 

За збігом обставин, неприбуткова організація із захисту прав людини Witness випустила свій звіт щодо теперішнього стану технологій deepfakes на тому ж тижні, що й було зареєстровано законопроект з цього приводу. Отож, відповідно до цього звіту, deepfakes поки що не є широко поширеними адже все ще вимагають спеціальних навичок для створення. До того ж, підроблені відеозаписи часто мають певні артефакти, які роблять підробку очевидною. Менш з тим, технології глибинного навчання розвиваються душе швидко, а обсяги даних, необхідних для створення підроблених відео, стають дедалі меншими. Так, нещодавно компанія Samsung продемонструвала, як можна створити ціле відео лише з одного фото, «ожививши» Мону Лізу. А інша група вчених тижнем пізніше представила інструмент, який дозволяє користувачам редагувати чиїсь репліки, просто ввівши слова, які вони хочуть почути від певного суб’єкта. Отож, це лише питання часу коли deepfakes отримають широке розповсюдження.