Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Цифрове безсмертя. Як штучний інтелект експлуатує цифрові копії людей

НаукаСвіт
20 Вересня 2023, 14:27

Протягом останніх кількох місяців TikTok заповнений відео, на яких діти розповідають про обставини своєї загибелі. Це історії насильства, викрадення, тортур і вбивств. Автори таких роликів використовують штучний інтелект, щоб створити зображення цих дітей і змусити їх «говорити», проте подекуди відеомейкери беруть справжні фото й на основі них створюють свої роботи. Їхні голоси — це здебільшого згенеровані штучним інтелектом аудіодоріжки.

Ці історії показують, як штучний інтелект, що протягом останнього року за допомогою чатботів і сервісів генерації зображень допомагає відкривати творчі можливості та сприяти роботі творців, перетворюється не лише на гігантського фейкороба, а й на інструмент, етичність використання якого викликає багато запитань.

Як підробні відео заполонили TikTok

Нашестя AI-відео з підробними персонажами відеосервіс TikTok переживає понад пів року. Жителька Канади Амелі Лем’є побачила відео, на якому її донька, убита колишнім чоловіком Лем’є, розповідає про власне вбивство. Попри постійні скарги, цей ролик та аналогічні про інших людей залишалися доступними на платформі тривалий час. Відео зникло лише після декількох виступів Амелі в медіа. Додатковою проблемою в боротьбі з таким контентом стало те, що його автори здебільшого анонімні.

Читайте також: Новий творець чи викрут для обходу авторського права? Як світ учиться регулювати цифрові об’єкти

Хоча платформа TikTok оголосила про заборону відео, створених з використанням штучного інтелекту, багато таких робіт залишаються на платформі. Адміністрація сервісу не приховує, що розвиток штучного інтелекту «може ускладнити розрізнення між правдою та вигадкою, що несе як суспільні, так й індивідуальні ризики». Користувачів, які створюють штучні відео, закликали додавати хоча б якесь застереження про те, що вміст не справжній, а створений за допомогою інструментів штучного інтелекту.

З одного боку, керівництво сервісу визначає неприпустимість таких відео на платформі, про що явно пише в угоді з користувачем. А з іншого, закликами додавати застереження про несправжність вмісту компанія-власник сервісу розписується у власній неспроможності хоч якось реагувати на підробний контент. Сама тільки заява про недопустимість використання у відео зображень живих чи померлих людей не допомогла боротися з таким контентом.

Ба більше, компанія не здатна впоратися з модерацією таких відео: деякі доступні на сервісі місяцями й подекуди набирають мільйони переглядів.

Існування таких відео — проблема для платформи загалом, але найбільше від цього потерпають родичі загиблих. Деніз Фергюс, мати загиблого хлопчика, назвала створені AI-відео «огидними». Вона додала: «Це повертає мертву дитину до життя. Це більше, ніж хвороба».

Доступність цифрового образу

Фейковий Том Круз показує фокус із монеткою і так заробляє гроші для автора контенту

Відео із загиблими, які раптом стали одним із трендів TikTok, самі собою не є унікальним явищем у сучасному інтернеті. Технологія Deepfake, яка стала популярною ще майже п’ять років тому, дозволяє створити відео із зображенням будь-якої людини, змусити її робити те, що потрібно автору відео, і вкласти в її вуста довільний текст. З кожним роком доступність Deepfake-інструментів зростає. І якщо на початках для створення таких відео потрібні були потужні комп’ютери й елементарні навички програмування, то нині робити такий ролик набагато простіше.

Перші підробні відео використовували здебільшого образи актрис і мали порнографічний характер. Із часом технологія Deepfake стала якщо не масовою, то принаймні поширеною.

Почасти такі відео створюють не задля розваги, а з політичною чи просвітницькою метою. Наприклад, саме для цього використали образ американського підлітка Хоакіна Олівера, який став жертвою стрілянини в школі. У відео, створеному після його смерті, цифрова копія хлопця «закликала» голосувати за політиків, які підтримують посилення контролю над обігом зброї.

Простота генерації відео із цифровими копіями людей призвела до використання образів цих людей у рекламі або в інших реалізаціях — від генерації голосу померлої знаменитості до використання образів зірок під час знімання кліпів. Прикладами таких застосувань можна назвати запис пісні «Люди як кораблі», яку нібито заспівав Кузьма, штучно синтезований голос Тараса Шевченка, використання в рекламі образів Одрі Гепберн та Джона Леннона та навіть дуети живих виконавців із давно померлими, як-от спільне виконання пісні Вітні Г’юстон та Крістіни Аґілери. На тлі таких високотехнологічних застосувань образів знаменитостей використання в рекламі Лесі України, що радить читати книжки чи купувати ноутбуки певної моделі, стало майже новою нормою.

Згенерована персона, схожа на Лесю Українку, продає ноутбуки в одному з українських магазинів

Штучний інтелект і Death Tech

Розвиток технології штучного інтелекту посилив етичні занепокоєння щодо використання цифрових образів мертвих людей. Захистити від використання зображення померлого у відео чи рекламному зображенні, особливо якщо це не відома, а пересічна людина, стає набагато важче.

Онлайн-сервіси тільки тепер, буквально в минулі кілька місяців, запроваджують обмеження та вводять спеціальні пункти в користувацькі угоди, щоб заборонити поширення таких штучно згенерованих відео. Історія з нашестям роликів із зображеннями загиблих дітей у TikTok — наочний доказ того.

Розвиток технології штучного інтелекту свідчить, що відео із часом вдосконаляться та стануть більш реалістичними й персоналізованими. З одного боку, вони можуть допомагати зберегти пам’ять про померлих близьких. З іншого боку, це збільшує ризик використання зображень померлих іншими людьми.

Усі історії з такими відео на TikTok ставлять багато запитань. Кому належить аватар (зображення) після смерті людини й наскільки це зображення захищене? Що станеться, якщо аватар використають інші люди, наприклад, створять рекламне чи інше відео? Як захиститися від того, щоб образ близької людини не використала третя сторона?

Читайте також: Як російська пропаганда може використати технологію діпфейк проти України

Нині немає інструментів законного захисту щодо використання фотографій померлих третіми особами. Саме тому етичні наслідки, пов’язані з конфіденційністю таких даних, згодою або забороною їх використовувати, потребують детального вивчення. Із часом проблема ускладниться, адже що більше доступних даних з’являється в мережі, то простіше AI-інструментам використати їх для створення нового контенту чи навіть умовної віртуальної копії померлої людини.

Загалом це стало ще одним проявом технологічної стриманості — явища, коли законодавчі обмеження й вивчення етичних ризиків не встигають за розвитком технологій.