Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Урятувати рядового виборця: як соціальні платформи готуються до виборчих фейків

Наука
27 Травня 2024, 19:20

2024 року соціальним платформам доведеться докласти особливих зусиль, щоб не стати інструментом впливу чи навіть зриву виборів. Для цього їм доведеться подолати маніпуляції, фейки й штучний інтелект


Ще із часів Барака Обами соціальні мережі активно використовуються під час передвиборчих кампаній. Проте, якщо Обама показав приклад того, як їхня сила може працювати з користю, використання соціальних мереж його наступником стало уособленням ризиків і маніпуляцій під час виборів. Поруч із діяльністю скандально відомої Cambridge Analytica, кампанію Трампа та її успіх почасти поєднують із втручанням у передвиборчі процеси російських спецслужб через так звану фабрику тролів — проєкт, пов’язаний з Євґєнієм Пріґожиним.

Штрафи й розслідування історії Cambridge Analytica та великий досвід у роботі з контентом, який уже присутній в адміністрацій соціальних платформ 2024 року, здавалося б, мав би нівелювати повторення попередніх випадків маніпуляцій і вкидів під час виборів. Проте політики й політтехнологи навчилися ще краще використовувати вразливості соціальних мереж, а перед компаніями-власниками цих сервісів постали нові виклики: глибинні фейки й штучний інтелект. Швидкість розвитку останньої технології вражає: світ не встигнув усвідомити всю силу ChatGPT та аналогів, як інструменти штучного інтелекту ще 2023 року стали використовувати під час виборів.

Читайте також: Соціальні мережі не впоралися з потоком фейків і жорстокого контенту

З одного боку, техногіганти-власники соціальних платформ намагалися зрозуміти, які ризики для них принесе штучний інтелект і фейки. А з іншого — зовсім нещодавня кризова історія з початком збройного протистояння в Ізраїлі восени 2023 року показала, що, попри всі інструменти, модераторів і штучний інтелект, який буцімто навчений блокувати відверто брехливий та жорстокий контент, соціальні платформи не здатні протистояти потокам фейків і брехні.

2023 року ми спостерігали захоплення від можливостей штучного інтелекту й чатботів чи інструментів генерації відео та фото. 2024-го настав час іншого сприйняття вмінь штучного розуму. ШІ, який може за текстовим описом намалювати картинку чи зробити відео, уміє так само швидко створювати зображення й ролики з маніпулятивним вмістом та брехнею.

2024 рік ще називають роком виборів — це період, за який відбудуться вибори в понад 70 країнах світу, зокрема нового президента США й депутатів Європарламенту. Тож 2024-й стане певним тестом для соціальних сервісів на стійкість щодо спроб перетворити їх не лише на майданчик інформаційних війн, а й на плацдарм фейкового контенту, дипфейків та поширення маніпулятивних заяв. А усвідомлення негативних можливостей штучного інтелекту стали причиною появи нового терміна — ШІ-вибори. Саме 2024 рік стане першим роком не просто виборів, а ШІ-виборів.

Уроки Cambridge Analytica

Історія з Cambridge Analytica доволі боляче вдарила по компанії Meta, тож у новому виборчому циклі власник найбільших соціальних платформ вирішив щосили уникати потенційних проблем з політичним контентом.

Відразу після цієї історії компанія обмежила доступ застосунків до даних своїх користувачів. Окрім того, установила час, на який люди давали дозвіл застосункам працювати з їхніми даними: сьогодні вже не можливо під’єднати до своєї фейсбук-сторінки застосунок, і роками спостерігати, як він агрегує дані користувача.

Також Фейсбук поступово вимагав дедалі більше даних про замовників політичної реклами, щоб уникнути ситуації, коли політичні рекламні оголошення купують, наприклад, росіяни й таргетують їх на американців.

А із часом у Meta вирішили щонайбільше дистанціюватися від політичного контенту принаймні на платформі «Інстаграм» і новій соціальній мережі «Тредз». Імовірно, розуміючи, що фейсбук і далі буде місцем політичних баталій, Meta вирішила для користувачів інстаграму й тредзу дати можливість узагалі відмовитися від такого контенту.

Проте ці кроки не допоможуть компанії повністю дистанціюватися від змісту, дотичного до політичних впливів і маніпуляцій.

Ризики традиційні: фейки й маніпуляції в соцмережах

Попри всі спроби власників соціальних платформ обмежити своїх користувачів від політичних маніпуляцій, повністю позбутися такого контенту майже неможливо. Окрім платформ Meta, є ще ютуб, тікток та ікс (твіттер). Власник останнього сервісу відомий своїм своєрідним підходом до свободи слова й не особливо активною модерацією навіть суперечливого контенту.

Експерти вже фіксують випадки, як ікс (твіттер) поширює фейки, які стосуються виборів у США. Наприклад, у квітні на цій платформі розліталися повідомлення, що сотні виборців у США реєструються для голосування без посвідчення особи. Ця теорія змов не лише активно ширилася, фейк поширив сам Ілон Маск.

Американські спецслужби ще у квітні повідомляли, що Росія, Китай та Іран активізують поширення фейків задля впливу на результати виборів президента США. До того ж, на думку експертів, штучний інтелект допоможе їм у їхніх деструктивних зусиллях.

Ризики новітні: штучний інтелект і політичні впливи

Про ризики штучного інтелекту для інформаційних і політичних впливів кажуть дедалі активніше. Саме цей інструмент стане головним для спроби зірвати або вплинути на вибори в США, Південній Кореї та Індії, вважають автори звіту про стан кібербезпеки Microsoft Threat Intelligence. Основним вектором таких атак буде створений штучним інтелектом контент, який поширюватиметься через соціальні мережі й таргетуватиметься на жителів тих країн, де відбуваються вибори.

Жертвами таких впливів можуть бути не лише громадяни США: актори, пов’язані з урядом Китаю, націлюються так само й на виборців у Тайвані.

Понад 200 громадських організацій звернулися з листами до керівників Meta, Reddit, Google, X та інших компаній із закликом ухвалити більш агресивну політику боротьби з дезінформацією за допомогою ШІ напередодні виборів.

Ризики відомі в новій покращеній «обгортці»: досконалі дипфейки

«Боти й бюлетені» (Bots and ballots) — так називається спеціальний розділ сайту Politico, присвячений тому, як штучний інтелект змінює вибори в усьому світі. Однією з найбільших проблем автори цього проєкту вважають дипфейки (глибинні фейки). Таку назву мають відеоролики, створені або змінені за допомогою штучного інтелекту, у яких герой каже текст, що йому «вклали в уста» автори. Ми вже звикли й швидко розпізнаємо відомі приклади таких відео з Бараком Обамою чи Марком Цукерберґом. Проте за останні пів року кількість дипфейків не лише значно збільшилася, завдяки ШІ та його можливостям автори цих відео створюють штучних ведучих, які кажуть потрібний текст. Іноді дипфейки можуть існувати як аудіозаписи: саме такий приклад глибинних фейків став відомий, коли було зафіксовано автоматизовані дзвінки нібито від імені президента Байдена із закликом не голосувати на праймериз.

Читайте також: Арбітри віртуальних конфліктів: соцмережі стають предметом у судових слуханнях

Уже є багато випадків використання підробних відео під час виборів. Наприклад, підтримувані Китаєм актори використовували генеративний штучний інтелект, щоб утрутитися у вибори на Тайвані на початку 2024 року. Зловмисники, дотичні до Комуністичної партії Китаю, опублікували згенероване штучним інтелектом аудіо видатного політика, який нібито знімав свою кандидатуру з виборів у Тайвані, підтримавши іншого кандидата.

У звіті Check Point Research про використання штучного інтелекту у виборах саме дипфейки назвали найбільшою проблемою. Уже за перші місяці 2024 року автори звіту зафіксували використання глибинних фейків для маніпулювання виборами. Наприклад, в Аргентині кандидати використовували генеративний ШІ для створення підробних аудіозаписів. У Словаччині напередодні виборів з’явилося фальшиве відео, яке вплинуло на результати голосування, а в Бангладеш поширювалися ШІ-відео з критикою США.

Умовним тестовим майданчиком для використання ШІ-інструментів у виборах стала Індія: політики цієї країни активно генерували величезну кількість дипфейків, зокрема персоналізованого звернення до виборців. Ба більше, вони навіть використовують образи померлих задля передвиборчої агітації.

Низька вартість і широка доступність генеративних інструментів штучного інтелекту дали можливість майже будь-кому долучатися до глобального політичного шахрайства або принаймні працювати на структури, зацікавлені в політичних маніпуляціях. І саме це є головною проблемою, з якою поки що не здатні впоратися ні соціальні платформи, ні уряди країн.

Як можна врятувати рядового виборця

Боротьба з політичними ШІ-маніпуляціями можлива на кількох рівнях. Політики й регулятори намагаються розробити законодавство, яке обмежує використання штучно згенерованого контенту, дотичного до політики чи виборів. Проте поки що законодавчий етап боротьби не видається особливо успішним. Знаковий для Європейського Союзу закон про штучний інтелект набуде чинності лише після червневих парламентських виборів. У Конгресі США подано законопроєкт, який забороняє неправдиве зображення федеральних кандидатів за допомогою ШІ, навряд чи стане чинним до листопадових виборів. Кілька штатів США ухвалили закони, що карають людей, які знімають оманливі відео про політиків.

Інша сторона боротьби — самі платформи, які намагаються обмежувати штучно згенерований контент або принаймні явно вказувати, що для конкретного відео чи аудіо залучили ШІ-інструменти. Наприклад, компанія Meta планує додавати спеціальні помітки на такий контент. YouTube закликає креаторів також указувати, що вони використовували штучний інтелект. Google ще 2023 року пообіцяла, що її ШІ-чатбот Gemini не відповідатиме на запитання про політику. Компанія OpenAI уже в травні створила спеціальний інструмент, який буде розпізнавати контент, створений за допомогою штучного інтелекту. У компанії не приховують, що цей сервіс потрібен якраз для року виборів.

Техногіганти запропонували ввести спеціальні водяні знаки — елементи коду, які покажуть, що контент не створила людина, а згенерував ШІ. За наявності таких міток сповіщення про штучність контенту можна буде додавати автоматично. Проте дослідники перевірили, що такі мітки можна легко обійти.

Чи будуть ці кроки успішними в боротьбі з виборчими цифровими загрозами, наразі прогнозувати складно. Наприклад, попри всі зусилля компанії Meta, у травні вона погодила фейкові відео з інформацією про вибори в Індії.

Імовірно, у політичних акторів, які шукають способів маніпулювати виборами за допомогою ШІ-інструментів, є невелике вікно можливостей: через кілька років світ відпрацює способи боротьби з фейковим контентом, і тоді ця проблема вже відійде в минуле. Проте нині, цьогоріч, виборцеві треба бути особливо обережним і пам’ятати, що онлайн-контент 2024 року — це те, до чого варто завжди застосовувати відомий вислів «не вір очам своїм».