Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Штучний інтелект і демократія. Як сучасні технології використовують під час виборів

НаукаСвіт
28 Вересня 2023, 15:27

Поява інструментів типу ChatGPT — генеративних мовних моделей, та й інших рішень, що використовують штучний інтелект і нейромережі, — викликала серйозні зміни в різних сферах нашого життя. Не є винятком політика загалом і передвиборча компанія зокрема. Політтехнологи й раніше використовувати ШІ-інструменти у своїй роботі. Сьогодні можна спостерігати більш активне використання ШІ в різних політичних процесах. Хоча вибори президента США відбудуться наступного року, політичні команди потенційних кандидатів уже обережно тестують, як саме штучний інтелект може допомогти в їхній роботі.

Штучний інтелект і виборчі технології: від Cambridge Analytica до ChatGPT

Попри те що про ChatGPT світ активно заговорив наприкінці 2022 року, а рік 2023 узагалі став проривним і забезпечив нам появу великого різноманіття інструментів штучного інтелекту, ця технологія і раніше використовувалась у політичних процесах загалом й у виборах зокрема.

Найбільш відомими сферами використання штучного інтелекту було застосування ШІ-елементів для таргетування виборців і подальшого просування серед них потрібних наративів. Саме цей шлях для своєї кампанії вибрав Дональд Трамп, коли послуговувався розробками компанії Cambridge Analytica.

Цей випадок заведено розглядати як приклад використання потужних інструментів аналізу персональних та інших даних користувачів соцмереж у таргетуванні політичної реклами й спробі вплинути на результат голосування. Хоча історія з Cambridge Analytica — це насправді лише перший приклад застосування могутніх інструментів аналізу даних у політичній боротьбі.

Немає сумнівів у тому, що штучний інтелект і нейромережі використовуватимуться у виборах у США 2024 року. Ці інструменти вже сьогодні можуть забезпечити кандидатів певними перевагами. Серед них — предиктивна аналітика, автоматизована робота з виборцями, персоналізована реклама. Окрім того, у майбутній передвиборчій кампанії варто очікувати нових прикладів використання штучного інтелекту — таких, яких ми раніше не бачили.

Як іще ШІ може долучитися до виборів

Використання інструментів точного націлювання на цільову аудиторію (як її ядро, так і потенційну) — це не новий напрям у сфері застосування ШІ-інструментів. Сьогодні політики дедалі активніше вчаться використовувати чатботи на основі штучного інтелекту. Наприклад, їх налаштовують так, щоб вони відповідали на запитання виборців. Це б дало змогу зберегти багато часу технологам кампанії. Ба більше, така взаємодія допоможе краще пояснити виборцям політику кандидата і його відмінності від конкурентів.

Читайте також: Небезпечний ChatGPT. Чому багато компаній забороняють використовувати популярний чатбот

Такі чатботи можуть розуміти природну мову й давати відповіді в режимі 24/7. Окрім того, ці інструменти можуть допомогти збирати інформацію про виборців: їхні переваги, симпатії та антипатії. Така статистика може допомогти краще розуміти електорат і покращити охоплення політичної кампанії.

Чатботи можна використовувати і для тестування повідомлень. Кандидати можуть провести опитування й отримати відповіді від аудиторії про те, чи політика й бачення кандидата збігається з очікуваннями більшості людей.

Чатботи також можуть боротися з дезінформацією, спростовуючи фейки, з якими до них прийдуть виборці.

Chat2024: створити віртуального кандидата

Кардинально новий варіант застосування штучного інтелекту в підготовці до виборів продемонстрували нещодавно в США. Ідеться про проєкт Chat2024 — платформу, на якій створено цифрові копії імовірних кандидатів у президенти США. Ці цифрові аватари 17 провідних кандидатів створені за допомогою штучного інтелекту. Наразі не повідомляються подробиці стосовно того, які конкретно технології використали для створення цих цифрових утілень політиків. Відомо, що це великі мовні моделі (LLM) на кшталт ChatGPT. Ці моделі були навчені на основі великих масивів даних, отриманих із сотні джерел, як-от відеозаписи виступів кандидатів, цитати в медіа та інші відомості. Користувачі можуть запитувати в цифрових аватарів те, що їх турбує. Запитання можна ставити як кожному окремо, так і всім разом, до того ж на платформі можна навіть змоделювати мінідебати між декількома цифровими образами політиків.

Те, наскільки ці цифрові втілення збігаються з реальними кандидатами та як вони діють у складних ситуаціях, стане зрозумілим згодом. Наразі зарано робити висновки про проєкт, який з’явився в першій половині вересня. Проте сама поява такої ідеї створення цифрових копій потенційних лідерів, до розробки яких було долучено штучний інтелект, є великим кроком у цьому напрямку, який покладе початок активному застосуванню штучного інтелекту в демократичних процесах.

Суспільна оцінка, або Чи готові виборці до політичних ботів

У використанні штучного інтелекту під час будь-яких виборів важливе також і суспільне сприйняття цих інструментів. Поки що казати про захват суспільства від того, що подібні інструменти будуть так чи інакше дотичні до виборів, зарано: ми спостерігаємо лише перші кроки у виборчих ШІ-рухах.

Проте вже сьогодні спостерігається настороженість суспільства щодо цих інструментів. Наприклад, опитування, проведене Axios-Morning Consult ШІ, показало: половина американців очікує, що дезінформація, поширена штучним інтелектом, вплине на те, хто переможе на виборах 2024 року. Ще одна третина каже, що вони будуть менше довіряти результатам через штучний інтелект. Інакше кажучи, наразі пересічний виборець не готовий до появи елементів штучного інтелекту в політичних демократичних процесах. Навряд чи ця оцінка вплине на сам факт залучання ШІ до виборів — радше на прозорість та інтенсивність цих процесів.

BigTech на заваді ШІ-обману виборців. Проте не всі

Перспективи використання ШІ-інструментів у політиці насправді несуть великі ризики, особливо щодо реклами. Сучасні дипфейк-рішення вже давно вміють створювати досконалу відеопідробку — згенерувати відео, на якому кандидат у президенти може мати такий вигляд, як потрібно авторам відео, та й казати те, що вони йому буквально вкладуть в уста. Якісні фейки можуть заполонити екрани телевізорів і відеохостингів, якщо цьому не завадити. Завдяки нейромережам і генеративним ШІ-інструментам ці підробки щороку стають неперевершеними й такими, які практично неможливо впізнати як сурогат.

Сучасні інструменти можуть допомогти створити підробне відео як із власним кандидатом, так і з суперником, і нині не відомо, що є небезпечнішим: вихваляння свого кандидата чи ниций чорний піар із досконалою підробкою в головній ролі із суперником. Саме тому, очікуючи нашестя реклами, зокрема відео, створених штучним інтелектом, техногіганти заздалегідь вводять обмеження на такі рекламні оголошення.

Читайте також: Синтетичний автор. Чи стане ChatGPT початком технологічної революції

На початку вересня цього року компанія Google заявила про нові вимоги щодо розміщуваної реклами на її майданчиках. Тепер для політичної реклами, яка створена з використанням інструментів штучного інтелекту, обов’язковим стане повідомлення про те, що в рекламі застосовувалися ці інструменти. Інакше кажучи, користувач має бачити, що пропонована йому реклама не є повністю «справжньою». Нове правило почне діяти в середині листопада, трохи менше ніж за рік до виборів президента США. Це також вплине на рекламу напередодні виборів наступного року в Індії, Південній Африці, Європейському Союзі та інших регіонах.

Хоча підроблені зображення, відео чи аудіозаписи не є новинкою для політичної реклами, генеративні інструменти штучного інтелекту роблять процес створення такої реклами набагато легшим, а саму рекламу реалістичнішою. Заборона стосуватиметься передвиборчої реклами на власних платформах Google, зокрема на YouTube, а також на сторонніх вебсайтах, які є частиною рекламної мережі Google.

Невідомо, чи ці кроки Google були зроблені на упередження, чи вони стали результатом появи підробних відео. Наприклад, національний комітет Республіканської партії у квітні опублікував рекламу, повністю створену штучним інтелектом, яка мала показати майбутнє Сполучених Штатів у разі переобрання президента Джо Байдена. Було використано підроблені, але реалістичні фотографії, на яких зображені забиті дошками вітрини магазинів, броньовані військові патрулі на вулицях і хвилі іммігрантів, які спричиняють паніку.

У червні команда Рона Десантіса розповсюдила рекламу, у якій кандидат нападає на його головного опонента від Республіканської партії Дональда Трампа. У тій рекламі було використано створені штучним інтелектом зображення колишнього президента, який обіймає експерта з інфекційних хвороб доктора Ентоні Фаучі.

Meta (власник Facebook та Instagram) поки що не робила ніяких заяв стосовно політичної реклами та штучного інтелекту. Китайський TikTok пропонує творцям відео додавати спеціальні позначки, якщо у відео використовувалися ШІ-інструменти.

Читайте також: Цифрове безсмертя. Як штучний інтелект експлуатує цифрові копії людей

Що стосується X (Twitter), то ця платформа досі не робила ніяких заяв щодо цього. Але факт повернення X (Twitter) на ринок політичної реклами (яка тривалий час не розміщувалася на цьому сайті) є ризиком сам собою, особливо якщо оцінити рівень поширення фейків і майже повну відсутність боротьби з ними на цьому сервісі.

Справжнє тестування штучного інтелекту

У найближчі місяці ми напевно побачимо інші приклади використання штучного інтелекту в політиці та передвиборчих кампаніях. Ці приклади можна розглядати як умовний тест-драйв цих процесів і пошук проблемних місць і моментів, що вимагатимуть регулювання й детальнішого вивчення. Здатність штучного інтелекту генерувати фейки вражає вже сьогодні. ШІ дасть нам змогу побачити, як цей потік дезінформації вплине на волевиявлення людей. Головне, щоб не було занадто пізно завадити цим процесам. А переконуватися, що наслідки цих кроків не будуть незворотними, треба вже сьогодні.