З «прикольних відео», якими захоплюються звичайні люди, ШІ-фейки трансформуються у фальшовані інфоприводи. Все це загрожує майбутньому журналістики.
У 2025 році Netflix випустив серіал «Бункер мільярдерів» («Billionaires’ Bunker»). Це історія про те, як група дуже багатих людей ховається у розкішному підземному бункері в час, коли світ опиняється під загрозою глобальної катастрофи. Цей бункер багатії побудували заздалегідь, і саме туди — у Kimera Underground Park — згідно з угодою, їх привезли з настанням апокаліпсису.
У першому епізоді цього серіалу із постапокаліптичним присмаком глядачу показують, як світ поза дороговартісним сховищем зникає внаслідок серії ядерних вибухів. Але вже потім автори фільму розповідають, що насправді «апокаліпсис» є не чим іншим, як ідеальним фейком, створеним командою, що побудувала й обслуговує Kimera Underground Park. Більше того, організатори проєкту придумали, як «прикривати» відсутність своїх підопічних у зовнішньому світі, що насправді живе як і раніше. Їхній розумний ШІ-помічник Roxana створює ідеальні дипфейки мільярдерів із бункера, перфектно імітує їхній стиль розмови та навіть міміку й рухи — словом, робить усе, аби в зовнішньому світі були впевнені, що насправді багатії поїхали на такий собі ретрит на далекі острови відпочити та набратися сил. Натомість жителі бункера переконані, що їх урятували від апокаліпсису, й розмірковують, через скільки років чи десятиліть Земля знову стане придатною для життя.
Історія «бункера мільярдерів», яка, можливо, отримає продовження, не виглядає фантастичною в наш час. Світ глибинних фейків та ШІ-підробок — це наша реальність уже сьогодні, лише її масштаби поки не настільки вражають, а самі ШІ-фейки, хоча й застосовуються в інформаційних війнах та просуванні наративів Кремля, поки не перетворились на глобальну загрозу. Проте ШІ-підробки, з якими не здатні впоратися соцмережі, не лише вірусно поширюються, але й поступово перетворюються на явище, яке стає на заваді професійній журналістиці. Вони здатні перетворити на сенсацію інформаційні приводи, яких насправді не існувало чи які були незначними. Такий підробний контент, який практично неможливо відрізнити від вигадки, змушує медіа витрачати дедалі більше ресурсів на боротьбу з відомостями, які виглядають як правда лише на позір.
Містифікація Uber Eats: коли викривач виявився алгоритмом
У середині січня 2026 року на Reddit вибухнув скандал. Користувач під ніком Trowaway_whistleblow опублікував детальний викривальний матеріал, у якому звинувачував сервіс доставки їжі — ймовірно, Uber Eats — у системному шахрайстві щодо водіїв та клієнтів.
Пост під назвою «Я працював у [відредаговано], і те, як вони чинять щодо водіїв, є злочином» миттєво став вірусним. За кілька днів він набрав 86 тисяч голосів підтримки та мільйони переглядів. Коментарі рясніли обуренням: «Я так і знав!», «Нарешті хтось сказав правду!», «Треба подавати до суду!». Звинувачення були серйозними: автор стверджував, що компанія встановлює «нереалістичні показники продуктивності», через які водії змушені їхати в небезпечні райони пізно вночі. А також розповів, як алгоритми маніпулюють очікуваним часом доставки, щоб клієнти залишали більші чайові.
Найбільше в цій історії вразили власне докази. «Викривач» надав фотографію свого робочого бейджа, скриншоти внутрішніх чатів у Signal, де колеги буцімто обговорювали ці практики, та 18-сторінковий «внутрішній звіт» із формулами динамічного ціноутворення, моделями оцінки втоми водіїв та алгоритмами оптимізації маршрутів.
Усе виглядало надзвичайно професійно. Автор дійсно демонстрував глибоке розуміння технічних деталей, використовував внутрішню термінологію, посилався на реальні скандали, що стосувалися Uber (дуже гарно показані в серіалі «Суперпрокачаний» — «Super Pumped: The Battle for Uber»).
Аналізуючи цю історію, автор технологічної розсилки Platformer Кейсі Ньютон зв’язався з автором допису. Той охоче погодився на інтерв’ю через зашифровані канали, надав іще більше доказів, розповів деталі про внутрішню культуру компанії. Проте досвідчений технологічний журналіст помітив, що насправді «викривач» переповідає історії, які в деталях збігаються з відомими скандалами в технобізнесі та були описані як у численних публікаціях, так і в документальних фільмах і серіалах. Додали сумнівів дивні помилки на скринах чатів, схожі на помилки ШІ-чатботів, а на фотографії бейджа співробітника можна було помітити водяний знак Google Gemini. Та й «внутрішній звіт» був написаний академічно правильною мовою, містив складні формули й діаграми, насправді безглузді з математичної точки зору. Трохи пізніше підключилась компанія Uber Eats, яка продемонструвала, що компанія не використовує подібні бейджі, а ШІ-детектор показав 94 % імовірності, що фрагменти коду, показані «викривачем», були згенеровані, найімовірніше Claude чи Chat GPT-4.
Автор «викриття» швидко видалив свій акаунт, проте це не поверне часу, який справжні журналісти витратили на перевірку вигаданої історії. «Це не просто розіграш, — згодом написав Кейсі Ньютон у своєму розслідуванні. — Це зброя, спрямована проти журналістики та довіри».
Пандемія ШІ-фейків: від фінансових афер до виборчих маніпуляцій
Проблема штучно створених фейкових відео (deepfakes) поступово виходить за межі мемів чи низькопробного контенту. Завдяки сучасним ШІінструментам маніпуляції проникли в усі сфери життя — від фінансів до політики. Наприклад, фейкове зображення вибуху біля Пентагону, опубліковане в травні 2023 року, спричинило тимчасовий обвал фондових індексів, перш ніж стало відомо, що факт вибуху не підтвердився.
Експерти з кібербезпеки фіксують зростання deepfakeсхем, де шахраї клонують голоси та зовнішній вигляд керівників, щоб змусити співробітників здійснити фальшиві фінансові транзакції на сторонні рахунки.
Під час повномасштабної російсько-української війни Росія стала активно застосовувати штучно згенеровані відео й аудіо, які мають на меті дискредитувати українських військових та поширити дезінформацію. До прикладу, в соцмережах, зокрема в TikTok, ширяться відео, на яких нібито «військові ЗСУ» скаржаться на брак їжі та техніки. Ще один поширений фейковий TikTok-наратив останніх тижнів — відео про кризу та вигадані протести у великих містах на тлі масових відключень. Якщо на початку війни сили ворога обмежувалися примітивною дипфейк-підробкою президента Зеленського, то у 2025–2026 роках завдяки популярності й доступності ШІ-інструментів ці фейки стали досконалішими та масовішими.
Такий розвиток deepfakeтехнологій та їхня інтеграція у щоденний інформаційний простір створюють серйозні ризики для суспільства, оскільки цифрові докази дедалі важче верифікувати і водночас легко підробити. Це призводить до феномену, який у політичних науках називають «дивідендом брехуна» — коли невпевненість у правдивості інформації дозволяє маніпуляторам уникати відповідальності чи підривати довіру до фактів.
Чому ШІ-фейки стали переконливими та які це має наслідки для суспільства
Головною технічною «основою» ШІ-підробок є й великі мовні моделі як такі, й інструменти генерації фото, відео чи аудіо (Stable Diffusion, Midjourney, DALL-E). Вони можуть помилятися («галюцинувати»), мимоволі створюючи правдоподібні, але вигадані деталі: технічні описи чи імена, що виглядають автентично, але насправді не існують. Але, окрім цього, вони здатні за лічені секунди створити будь-яку картинку чи відео — не лише зробити за текстовим описом те, чого насправді не відбулося, але й витратити на це мізерну кількість часу. Окрім того, інструменти клонування голосу на кшталт ElevenLabs або Play.ht за 30 секунд аудіо здатні зімітувати голос будь-якої публічної особи.
Директор фактчекінгової ініціативи Security, Trust and Safety Алексіос Манцарліс (Alexios Mantzarlis) переконаний, що «швидкий ріст AI-генерованої дезінформації здатний змінювати сприйняття реальності». Крейг Сілверман з BuzzFeed порівнює це з інформаційною кібератакою: «Групи, які створюють дезінформацію, спроможні експлуатувати ці системи ефективніше та швидше, ніж будь-коли раніше», — додаючи, що це суттєво ускладнює боротьбу зі шквалом фейків і маніпуляцій.
Якщо додати до цього те, що алгоритми соцмереж налаштовані просувати емоційний контент, який подобається користувачам, — стає зрозуміло, що сучасний цифровий простір надзвичайно чутливий до згенерованого ШІ-контенту. Цей контент потім паралізує не лише традиційні системи перевірки фактів, але й роботу журналістів, щоразу змушених з’ясовувати, є вірусна історія реальною чи це продукт роботи ШІ-інструментів.
Додаткові наслідки для суспільства
Епідемія ШІ-фейків справляє каскадний вплив не лише на журналістику, але й на всі соціальні інститути.
Найглибшим наслідком поширення масової дезінформації та AI-генерованого контенту стає криза довіри до фактів і джерел знання. Дослідження Pew Research Center свідчать про стійке зниження довіри американців до новинної інформації загалом, а особливо в цифровому середовищі. Значна частина аудиторії визнає, що їм дедалі складніше відрізнити правдиві повідомлення від маніпулятивних, а молодші респонденти повідомляли про вищий рівень скепсису щодо інформації, яку вони отримують онлайн. За таких умов навіть автентичні візуальні матеріали — фото чи відео політичних подій — усе частіше сприймаються з недовірою, що підриває спільні уявлення про реальність.
Дослідники, зокрема Джоан Донован з Harvard Kennedy School/Shorenstein Center, звертають увагу на те, що масове поширення дезінформації та маніпулятивного контенту сприяє розмиванню довіри до достовірних джерел і загальновідомих фактів. Це особливо небезпечно, бо коли аудиторія більше не впевнена, що можна вірити навіть перевіреній інформації, це створює сприятливі умови для авторитарних і маніпулятивних політичних впливів. Таку ситуацію дослідники називають кризою спільних основ знання та довіри.
Для України, що останніми роками живе в умовах повномасштабної війни та інформаційного протистояння, ШІ-фейки — особливо небезпечна зброя. Навіть за умови перемир’я та можливих виборів Україна може зіткнутися з масованими кампаніями дезінформації, де фейкові викриття перемішаються зі справжніми розслідуваннями. Мета таких інформаційних атак полягатиме не так у тому, щоб переконати аудиторію в конкретній брехні, як у тому, щоб створити тотальну недовіру, паралізуючи здатність суспільства відрізняти правду від вигадки.
Анатомія оборони: як боротися зі зброєю масової фабрикації
Попри серйозну загрозу засиллю ШІ-фейків, уже сьогодні існують технологічні й соціальні рішення для боротьби з ними.
Перший етап — це автоматичні детектори фейків, які використовують нейронні мережі для пошуку непомітних людському оку слідів: незвичайне блимання, дивне освітлення, спотворення на краях об’єктів. Hive Moderation досягає точності 95 % у розпізнаванні ШІ-контенту, аналізуючи візуальні артефакти та метадані. Google SynthID вбудовує невидимі цифрові водяні знаки — понад 10 мільярдів фрагментів контенту вже були позначені водяним знаком SynthID. А Adobe Content Credentials відстежує весь ланцюг редагування контенту, щоб браузери та соцмережі могли автоматично перевіряти його походження.
Важливими також є правові рамки, які мали б обмежити використання дипфейків. До прикладу, у ЄС діє AI Act, який класифікує дипфейки як високоризикові, вимагає маркування такого контенту й передбачає штрафи до 6 % обороту для платформ. У Каліфорнії створення дипфейків без згоди людини, що на них зображена, карається тюремним строком до 3 років та 50 тисяч доларів США штрафу.
Проте всі ці кроки не матимуть сенсу, поки самі платформи не створять інструменти блокування такого контенту. Саме недолік внутрішніх алгоритмів TikTok, не здатних блокувати фейковий контент, призвів до того, що саме ця платформа стала основним джерелом дипфейків, спрямованих на Україну. Центр протидії дезінформації при РНБО регулярно повідомляє про такі фейки та час від часу розповідає про успіхи в блокуванні каналів, що ширять такий контент.
Заглядаючи в майбутнє: що чекає на нас
Технологія ШІ-розвивається надзвичайно швидко. Мультимодальний ШІ вже об’єднує текст, зображення, аудіо та відео в єдиний генеративний процес. Простий промпт може створити повноцінний новинний репортаж з диктором, кадрами подій і фейковими свідченнями очевидців. OpenAI демонструвала ранні версії такої технології через Sora, яка створює ролики тривалістю до 60 секунд. Причому відрізнити ці відео від справжніх практично неможливо.
Наше потенційно страшне майбутнє дуже наочно показане у британському серіалі «The Capture». Його сюжет базується на realtime-дипфейках, що в режимі реального часу спотворюють реальність, у тому числі ту, яка транслюється по телебаченню.
Якщо світ не впорається з пошуком способів контролю цих загроз, довіра та правда можуть зникнути. Проте ще небезпечнішими є так звані «синтетичні» події — коли ШІ створює комплекс взаємопов’язаних фейків: відео, «свідчення», соцмережі, документи. Спростувати таке надзвичайно складно, а поки експерти розбираються, фейк уже впливає на вибори, ринки та суспільну стабільність.
У нас є вузьке вікно для захисту й створення системи противаг спотвореній дійсності. І, цілком можливо, від того, чи впорається людство з цим завданням, залежить його майбутнє.
