Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Між автентичністю й автоматизацією. Як ШІ-компанії перетворюють інтернет на цифрове сміттєзвалище

Наука
6 Листопада 2025, 11:41

Давні плани OpenAI запустити власну соцмережу, яка стане платформою для контенту, створеного її ШІ-чатботами, з одночасним вдосконаленням ШІ-сервісу створення відео Sora сприятимуть перетворенню інтернету на звалище цифрового сміття, згенерованого штучним інтелектом.

У жовтні 2025 року в соцмережах вибухнув скандал через відео, яке колишній президент США Дональд Трамп поширив на своїй платформі Truth Social. У ньому він зображений за штурвалом військового літака, який пролітає над натовпом демонстрантів із плакатами з написами «No Kings» і скидає на них коричневу рідину. На відео Трамп має корону на голові, й воно супроводжується коментарем, що висміює противників авторитаризму.

Відео швидко набрало сотні тисяч переглядів, проте сумнівів у тому, що воно було згенероване ШІ-інструментами, нема. Цікаво, що, попри очевидну сатиричність цього відео, частина користувачів все ж сприйняли ролик за справжній. Пояснювали це тим, що відео поширив президент.

Ця історія показала, що у 2025 році ШІ-відео може дуже швидко стати популярним. А ще — як швидко такий ШІ-контент розмиває межу між реальністю й вигадкою.

Соціальні плани OpenAI

Стрімкий розвиток штучного інтелекту та відповідний пошук ШІ-компаніями способів монетизації їхніх часто переоцінених продуктів призвів до активних пошуків нових способів поширення ШІ-контенту та ШІ-інструментів.

Про плани OpenAI представити власну соцмережу було відомо давно. Восени цього року компанія знову заговорила про цей майбутній проєкт, розповівши трохи більше деталей про нього. Очікується, що розробник ChatGPT представить застосунок у форматі TikTok, який демонструватиме виключно контент, згенерований штучним інтелектом. Водночас із цим анонсом OpenAI представила Sora 2 — її покращений додаток для створення відео за допомогою ШІ.

Головна відмінність майбутнього соціального проєкту від OpenAI полягає в тому, що замість матеріалів від реальних людей цей сервіс оперуватиме контентом, повністю створеним штучним інтелектом. За умови попиту на відеоконтент, сформованого TikTok, Reels і YouTube Shorts, цей сервіс напевне чекатиме успіх. Окрім того, сучасні інструменти генеративного ШІ здатні продукувати неймовірно креативний, персоналізований та актуальний контент. Ці два фактори створили ідеальний ґрунт для народження платформи нового типу. Проте детальний аналіз наслідків такого соціального проєкту допомагає побачити дуже багато проблем і для користувацького досвіду, і для інтернету загалом.

Чи стане цікавою ШІ-соцмережа користувачам і рекламодавцям

Соціальні платформи є одними з найпопулярніших сервісів в інтернеті. На початок 2025 ріку понад 5 млрд людей у світі використовують соціальні мережі, а це становить близько 63,9 % населення Землі. При цьому 94 % з них принаймні раз на місяць заходять на одну чи більше платформ соціальних медіа. Також в середньому користувач витрачає на соціальні мережі близько 2,5 годин щодня. Це свідчить про популярність соцмереж серед користувачів. З одного боку, це висококонкуретний ринок, на якому працюють такі потужні гравці, як Meta чи TikTok. З іншого — концептуально новий соціальний проєкт, який ще й використовуватиме штучний інтелект, інтерес до якого лише зростає протягом останніх 2–3 років, є додатковою гарантією його успіху.

Досвід компанії Meta, яка повідомила про зростання інтересу до мобільного ШІ-застосунку Meta AI після появи в ньому стрічки коротких ШІ-відео Vibes, — це ще одна цеглина у фундамент майбутнього успіху ШІ-соцмережі від OpenAI. Окрім того, інтернет сьогодні вже й так заповнений ШІ-контентом. Це свідчить про те, що пересічний користувач готовий і вже взаємодіє зі вмістом, створеним не людиною, а ШІ-продуктами. Тож ідея «загорнути» цей контент і додати до нього соціальні взаємодії може бути сприйнята аудиторією позитивно.

Іще однією перевагою ШІ-соцмережі від OpenAI може стати гіперперсоналізація на основі ШІ, адже вона буквально відкриє нові можливості для рекламодавців. Алгоритми машинного навчання, що аналізують поведінку користувачів у режимі реального часу, зможуть відстежувати зміни настроїв та інтересів людей та пропонуватимуть їм рекламу саме тоді, коли вона найбільш релевантна. Система, що використовує ШІ-інструменти для аналізу контенту та поведінки юзерів, не просто розуміє загальні вподобання аудиторії, але й здатна визначати точний емоційний стан і потреби користувача в конкретний момент. У таких умовах бізнес отримає ідеальний таргетинг на свою цільову аудиторію без зайвих витрат. Це означає, що ШІ-мережа може відразу на старті знайти рекламодавців, зацікавлених у такому точному точковому доступі до своїх наявних та потенційних клієнтів.

Діпфейки для всіх?

Штучно згенерований контент іще задовго до появи інструментів генеративного ШІ спричинив появу діпфейків — підробних відео, героями яких на початках ставали відомі люди, а автори цих відео вкладали їм у вуста те, чого вони ніколи не говорили. Якщо на початку повномасштабного вторгнення йшлося про ризики використання діпфейків нашим ворогом, то зараз, на четвертому році війни, російські спецслужби вже активно використовують такі відео для дискредитації ЗСУ, ТЦК та української влади.

Соцмережі давно намагаються боротися з цією проблемою — вимагають додавати спеціальні цифрові водяні знаки, які б сигналізували про штучне походження таких відео. Очевидно, що найбільший ризик соціальної мережі з ШІ-контентом — це саме діпфейки. Тим паче що з часом вони стають досконалішими, і їх дедалі важче розпізнавати. Окрім того, послаблення принципів модерації контенту в найбільших соцмережах є додатковим ризиком, що діпфейк-контент стане звичним елементом наших соціальних стрічок. Та навіть до того, як Meta послабила принципи модерування, на тлі складних подій у світі соцмережі неодноразово не могли впоратися з потоком фейків, який генерувався та поширювався на їхніх сторінках.

У ШІ-соцмережах, де алгоритми автоматично генерують і рекомендують контент, ризик поширення дезінформації загалом і діпфейків зокрема зростає ще сильніше. Коли штучний інтелект не просто розповсюджує, але й створює контент, межа між реальністю та фальсифікацією зникає. Автоматизована персоналізація може формувати цілі бульбашки маніпулятивного контенту, адаптованого під конкретних користувачів. Хоча соціальні платформи намагаються впровадити окремі заходи для визначення фейкового маніпулятивного контенту, загалом проблема фейків завдяки ШІ актуальна й сьогодні.

Цифрове ШІ-сміття

Менше місяця минуло з моменту представлення вдосконаленої моделі створення ШІ-відео Sora 2. Проте експерти вже попереджають про те, що цей ШІ-інструмент використовуються для генерування російської пропаганди, і це попри те, що компанія намагається обмежити таке недобросовісне використання ШІ. Аналіз експертів з NewsGuard — організації, що вивчає поширення пропаганди — виявив, що, попри існування всіх запобіжників, у 80 % випадків Sora 2 створював відео з відвертою брехнею.

Проте не лише маніпуляції й фейки продукуються за допомогою ШІ-генераторів відео. Загалом популярність інструментів генеративного ШІ призвела до того, що інтернет став буквально потопати у низькоякісному ШІ-контенті. Його назвали AI slop — низькоякісний цифровий контент, створений за допомогою генеративного штучного інтелекту, але такий, який продукується у великих обсягах. Слово «slop» перекладається як «помиї», має зневажливу конотацію й описує контент, швидкість та кількість при створенні якого важливіші за якість і зміст.

AI slop масово поширився в соцмережах, особливо в Facebook та TikTok. Ці платформи дозволяють залучати монетизацію на такий контент, тож тут на AI slop можна непогано заробити. Аналітики з Axios підрахували, що 9 із топ-100 каналів на YouTube, що демонструють найвище зростання, містять саме AI slop. Проблема така серйозна, що Pinterest запровадив налаштування, які дозволяють користувачам зменшити кількість ШІ-контенту у стрічках. Наразі складно сказати, чи стане нова соцмережа від OpenAI платформою для AI slop, але те, що кількість такого цифрового сміття зросте після запуску нового сервісу, очевидно.

Новий виток ШІ-загрози для креаторів і традиційної журналістики

Засилля ШІ-контенту та ШІ-соцмережі несуть нові ризики не лише для аудиторії, якій підсовуватимуть неякісний ШІ-контент, але й для креаторів (блогерів та інфлюенсерів) і для традиційної журналістики. І річ не лише в очевидних складнощах, пов’язаних із неможливістю пробитися через потоки низькоякісного ШІ-контенту до кінцевого читача чи підписника, який витрачаиме свій екранний час на AI slop.

Додатковим ризиком є перетворення роботи журналістів і блогерів виключно на паливо для навчання ШІ, тим паче що така тенденція спостерігається вже сьогодні. До прикладу, технологічні ШІ-компанії нещодавно завантажили понад 15 млн відеороликів з YouTube для навчання своїх ШІ-моделей. Автори цих відео не лише не отримали компенсацію за свою роботу — вони ще й ризикують стати невидимими з часом, а їхні роботи будуть поховані під завалами низькоякісного дешевого ШІ-контенту.

Відповідно, поява майбутньої ШІ-соцмережі лише поглибить ці проблеми. Стратегія платформи, що базується виключно на штучному інтелекті, фундаментально ставить під загрозу не лише традиційну журналістику, а й саму ідею ведення блогів у реальному часі, проведення журналістських розслідувань і створення будь-яких автентичних матеріалів, які є персональним досвідом і проявом реакцій на поточні події.

Контент, створений штучним інтелектом, не має справжнього життєвого досвіду, не може передати людських емоцій чи історій. Саме тому він ризикує перетворити інтернет на збірку шаблонних конструкцій, синтетичних текстів та відео. Водночас таке засилля ШІ-контенту загрожує підірвати довіру людей до медіа загалом та перетворити інтернет на середовище, де реальний досвід схований під проявами алгоритмічної ШІ-симуляції.

Як захиститись від цифрового сміття й зберегти людський контент

Якщо оцінити темпи розвитку OpenAI та швидкість, із якою компанія пропонує нові продукти (соцмережа, власний браузер, опція покупки в ШІ-чатботах), стає зрозуміло, що ШІ-соцмережі сучасному інтернету не уникнути. Проте поява такого інструменту може стати причиною нових форм цифрової бідності та цифрової нерівності. Дешевий штучний продукт, створений часто за допомогою ШІ-інструментів, стане масовим й доступним усім охочим. Натомість у новому світі елітарність проявлятиметься у можливості заплатити й отримати людський контент і живі соціальні взаємодії.

Тенденція, що почалась під час пандемії COVID-19, ще більше посилюється завдяки інструментам генеративного ШІ. У світі, заповненому AI slop, справжній людський контент напевне стане елітним офлайн-продуктом — дорогим, рідкісним і недоступним для більшості. Недарма вже сьогодні багатії Кремнієвої долини обмежують екранний час своїх дітей, а приватні американські школи впроваджують системи навчання, що мінімізують час перебування учнів за екранами гаджетів.

Уберегтися від засилля AI slop-контенту та надати людям самим право визначати, з чим взаємодіяти — з продуктом алгоритмів чи людської праці, — допоможе чітке маркування ШІ-контенту. Якщо кожен синтетичний пост, відео чи стаття матимуть обов’язкову позначку, люди зможуть свідомо обирати між автентичним досвідом і алгоритмічною симуляцією. Прозорість походження контенту — це не перешкода для розвитку ШІ-соцмереж, а єдина можливість зберегти цінність людської творчості в епоху тотальної автоматизації. Інакше ми ризикуємо потрапити у світ, де реальний досвід стане недосяжною розкішшю для обраних.

читати ще