Більшість технологічних новин останніх двох років так чи інакше стосуються галузі штучного інтелекту. Адже ця технологія перетворилась із нішевої галузі досліджень на інструмент, який змінює практично всі сфери нашого життя.
Зростання впливу штучного інтелекту супроводжувалось побоюваннями щодо надмірної сили цієї технології. І, як результат, спробами її регулювання — спроби превентивного вирішення проблем щодо етики ШІ, безпеки, монополізму ШІ-ринку та інших ризиків, очевидних і не дуже. Про необхідність регулювання ШІ говорили передовсім учені, що заклали теоретичні основи нейромереж (а згодом і отримали за це Нобелівську премію). Один із них, Джеффрі Гінтон, іще наприкінці 2023 року попереджав про небезпеки, які може принести ця технологія для людства.
Проте у 2025 році технологічний дискурс навколо регулювання ШІ, що просувався представниками техногігантів, різко контрастував із попередніми побоюваннями про надмірну силу штучного інтелекту. Найпотужніші технологічні компанії світу по обидва боки Атлантики розгорнули наполегливу кампанію, спрямовану на те, аби зупинити, затримати чи послабити регуляторні зусилля. Головний їхній наратив можна сформулювати так: правові обмеження загрожують задушити сферу ШІ, головну технологію останніх років.
Як змінювався американський підхід до ШІ-регулювання
Усього два роки тому генеральний директор OpenAI Сем Альтман був на передовій закликів до жорсткого нагляду за ШІ, вимагаючи від Конгресу створити нове регуляторне агентство для організації безпечної розробки передових систем ШІ. У 2023 році Альтман у своїх свідченнях перед Конгресом наголосив на необхідності «швидкого та надійного регулювання ШІ» для зменшення потенційної шкоди цієї технології та сприяння міжнародній співпраці
Але свідчення Альтмана перед Сенатом у 2025 році формували кардинально іншу картину. Він попередив, що вимога урядового дозволу на запуск передових систем штучного інтелекту може мати «катастрофічні наслідки» для світового лідерства Америки та загалом для галузі. Інші лідери цієї сфери все частіше оцінюють регулювання як екзистенційну загрозу конкурентоспроможності США, особливо в контексті технологічної гонитви.
«Фактор номер один, який визначатиме, хто переможе — Сполучені Штати чи Китай, — це те, чия технологія буде найширше впроваджена в решті світу», — таку заяву нещодавно зробив президент Microsoft Бред Сміт під час слухань в Сенаті уже цього року.
Ці заяви відображають глобальну зміна дискурсу навколо ШІ. Ще недавно керівники технологічних компаній говорили про «екзистенційний ризик» для людства і закликали до якнайшвидшого регулювання. Тепер і вони, і нова адміністрація Трампа майже одноголосно заявляють, що США мають звільнити ШІ-компанії від регуляторних бар’єрів, щоб випередити Китай. Щоправда, багато хто при цьому додає, що непогано було б іще сильніше зарегулювати китайські компанії. Або хоча б не постачати їм чіпи.
Відразу декілька техногігантів підтримали ініціативу, що передбачала 10-річний мораторій на регулювання штучного інтелекту. Серед них — не лише OpenAI Сема Альтмана, але й Meta, Google, Microsoft і Amazon. Їхня вимога доволі проста і водночас категорична. Вони намагалися заборонити окремим штатам запроваджувати будь-які закони, що регулюватимуть штучний інтелект у найближчі 10 років.
Дерегуляторні зусилля адміністрації Трампа, які підтримали не всі
Адміністрація Трампа долучилась до цих регуляторних обмежень, запропонувавши федеральне законодавство, яке запроваджує виключні заходи щодо регулювання ШІ на рівні штатів. Головна мета цієї ініціативи — прискорити інновації шляхом усунення бюрократичних перешкод. Запропонований закон блокував окремим штатам США можливість впроваджувати власні правила щодо ШІ та встановлював, що будь-які рішення щодо цього питання повинні вирішуватися лише на федеральному рівні.
Цікаво, що не всі представники ринку ШІ підтримали цю ідею президента США. Активним противником федерального законопроєкту про такий псевдозахист від законів стала ШІ-компанія Anthropic, а її генеральний директор закликав до створення національної системи, яка вимагає прозорості та розкриття інформації про безпеку. Даріо Амодей, CEO Anthropic, пояснив: «10-річний мораторій — це надто грубий інструмент. Штучний інтелект розвивається вкрай швидко. Без чіткого плану федеральних дій мораторій дав би нам найгірше з обох світів — відсутність можливості для штатів діяти та відсутність національної політики як запобіжного заходу».
У результаті Сенат відхилив суперечливу спробу заборонити штатам США регулювати штучний інтелект, що стало поразкою для лідерів Кремнієвої долини та посадовців Білого дому, які просували цей захід.
Штати по всій країні прийняли десятки нових законів, спрямованих на боротьбу з ризиками, що виникають через штучний інтелект, такими як несанкціоновані діпфейки, порушення авторських прав та алгоритмічна дискримінація. На рівні штатів було запропоновано понад 1000 законопроєктів про штучний інтелект. І це на тлі відсутності федерального законодавства в цьому напрямку.
Європейський театр воєнних дій: все для відтермінування EU AI Act
Європа давно позиціонує себе як світового лідера в галузі цифрового регулювання, починаючи від GDPR і закінчуючи Законами про цифрові ринки та про цифрові послуги. Закон ЄС про штучний інтелект, представлений у 2023 році та прийнятий у 2024 році, є першою у світі комплексною правовою базою для технології штучного інтелекту, яка встановлює суворі вимоги до систем високого ризику та моделей штучного інтелекту загального призначення.
Але з наближенням крайнього терміну впровадження цього закону, запланованого на серпень 2025 року, коаліція з понад 40 великих європейських компаній, у тому числі Airbus, ASML, SAP, Mistral, Philips та BNP Paribas, розпочала узгоджену кампанію з метою його відтермінування. Ці компанії надіслали відкритий лист, який підписали представники 45 організацій. В ньому вони просять відкласти застосування закону через те, що його правила є «нечіткими, повторюваними та дедалі складнішими» і загрожують паралізувати амбіції Європи у сфері штучного інтелекту та витіснити інновації та інвестиції з регіону. «Це відтермінування вкупі з зобов’язанням пріоритезувати якість регулювання над швидкістю стане чітким сигналом для новаторів та інвесторів у всьому світі про те, що Європа серйозно налаштована на спрощення та підвищення конкурентоспроможності», — йдеться у листі.
Ключовим джерелом занепокоєння в галузі є затримка публікації Кодексу практик Закону про штучний інтелект — документа, призначеного для надання практичних рекомендацій і стандартів відповідності для загального штучного інтелекту. Без цього кодексу компанії стикаються з регуляторним «мінним полем» та не можуть адаптувати свою діяльність під вимоги закону. Окрім того, підписанти листа попереджають, що відсутність чітких рекомендацій може підштовхнути європейських новаторів до поблажливіших юрисдикцій, таких як США чи Китай.
Наразі Європейська комісія відхилила заклики до повного відтермінування, хоча й визнала необхідність упорядкування та уточнення цифрового регулювання. Це протистояння підкреслює фундаментальну суперечність: чи може Європа запровадити новаторське законодавство про штучний інтелект, не підриваючи власної технологічної екосистеми?
Юридичне поле битви: авторське право та контент зі штучним інтелектом
Іще одним регуляторним полем битви, що точиться навколо технології штучного інтелекту, є авторські права на матеріали, на яких навчаються ШІ-інструменти. Саме навколо авторських прав виникло найбільше судових позовів, що стосуються ШІ. Ймовірно, це пов’язано з тим, що наявне «копірайт»-право не готове до викликів і потреб, які виникли у світі технологій через потребу навчання нейромереж і ШІ-моделей.
Адже системи штучного інтелекту дедалі більше залежать від величезних масивів даних, зокрема, захищених авторським правом. Тож суди по всьому світу мусять вирішити, чи є така практика «добросовісним використанням» захищених матеріалів, чи все ж таке навчання ШІ порушує ці самі авторські права.
Якщо два роки тому ми спостерігали шквальне зростання кількості судових позовів, то навесні 2025 року нарешті дочекалися певних рішень у цих справах. Це важливий етап розвитку технології ШІ, адже результат цих справ матиме глибокі наслідки для майбутнього її розвитку.
Технологічні компанії стверджують, що їхні системи штучного інтелекту перетворюють матеріали, захищені авторським правом, на інноваційні продукти, що кваліфікується як добросовісне використання. Однак власники авторських прав стверджують, що ці моделі просто копіюють їхні роботи, що загрожує їхній економічній життєздатності. Впевненість лідерів технологічних компаній у тому, що ШІ-навчання на контенті нічого не порушує, якнайкраще демонструє заява колишнього віцепрезидента Meta Ніка Клегга, який переконаний у тому, що сама ідея отримувати дозвіл на використання контенту для ШІ-навчання буквально знищить ШІ-індустрію.
Деякі ранні рішення судів були на користь власників авторських прав, але в 2025 році ситуація дещо змінилась. До прикладу, федеральний суд Північного округу Каліфорнії визнав за компанією Anthropic право тренувати її ШІ-моделі на текстах, які були законно придбані та відскановані, оцінивши цей крок як принцип «добровільного використання» (fair use). Водночас суд постановив, що завантаження понад 7 млн піратських копій із сайтів на кшталт LibGen, Books3 та Pirate Library Mirror, які опинилися в датасеті для навчання Anthropic, не підпадає під захист fair use. Відповідно, їх не можна використовувати для тренування моделей чи будь-яких «дослідницьких» потреб. Суддя Вільям Олсап підкреслив: тренування моделей на книжках подібне до читацького процесу, коли людина вчиться сприймати контент, а потім створювати нові тексти, не порушуючи авторського права, поки не копіює контент слово в слово.
Більш радикальне рішення суддя виніс в аналогічній справі, де відповідачем була компанія Meta. Техногігант відповідав за позовом 13 письменників, які стверджували, що компанія завантажила їхні книжки з «піратських бібліотек» (використовуючи торент-трекери) для навчання своєї мовної моделі LLaMA. В цьому випадку суддя визнав, що навчання ШІ на таких даних не порушує закон. У рішенні судді йдеться, що Meta не відтворює цих текстів дослівно, тож не можна говорити про ринкові збитки для авторів цих книг. Водночас суд не розглядав питання незаконного завантаження книг — це окремий епізод, який має бути досліджений у майбутньому процесі.
Обидва кейси вказують на ключовий юридичний принцип: використання творів для навчання ШІ може вважатися трансформативним і законним, при цьому бажано, аби джерело контенту було легальним. Судова практика дедалі активніше підтримує концепцію fair use (добросовісного використання) для навчання моделей. Проте навряд чи ці рішення задовольнять авторів, адже лише за 2024 рік було подано понад 40 судових позовів, пов’язаних із використанням авторських творів для тренування штучного інтелекту. Вони стосуються не лише книг, але й журналістських матеріалів та музичних творів.
Регулювання ШІ: баланс безпеки чи захист інтересів великих гравців?
Сучасні дебати щодо регулювання штучного інтелекту в США демонструють глибокі розбіжності між інтересами громадськості та технологічних корпорацій. Попри риторику про «розумне» чи «інноваційно-дружнє» регулювання, критики наголошують: насправді ці ініціативи часто спрямовані не на захист суспільства, а на зміцнення ринкових позицій великих компаній шляхом створення бар’єрів для нових гравців. Посилання на конкуренцію з Китаєм, потенційну втрату технологічного лідерства та загрозу «відтоку інновацій за кордон» стали інструментами тиску на законодавців. У результаті формується регуляторний ландшафт, у якому правила можуть більше слугувати інтересам домінантних компаній, ніж забезпеченню прозорості, відповідальності та справедливої конкуренції. Водночас сумний досвід Європи, яка, зарегулювавши технології, позбавила себе місця серед передових гравців технологічного ринку, показує, що занадто сильні важелі впливу на галузь, що розвивається, здатні пригальмувати її розвиток.
Розвиток ринку ШІ та його регулювання — десь обережне, а десь занадто агресивне — підтверджує давню дилему між розвитком інновацій та їх гальмуванням.
Вибуховий розвиток, який демонструє технологія ШІ, несумісний із поміркованістю, зазвичай притаманною державному регулюванню. Це формує постійну напругу між потребою швидко реагувати на виклики й ризики нових технологій та небезпекою передчасно задушити їхній потенціал.
Від того, чи вдасться зараз знайти оптимальний спосіб регулювання цієї нової технології, багато в чому залежать вигляд та можливості штучного інтелекту в найближче десятиліття.