У Європарламент подали законопроект про регулювання штучного інтелекту, який може стати першим у світі міжнародним актом, що регулює використання AI-технологій. Євродепутати намагалися врахувати всі ризики використання штучного інтелекту (AI). Попри те, що перші спроби вирішити проблеми, які AI принесе у світ, у ЄС були зроблені ще кілька років тому, зовсім не очевидно, що ці ініціативи будуть успішними й не завадять розвитку індустрії в цілому
AI Act: як європейські законотворці відреагували на поширення штучного інтелекту
У середині травня члени комітетів внутрішнього ринку та громадянських свобод Європарламенту підтримали проект так званого AI Act – першого в історії документу для регулювання штучного інтелекту.
Цим законопроектом євродепутати прагнуть гарантувати, щоб люди контролювали системи AI, ці інструменти були безпечними, прозорими, відстежуваними, недискримінаційними та екологічно безпечними. Вони також хочуть мати єдине визначення штучного інтелекту, розроблене як технологічно нейтральне, щоб його можна було застосувати до подібних систем у майбутньому.
Законопроект пропонує класифікацію для інструментів штучного інтелекту. Ця класифікація базується на принаймні чотирьох рівнях ризику для AI-систем:
- неприйнятний ризик,
- високий ризик,
- обмежений ризик;
- мінімальний ризик чи його відсутність.
Технології з мінімальним ризиком будуть працювати без будь-яких обмежень. Система, віднесена до категорії «обмеженого ризику», попереджуватиме про нього користувачів, дотримуючись правила прозорості. До прикладу, якщо таку категорію отримає ChatGPT і з його допомогою буде створено контент в соцмережі чи в медіа, поруч з таким контентом повинна буде міститися примітка-попередження про те, що людина бачить не продукт іншої людини, а штучно згенерований вміст.
Читайте також: Коротка історія штучного інтелекту
Неприйнятний ризик у розумінні авторів AI Act означає повну заборону системи. Цікаво, що прикладом такої технології з неприйнятним ризиком автори законопроекту називають соціальний рейтинг, уже запроваджений у Китаї.
Найцікавіше в цій структурі стосується систем із високим ступенем ризику. До таких віднесено використання штучного інтелекту у правосудді, охороні здоров’я, транспорті, освіті й рекрутингу, наданні державних послуг. До прикладу, високоризикованими у ЄС вважають ситуації, коли штучний інтелект відбирає абітурієнтів для вступу до університету чи обирає резюме від людей, які шукають роботу. Проблемними вважаються й системи біометричної ідентифікації – таку назву отримали інструменти розпізнавання обличь. Системи профілювання, що використовують штучний інтелект, тобто розділення по певним показникам (стать, раса, громадянство, політичні погляди), пропонують заборонити повністю. Під повною забороною також може опинитися агрегація даних з соцмереж та камер спостереження та створення баз даних із їх подальшим використанням, до прикладу, для розпізнавання обличь. До речі, саме так працює компанія Clearview AI й такі вимоги означатимуть заборону на використання її продуктів у ЄС.
Усі високоризиковані інструменти штучного інтелекту повинні будуть пройти детальну перевірку та оцінку ризиків. Такі інструменти допустять до використання лише тоді, коли вони гарантуватимуть, що відповідні AI-продукти дають точний та безпечний для людини результат.
Хоча у більшості випадків розпізнавання через камери спостереження планують заборонити, є винятки. До прикладу, правоохоронці зможуть шукати жертву злочинців, зображення якої потрапило на камери, чи підозрюваного у вчиненні серйозного злочину. От тільки для такого використання поліція повинна буде отримати дозвіл суду, вказавши часові межі та регіон пошуку. Іншими словами, тотальне спостереження і масовий аналіз фото всіх без винятку за допомогою AI-інструментів у ЄС хочуть категорично заборонити.
Якщо цей законопроект ухвалять остаточно, а це можливо після голосування у Європарламенті в середині червня та низки інших процедурних кроків, порушникам загрожують серйозні адміністративні штрафи, які можуть сягати €40 млн або 7% від загального річного обігу компанії.
Довгий європейський шлях до регулювання штучного інтелекту
Вперше про необхідність регулювання AI у Єврокомісії дискутували ще два роки тому. Коли ще не існував ChatGPT, основними пропонованими підходами до регулювання були обмеження й заборона. Це мало вплив і на сьогодення. До прикладу, у нинішньому законопроекті використали принцип класифікації AI-технологій зі старого документу зразка 2021 року. Попри те, що ЄС зараз не є помітним гравцем на ринку штучного інтелекту, старий континент є лідером стосовно нормативних актів, які стосуються сучасних технологій.
Читайте також: Вийти з бульбашки. Як у світі пропонують регулювати BigTech та алгоритми
Незважаючи на критику європейського Загального регламенту захисту даних (GDPR), сама ідея хоч якось упорядкувати масове неконтрольоване використання даних користувачів була вперше реалізована у Європі. США наразі пасе задніх і щодо законів, які регулюють конфіденційність даних, й щодо інших нормативних документів. Хоча президент Джо Байден і обіцяє зробити вирішення цього питання важливим пунктом своєї програми. Так само у США досі роздумують, що робити з техногігантами, а в ЄС наприкінці 2022 року прийняли закони, які містять механізми боротьби з технологічними монополіями.
Американський підхід: обережне спостереження
У жовтні 2022 року в США було опубліковано Біль про права на штучний інтелект (AI Bill of Rights). Він містив містить п’ять базових постулатів, які потрібно враховувати при створенні й використанні систем штучного інтелекту. Проте американський підхід має певні особливості. Почнімо з того, що документ, який з’явився лише в другій половині 2022-го, не враховував революційні технологічні зміни, які сталися після запуску ChatGPT та аналогів.
Інша особливість американського AI Bill of Rights – його правила обов’язкові лише для державних систем штучного інтелекту, а щодо приватних компаній він є рекомендаційним. Власне, це є найбільшою проблемою. Закон не враховує ситуації купівлі державними структурами приватних розробок і у віддаленій перспективі може призвести до повторення історій з використанням шпигунського програмного забезпечення.
Керівник OpenAI виступає за регулювання штучного інтелекту
У середині травня в Сенаті США виступив керівник компанії OpenAI, розробника відомого чатботу ChatGPT, Сем Альтман. Сенатори цікавилися його поглядом на використання штучного інтелекту та на ризики для майбутнього людства.
Найвідоміший CEO серед AI-компаній не приховував своїх занепокоєнь і буквально попросив американських законотворців регулювати його галузь. Керівник компанії вважає, що потрібно створити спеціальний федеральний орган для цієї задачі. Основними положеннями майбутніх законів про регулювання, на думку Альтмана, повинні стати захист прав авторів контенту та інструмент, за допомогою якого вони можуть заборони штучному інтелекту вчитись на їхніх роботах. Окрім того, потрібно створити й врегулювати стандарти безпеки для AI-рішень й розробити систему незалежного аудиту для оцінки AI-інструментів. Альтман додатково підкреслював необхідність заборонити використання ChatGPT й аналогічні інструменти у політичних цілях.
Читайте також: Закритий штучний інтелект. Чому OpenAI відмовляється від відкритого підходу до ChatGPT
Підсумовуючи свій виступ, Альтман не виключив, що «з цією технологією щось піде не так». Його покази у Сенаті підтверджують відмову компанії OpenAI від відкритої моделі у розробці ChatGPT.
Вимушене регулювання
Мабуть, уперше в технологічній історії людства законодавчі обмеження почали виникати тоді, коли технологія – штучний інтелект – на початкових етапах свого розвитку й впровадження. Цікавим є те, що учасники ринку не намагаються протестувати проти такого підходу, а навпаки, практично закликають регуляторів обмежити розвиток.
Неможливо спрогнозувати, наскільки законотворцям вдасться передбачити всі проблеми, які здатен створити штучний інтелект. Проте такий підхід є очевидним прогресом у взаємодії технологічного бізнесу та регуляторів. Навряд чи він сприятиме зникненню технологічної стриманості як явища, проте зробить технології більш зрілими й надійними.