Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Необхідна стриманість

Наука
20 Вересня 2020, 08:17

В одній із серій американського серіалу «Гарна дружина» («The Good Wife») клієнтом головної героїні, адвокатки Алісії Флорік, був психолог, який задля безпеки району кілька разів збивав безпілотники, що здійснювали зйомку околиць. Аргументом підсудного було бажання захистити від сторонніх очей своїх клієнтів, які приходили до нього на прийом. На час зйомок цієї серії (2015 рік) безпілотники почали активно застосовувати в різних сферах життя, проте правової бази для цього не було. Якби дрон літав порівняно високо (кілька сотень метрів), він підпорядковувався би правилам, прописаним для авіації, а дрон на висоті кількох метрів був би об’єктом застосування інших норм, які стосуються житлової забудови. Проте на тій висоті, на якій безпілотник фактично перебуває, тобто від п’яти до двох сотень метрів, для нього законодавчої бази не існувало. Цю ситуацію суддя в серіалі описала як «дикий, дикий захід». Швидкий розвиток технологій часто призводить до того, що такі історії стають реальністю. Це відбувається і через недосконалу законодавчу базу, і з інших причин. Тому іноді доводиться стримувати технологічний прогрес, щоб не завдати шкоди ані користувачам технологій, ані їхнім розробникам. Як наслідок, останнім часом інноваційний розвиток дедалі частіше крокує поруч із технологічною стриманістю, тобто розробникам доводиться штучно зупиняти використання та впровадження своїх новинок у життя.

 

Швидкий прогрес не завжди на користь

Часто винахідники не одразу можуть розпізнати проблеми, які породжує їхня розробка, а також спрогнозувати всі напрями її використання та ймовірні наслідки. Наприклад, інтернет, який було створено як мережу для обміну даними для військових, урешті змінив майже всі сфери життя в сучасному світі, до того ж настільки кардинально, що на час його створення в 1969 році ніхто навіть приблизно не міг собі цього уявити. Альфред Нобель винайшов нітрогліцерин як комерційно корисну вибухову речовину, а його динаміт спочатку застосовували в гірничодобувній промисловості й будівництві доріг і лише згодом він став одним із найнебезпечніших видів зброї свого часу.

 

Читайте також: Не боятися змін

Такий дуалізм супроводжує майже кожну інновацію: від винайдення автомобіля до створення й поширення соціальних мереж чи спроб розробити інтерфейс «мозок — комп’ютер».

Технологічні компанії завжди намагалися дотриматись балансу між використанням своїх розробок із хорошою й поганою метою. Проте зараз явище стриманості (призупинення чи відмови від технологій та інновацій) виникає дедалі частіше. Голов­на причина цього — швидка поява і впровадження інновацій у повсякденне життя, короткий час між виникненням ідеї та розробкою прототипу до перетворення технології на масовий продукт.

 

Ланцюгова реакція. Інколи новітні технології (як-от безпілотники) вимагають розробки додаткових засобів захисту, складних і дорогих

 

Одним із прикладів такого вповільнення запуску новацій на масовий ринок можуть стати технологія безпілотного водіння й автономні авто. Річ у тім, що в разі виникнення дорожніх пригод, особливо таких, у яких постраждали люди, слід визначити відповідальних за інцидент. А в разі використання автопілоту важко однозначно сказати, хто винен: розробник алгоритмів, виробник авто, водій, який доповнює частково безпілотну машину, чи постраждала сторона. Хоча поки до масового використання безпілотних автомобілів далеко, їхнє тестування в реальному світі, тобто поява на звичайних дорогах, теж потребували певної законодавчої бази. Саме тому в 2017 році у США було ухвалено федеральний закон Self Drive Act — законопроєкт, що давав змогу тестувати безпілотні авто на дорогах країни. Згодом у Каліфорнії ухвалили закон щодо використання таких автомобілів на дорогах штату, а також дозволили повністю безпілотні авто. Опісля такий самий дозвіл з’явився й у Флориді. Натомість у Китаї в 2016 році заборонили використовувати такі автомобілі на громадських дорогах, аж доки буде ухвалено відповідні закони. Приклад Каліфорнії та Флориди можуть наслідувати й інші штати, проте нині у США використання автомобілів повністю без водіїв неможливе саме тому, що конгресмени не впевнені у їхній достатній безпеці. Це, щоправда, не заважає багатьом компаніям тестувати свої безпілотні технології, проте їхні заяви, що за два–три роки професія водія відійде в минуле, є відвертим популізмом. Водночас відсутність законодавчої бази не заважала використовувати дрони й безпілотні літальні апарати, просто певний час їх застосування ніяк не було регульоване.

Отже, причини гальмування різні. Іноді компанії припиняють підтримку власних розробок, бо розуміють, що зарано вийшли з ними на ринок. Траплялися випадки, коли така відмова була пов’язана з вимогами працівників компанії чи навіть політичною ситуацією.

 

Технології проти суспільства

Розпізнавання облич — один із найяскравіших прикладів інновацій, масове використання якої технологічні компанії зараз намагаються призупинити. Успішній роботі систем розпізнавання людських облич та об’єк­тів загалом передувала робота багатьох математиків, що стосувалася їх класифікації й аналізу даних. Із часом для цього почали застосовувати нейронні мережі. Сьогодні масовість використання систем розпізнавання облич стала базою для тотального стеження за людьми. Такі системи використовують переважно офіційні структури: поліція та спецслужби, до того ж не лише з метою пошуку злочинців на вулицях міст. Китайські технології соціального рейтингу та стеження за уйгурами також базуються на цих розробках.

Улітку цього року одразу три великі технологічних компанії: Amazon, IBM та Microsoft — запровадили мораторій на використання поліцією їхніх розробок у сфері розпізнавання облич. IBM узагалі відмовилася від роботи над такими технологіями й закликала Конгрес США зайнятися їхнім законодавчим забезпеченням, Amazon запровадила річний мораторій для поліції, а Microsoft відмовилася продавати технології правоохоронцям, допоки Конгрес ухвалить відповідну нормативно-правову базу, зокрема закон про конфіденційність даних.

 

Читайте також: Штучний інтелект: заявки на лідерство

 

Водночас ці компанії пропонують своїм клієнтам (серед яких раніше були й поліцейські відділки) власні технології розпізнавання. До прикладу, у Amazon є хмарна платформа Amazon Rekognition, яка надає доступ до технології розпізнавання облич. Amazon відмовилася передавати правоохоронцям ці інструменти, водночас у компанії наголосили, що організації, які займаються пошуком дітей, порятунком жертв торгівлі людьми та возз’єднанням зниклих людей із їхніми сім’ями, як і раніше зможуть застосовувати цю технологію. Така одночасна технологічна стриманість із боку Amazon, IBM і Microsoft є прямим наслідком протестів проти дій поліції, які активізувалися навесні цього року. Фактично, великі технологічні компанії були змушені відреагувати на тиск із боку суспільства щодо використання їхніх розробок правоохоронцями. Адже неодноразово було доведено, що технології розпізнавання упереджені щодо меншин, насамперед афроамериканців. А навесні цього року у США вперше помилково заарештували людину, яку система розпізнала неправильно. Незважаючи на наявність алібі, Роберта Вільямса із Детройта не лише заарештували, йому довелося понад добу пробути в поліцейському відділку, перш ніж стало зрозуміло, що чоловік не винен у злочині.

Ще одна проблема цієї технології — право людей на захист приватного життя, яке системи розпізнавання повністю нівелюють. Захиститися від таких інструментів майже неможливо, а дані, які отримують системи, стали «новою нафтою» в епоху капіталізму спостережень (див. «Смерть приватності», Тиждень № 6/2020).

Заборони великих технологічних компаній не стали революційними кроками, особливо якщо згадати, що в деяких штатах (наприклад у Сан-Франциско, Орегоні та Каліфорнії) ще з 2019 року поліції заборонено застосовувати технологій розпізнавання облич. А на початку цього року Єврокомісія висловила бажання заборонити використання технології розпізнавання у громадських місцях на 3–5 років, щоб за цей час оцінити наслідки для захисту персональних даних громадян та їхнього права на приватність. Так технологічна стриманість щодо систем розпізнавання стала певною відповіддю на запит суспільства.

Військові аспекти

Іноді компанії згортають роботу над деякими технологіями через відмову своїх співробітників. За останні кілька років відбулися відразу два протести працівників техногігантів, унаслідок яких BigTech відмовилися від співпраці з військовими. У 2018 році стало відомо про проєкт Maven, спільну програму компанії Google і Міністерства оборони США. Проєкт полягав у використанні алгоритмів машинного зору (такі алгоритми перебувають в основі систем розпізнавання об’єктів) для аналізу відеозаписів із дронів. Працівники Google виступили категорично проти такого партнерства, створили петицію з вимогою вийти з програми та створити політику щодо участі компанії у військових проєктах. Лише петицією історія не завершилася — у травні 2018 року кілька десятків працівників Google звільнилися на знак протесту. Керівництву пошукової платформи довелося переглянути своє рішення щодо співпраці з військовими, до того ж контракт у рамках проєкту Maven на новий термін не продовжили.

 

Останнє слово. Нинішня філософія застосування роботизованої зброї передбачає, що фінальне рішення про знищення цілі все ж таки має ухвалити людина-оператор

А в 2019 році аналогічні протести зачепили й корпорацію Microsoft. Співробітники фірми обурилися через розробку спеціальної військової версії VR-гарнітури HoloLens — бойової системи IVAS і контракт JEDI (Joint Enterprise Defense Infra­structure Cloud) на надання хмарних сервісів Пентагона. Працівники опублікували відкритого листа, у якому заявили, що вони не є розробниками зброї, а контракт на створення IVAS дасть військовим змогу підвищити летальність їхнього озброєння. Ці протести не призвели до бажаних результатів. Корпорація створила принципи співробітництва Microsoft і військових, повідомила їх персоналу й запропонувала охочим перейти в інший підрозділ компанії, не пов’язаний із замовленнями Пентагона. Але про відмову від військових замовлень компанія не повідомляла.

 

СOVID-19 проти персональних даних

Коли уряди багатьох країн оговталися від першого шоку, то почали шукати технологічні інструменти, які допомогли б у боротьбі з пандемією. Найпростішим варіантом виявилися додатки для стеження за контактами людей. Якщо людина захворіла, такі додатки давали б змогу дуже легко виявити перелік осіб, із якими вона контактувала. Однак у пропонованих інструментів є й багато недоліків, зокрема неконтрольоване стеження за користувачами. На цьому тлі технологічну стриманість виявили компанії Google та Apple: вони представили власні API-інтерфейси (набір інструментів для розробників), які давали змогу фіксувати контакти знеособлено й розкривати їх лише в разі хвороби (див. «Благими намірами», Тиждень № 21/2020). А найголовніше — ці компанії повідомили, що вони дозволятимуть розміщувати у своїх магазинах Google Play та Apple Store лише ті додатки, що дотримуватимуться стандартів конфіденційності.

 

Приборкання штучного інтелекту

Масове використання штучного інтелекту (ШІ) наразі ще попереду, нині ми можемо спостерігати лише окремі його прояви в різних сферах життя та бізнесу. Проте останні кілька років багато експертів, учених і бізнесменів почали наголошувати на необхідності врегулювати саме цю технологію. Ще у 2017 році Ілон Маск, Стівен Гокінґ та інші дослідники й експерти підписали перелік із 23 основних принципів, яких потрібно дотримуватися розробникам ШІ, щоб їх розробки були безпечними, продуктивними й моральними. Їхню думку продовжили на початку цього року на Всесвітньому економічному форумі в Давосі керівники Microsoft, IBM та Google, які закликали до посилення регулювання у сфері ШІ та говорили, що розробки повинні відбуватися відповідально й обережно. А керівниця IBM Джинні Рометті закликала заздалегідь оцінити потенційну шкоду ШІ та перевірити його на уперед­женість.

 

Читайте також: Чи мають діти вчитися людських цінностей на алгоритмах?

Можливо, ШІ стане тією технологією (точніше, поєднанням технологій), до якої стриманість проявлять найбільше. Перш ніж ШІ вийде за межі лабораторій, має бути створено законодавчу базу та взято до уваги всі ризики і проблемні ситуації його застосування.

 

Між поміркованістю та прогресом

Штучне гальмування розробок завжди перебуватиме поруч із розвитком інновацій, тому неможливо спрогнозувати, куди рухатиметься застосування технології.

Часто компанії не можуть зовсім відмовитися від певної технології, адже зазвичай на їхню розробку було витрачено багато грошей і така зупинка означатиме втрату ринку на користь інших його гравців. Саме це зараз відбувається в сегменті розпізнавання облич. Коли техногіганти відмовляються надавати поліції свої ноухау, компанія Clearview AI із початку року почала активно пропонувати правоохоронцям власні системи. Вони базуються на основі бази даних фотографій, які розробник зібрав у соцмережах попри відсутність дозволу на такі дії. Поки техногіганти розмірковують, чи етично застосовувати упереджені інструменти розпізнавання, засновники Clearview AI заявляють, що «шукати когось за обличчям невдовзі буде так само просто, як шукати ім’я в Google».

Технологічний світ наразі вчиться знаходити баланс між поміркованістю і прогресом. І дедалі частіше розуміє, що поступальний рух і стриманість у далекій перспективі вигідніші й надійніші за вибуховий розвиток.