Аліса та Боб розмовляють про іграшки: Боб хотів би два м’ячі, Аліса свій віддавати не хоче, навіть якщо Боб віддасть їй усе, що має. Боб у розпачі: «Я можу, я, я, усе інше!». Аліса зациклено відповідає: «Мати м’яч, до мене, до мене, до мене, до мене…». Те, що здається суперечкою малих дітей, насправді діалог між штучними інтелектами (ШІ) в лабораторії дослідного відділу, який вивчає ШІ. Це лабораторія Facebook у Менло-Парку (Каліфорнія).
Обидва боти мали навчитися комунікувати між собою англійською. Натомість вони розвинули власну мову й через повторення надали словам числових значень. «Ми встановили, що два боти, які тренувалися між собою, відійшли від людської мови й розвинули власну мову переговорів», — пише у своїй публікації Майкл Льюїс, дослідник із групи розробки ШІ для Facebook. Алісу та Боба відключили, відкотили систему й надалі заборонили їм спілкуватися між собою без дотримання жорстких правил.
Читайте також: Штучний інтелект: загроза чи незріла технологія
Приклад із 2017 року не здається драматичним, але показує, що ШІ може робити речі, не заплановані його творцями. Ніхто й не думав, що для ботів ефективнішим буде спілкування з виключенням людей. Розробники недооцінили своє творіння.
Те, що колись вважалося антиутопічною фікцією, — світ, у якому ШІ приймає рішення на шкоду своїм творцям чи стороннім третім особам, — стало тим часом реальністю. Нині політики визначають перші правила для розробників ШІ. У ЄС незабаром відповідні заходи безпеки можуть стати законом для бізнесу. Штучний інтелект, який відкидає пута людини-розробника для досягнення власних цілей, — давній похмурий прогноз. Хоча ідейний батько ШІ Реймонд Курцвейл вважає, що ця технологія колись допоможе людям досягти безсмертя, але інші технічні візіонери налаштовані песимістично. Наприклад, ще 2015-го Ілон Маск разом з уже померлим нобелівським лауреатом із фізики Стівеном Гокінґом та розробником ШІ Стюартом Расселом із Каліфорнійського університету в Берклі у відкритому листі застерігали перед неконтрольованим штучним інтелектом. При цьому, за словами Рассела, принаймні в проглядному майбутньому немає небезпеки, що комп’ютер розробить власний порядок денний. Розвиток технологій від цього ще дуже далекий. Проблема радше в точному визначенні цілей та меж потужного ШІ, щоб він випадково не обрав несподіваний та шкідливий для людей метод рішення.
Уже сьогодні алгоритми впливають на повсякдення, і не тільки позитивно. Вони використовують настрої людей, наприклад для підбірки музики на Spotify або для пропонування відповідної реклами. У Google Maps вони прокладають найшвидший маршрут до роботи й цим непрямо вирішують, на яких вулицях буде більше вихлопних газів. Вони визначають, яку політичну інформацію перед наступними виборами люди бачитимуть у Facebook.
Штучний інтелект змінює й плин життя: торік Amazon довелося навіть відключити ШІ, який мав на основі резюме відбирати кандидатів для роботи. Система відсіяла всіх жінок. Схожу проблему виявили журналісти проекту ProPublica в алгоритмі Compas, який систематично негативно оцінював резюме чорношкірих в’язнів у різних американських штатах. Алгоритми приймають рішення, які не може контролювати людина, частково з небажаними результатами. А якщо ШІ для легшого досягнення своєї мети зможе ввести людей в оману?
Читайте також: Як штучний інтелект піклується про здоров’я людей
Це може бути небезпечно: у 2018-му дослідники National Institutes of Health Clinical Center у Меріленді навчили алгоритм розпізнавання зображень діагностувати різні хвороби легень та серця на основі рентгенівських знімків торса. ШІ досяг вражаючої точності, але лише зі знімками з власної лікарні. Причина: ШІ розпізнав, які рентгенівські апарати для цього використовували. Програма визначала, що людина, якій знімок робили портативним приладом, не може встати, і на цій підставі діагностувала хворобу серця. Щось схоже побачили дослідники Стенфордського університету у 2017 році. Алгоритм мав навчитися розпізнавати рак шкіри по фото. Однак тут система аналізувала не зміни шкіри, а шукала лінійки. Якщо вони були на зображенні, підозру на переродження родимки мала й людина-лікар. В обох випадках з огляду на важке завдання штучний інтелект непомітно творчо шукав альтернативний, простіший шлях рішення. Але справжньої мети він точно не досяг.
«Складність у програмуванні штучного інтелекту становить те, що він повинен знайти надлюдське рішення проблеми. За визначенням він має краще розв’язувати завдання, ніж ми», — каже Яан Таллінн. Естонський програміст та інвестор був співзасновником Skype, а тепер займається етичним контролем досліджень ШІ. Він застерігає перед надзвичайною креативністю цифрової революції: «Нас не повинно дивувати, що штучний інтелект підходить до проблеми цілком інакше, ніж ми, люди, можемо собі уявити. Саме в цьому полягає небезпека. Адже нас можуть ввести в оману».
Читайте також: Чи мають діти вчитися людських цінностей на алгоритмах?
Моторошну візію Таллінна шведський філософ Нік Бостром з Оксфордського університету трансформував у такий уявний експеримент: що станеться, якщо ШІ залишити без нагляду із завданням виробити якомога більше скобок для зшивання, а він вирветься за межі фабрики й перетворить увесь світ на ці скобки? Ідея, звісно, свідомо перебільшена, звичайно, хтось витягнув би штекер. Але вона унаочнює, чому програмування ШІ потребує правил. Проект таких пропозицій у квітні цього року оприлюднила Єврокомісія. Найважливіші приписи в ньому визначають, що штучний інтелект має приймати рішення тільки під наглядом людини та з дотриманням створених людиною заходів безпеки.
«Це два надзвичайно важливі правила, — пояснює Філіпп Злюзалек, співавтор нових правил і дослідник ШІ в Німецькому дослідницькому центрі з питань штучного інтелекту. — З одного боку, поведінка ШІ повинна залишатися добре контрольованою, ми маємо перевірити, як алгоритм реагуватиме в критичних ситуаціях. Це означає, що слід впровадити механізми для контролю. З другого боку, система не повинна сама приймати складних рішень, а лише висувати пропозиції дій. Відповідальність має залишатися за людиною». Обов’язок повідомляти про дослідження ШІ він вважає беззмістовним і таким, що важко реалізувати: «Як можна проконтролювати, які програми працюють на тому чи тому хмарному сервері?». Але в разі входження системи в прямий контакт із людьми або якщо вона непрямо вирішуватиме їхню долю, застосування техніки слід зробити прозорим.
Не всі 52 експерти, які працювали над новими правилами ЄС, задоволені результатом. Так Томас Метцінґер, філософ в Університеті Майнца, сказав виданню Wired: «Забагато експертів надто тісно пов’язані з індустрією». Наприклад, він разом з іншим спеціалістом мав розробляти список застосувань ШІ, які слід заборонити. Вони висловилися проти автономної зброї та проти систем соціального оцінювання на кшталт тієї, яку використовують у Китаї. Згодом «наближені до індустрії члени групи» подбали про те, щоби цей список відхилили.
Так чи інакше нові правила для компаній, які розробляють та застосовують нові алгоритми в ЄС, досі не обов’язкові. Однак Філіпп Злюзалек налаштований оптимістично: «Я чудово можу собі уявити, що це наступний крок».