Звіт дослідницького центру PEW: Відсутність етичної складової у штучному інтелекті може становити небезпеку

Світ
1 Липня 2021, 15:58

иПро це пише у звіті Дослідницький Центр Pew. Низка IT-спеціалістів, юристів, дослідників та активістів занепокоєні тим, що у розробці штучного інтелекту (ШІ) не враховують етичну сторону і концентруються на прибутку, конкуренції на ринку та соціальному контролі. За їхніми прогнозами, до 2030 року навряд чи щось зміниться. 

Близько 602 технологічних новаторів, розробників, бізнесменів та політиків спитали, чи застосовуватиме більшість систем ШІ етичні принципи, орієнтовані на суспільне благо. 68% опитаних відповіли негативно, а 32% припускають, що принципи таки враховуватимуться.

У звіті йдеться про те, що спеціалісти занепокоєні впливом ШІ на сприйняття себе людиною та свободі вибору та волі. Вони зазначають, що створення роботів без вкладання у їхні дії етичних міркувань може призвести до того, що з’являться машини, які заради виконання свого плану не враховують впливу своїх дій на інших агентів, тобто зокрема людей. Тому етика у ШІ є набагато складнішою формою планування, оскільки вона повинна враховувати цілі та плани інших агентів, прописувати протоколи поведінки роботизованих механізмів та ШІ.

Небезпека криється й у тому, що контроль над ШІ зосереджений у руках потужних компаній та урядів, що керуються не етичними, а комерційними мотивами. Протягом наступного десятиліття розвиток ШІ буде і надалі спрямований на пошук все більш досконалих способів впливати на емоції та переконання людей у щоб переконати їх купувати товари, послуги та ідеї, йдеться у звіті.

Читайте також: Коротка історія штучного інтелекту

Дослідницькі групи опублікували документи, які пропонують принципи етичного проектування ШІ, і урядові робочі групи намагалися вирішити ці проблеми. Відтак Дослідницький центр Pew та Elon University’s Imagining the Internet Center запитали експертів, наскільки важливими будуть зусилля створити етичний штучний інтелект у 2030 році. 

Відповіді зібрали влітку 2020 року в іншому культурному контексті на тлі пандемії, ще до затвердження вакцин проти COVID-19. Тоді, коли у США активно обговорювалось питання расової справедливості та до президентських виборів у США.

Джамай Кашчо, співробітник Інституту майбутнього відповів, що він очікує чіткого виокремлення етичної системи в ШІ під час прямої взаємодії з людьми, але здебільшого в найбільш чітких та однозначних ситуаціях. “Найбільш важливими етичними дилемами є ті, коли правильна поведінка машини має ситуативний характер: ШІ в галузі охорони здоров’я, який навмисно бреше пацієнтам, а не повторно травмує їх новинами про давно померлих; військовий ШІ, який визнає і відхиляє незаконний наказ; усі дилеми типу "проблема візка", де немає хороших відповідей, є лише різновиди поганих результатів”, – прокоментував експерт. Що важливо, етичні протоколи повинні працювати так, аби ШІ враховував етичну складову, навіть коли вона є непрямою та не очевидною.

Читайте також: Штучний інтелект проти офісних працівників

Стоу Бойд консультант-футуролог, експерт у галузі технологічної еволюції та майбутнього роботи зазначив, що ШІ може призвести до проривів у багатьох сферах. Але широко розповсюджена автоматизація у різних сферах, якщо її не впроваджувати поступово, а не швидко на бажання великих корпорацій, орієнтованих на прибуток, може призвести до економічної дестабілізації.