Наука

  ▪   Катерина Койдан

Автономна зброя. Нове слово у війні

Які країни вже сьогодні займаються розробкою озброєння з штучним інтелектом?
Військові завжди шукають шляхи для удосконалення власної зброї та техніки. Тож, недивно, що передові армії світу зацікавились тим, як штучний інтелект (ШІ) може допомогти їм у покращенні їхнього озброєння та екіпірування. На сьогоднішній день, ключовими гравцями у сфері застосування ШІ у військовій сфері вважаються Сполучені Штати, Китай, Росія, Велика Британія, Франція, Ізраїль, та Південна Корея. Відповідно до загального рівня розвитку технологій та наявності приватних компаній з багатьма напрацюваннями у галузі ШІ, можна сказати, що найбільшим потенціалом щодо запровадження передових технологій в армії володіють США та Китай.

 

Враховуючи, що військові розробки – це значною мірою засекречена галузь, важко достеменно сказати, чи займаються Сполучені Штати та Китай розробкою саме автономної зброї. Однак, через те що в Штатах політична система більш демократична та відкрита порівняно з Піднебесною, про військові технології цієї країни відомо трохи більше.

 

Отож, відповідно до наявної інформації, в американській армії активно тестуються автономні транспортні засоби для їх використання безпосередньо у боях. Однак, технології ШІ, що керують цими безпілотними машинами, не мають доступу до управління озброєнням, яке на них встановлене.

 

Читайте також: Нові супутники Сатурна та «неметеорити» у Чилі

 

Існують також бойові роботизовані платформи, які можуть вести вогонь, але тільки за наказом людини-оператора. Озброєння, підсилене ШІ, на сьогоднішній день не є повністю самостійним, однак технології, щоб зробити його автономним скоріш за все вже існують. На заваді впровадженню таких видів техніки наразі стають, в основному, правові та етичні виклики.

 

Міністерство оборони США вважає систему озброєнь автономною, якщо вона може самостійно розпізнавати ціль та вражати її автоматично без участі людини. Наразі, така система вважається незаконною, і дозвіл людини є обов’язковим перед атакою будь-якої цілі. Втім, поступове впровадження деяких функцій для забезпечення автономності в військові системи означає, що шлях до появи повністю самостійних зразків відкрито.

 

Читайте також: Ліки з комп’ютера. Як штучний інтелект сприяє підбору медичних препаратів

 

Для використання такої зброї, необхідно буде забезпечити дотримання відповідного законодавства, і тут перед військовими стоїть ціла низка серйозних викликів. Так, наприклад, система повинна відрізняти військових людей від цивільних, так само як і військові об’єкти від цивільних. Також, автономна зброя, як і будь-які інші види озброєнь, повинна застосовуватись у відповідності до принципу пропорційності, тобто побічна шкода, заподіяна зброєю, не повинна бути надмірною щодо очікуваної військової вигоди. Досі незрозуміло, чи зможе автономна система озброєнь самостійно виконувати цю вимогу. Для того, щоб відповідати цьому принципу, «розумна зброя» повинна вміти оцінити побічну шкоду від удару, а потім порівняти її з оціночною вигодою, що отримає армія у разі здійснення відповідної атаки. Така оцінка є дуже залежною від контексту, і потребує розробки алгоритмів машинного навчання, які б вміли визначати стратегічну цінність певних об’єктів на полі бою на основі наявної інформації.

 

Однак, навіть якщо такі системи озброєнь будуть визнані за національним та міжнародним законодавством, це не означає, що буде дозвіл на їхнє застосування. Багато експертів вважають, що розробка летальної автономної зброї порушує фундаментальні етичні принципи і несе серйозну загрозу міжнародній безпеці.

 

У своєму нещодавньому звіті Don’t be evil?, компанія Pax оцінює ризики розробки летальної автономної зброї, проаналізувавши діяльність 50 компаній, що розміщені у 12 країнах світу і потенційно можуть мати відношення до відповідних технологій.

 

Читайте також: Чи замінить штучний інтелект психотерапевтів?

 

Так, серед американських технічних гігантів, компанії Amazon та Microsoft знаходяться у зоні ризику, оскільки вже співпрацюють з Міністерством оборони США за деякими військовими контрактами. А компанія Google, наприклад, змушена була відмовитись від співпраці з Пентагоном під тиском власних співробітників, і офіційно заявила, що не братиме участь в розробці летальної автономної зброї.

 

В Китаї також є трійка технічних гігантів, досягнення яких у галузі штучного інтелекту співставні з американськими лідерами. Це компанії Baidu, Alibaba, та Tencent. Всі вони в тій чи іншій мірі співпрацюють з китайським урядом, а їх ставлення до розробки летальної автономної зброї залишається загадкою для світу.

 

Летальна автономна зброя може докорінно змінити спосіб ведення війни, і ознаменувати собою чергову воєнну революцію, на кшталт винайдення пороху чи атомної бомби. Але чи етично делегувати рішення щодо життя чи смерті машині?   

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.