Компанія Google змінила документ, у якому містився опис принципів її роботи зі штучним інтелектом. З нього зникли пункти із забороною на використання цих технологій для створення зброї. Це рішення насправді фіксує реальний стан справ: штучний інтелект активно використовують військовики вже не перший рік. Проте така зміна принципів і норм може означати старт серйозних перегонів ШІ-озброєння.
«Не бути злом» (Don’t be evil) — колись ця фраза була слоганом Google: з неї починався корпоративний кодекс поведінки пошукового гіганта з 2000 року. У 2018-му компанія змінила цю фразу на іншу: тепер її кодекс починається зі слів: «Співробітники Alphabet та її дочірніх і контрольованих філій (“Alphabet”) мають діяти правильно». Саме ідея «діяти правильно» або «робити правильні речі» (в англійському варіанті do the right thing) утілювала дух стартапу двох аспірантів, що перетворився на технологічного гіганта — лідера відразу в кількох сегментах ринку.
Ці слогани компанії детальніше представили в її принципах роботи, які описували те, у який спосіб можуть використовувати технології компанії. На початку лютого журналісти The Washington Post розповіли про те, що компанія відредагувала деякі свої принципи використання штучного інтелекту. Стаття від 4 лютого з описом ситуації містить згадку про те, що архівна копія сторінки із попередніми принципами Google від 30 січня має старий вигляд. Натомість в оновлених правилах і принципах (які змінили в період від 30 січня до 4 лютого) немає заборони на використання технологій штучного інтелекту для розробки зброї та організацію стеження.
Однак цей крок компанії став буквально вимогою часу. У публікації у своєму блозі на початку лютого 2025 року Google пояснила, що змінила свої принципи штучного інтелекту з таких причин: глобальна конкуренція в сегменті, складні геополітичні ландшафти, інтереси національної безпеки.
Тож ця зміна також може бути реакцією на трансформацію загальних правил бізнесу й ведення справ, з якими вчаться жити США із новим президентом. Як загалом, так і щодо конкретних напрямів розвитку штучного інтелекту, на які Дональд Трамп робить серйозну ставку у своєму протистоянні із Китаєм.
Проте, окрім цього, рішення Google відмовитися від заборони на розробку штучного інтелекту для військових застосувань знаменує важливий і суперечливий поворот в етичній позиції, до того ж не лише цієї компанії. Раніше про готовність співпрацювати з військовиками й сектором оборони заявляли інші ШІ-компанії, серед яких OpenAI та Anthropic. Трансформація етичних підходів до розробки й використання штучного інтелекту в технологічному секторі свідчить не лише про те, що технології та війна розвиваються синхронно й перші сприятимуть створенню та розвитку засобів для другої. А й про те, що сьогодні ми стаємо свідками початку ШІ-перегонів озброєнь.
Не Google єдина: як техногіганти йшли в Military AI
Насправді Google не єдина компанія, яка стала працювати в напрямі Military AI — військового застосування штучного інтелекту. У січні 2024 року компанія OpenAI, розробник популярного ChatGPT, змінила свою політику щодо використання технологій штучного інтелекту у військових цілях, видаливши попередню заборону на «військову діяльність» і «розробку зброї». У грудні 2024 року OpenAI оголосила про партнерство з оборонною компанією Anduril Industries. Ця співпраця передбачала інтеграцію моделей штучного інтелекту OpenAI у системи протидії безпілотникам, які розробляє Anduril.
Коментуючи ці кроки, генеральний директор OpenAI Сем Альтман зазначив, що компанія прагне створювати штучний інтелект на користь якомога більшої кількості людей і підтримує зусилля США щодо забезпечення демократичних цінностей. Співпраця з Anduril допоможе їй захистити американських військовиків і сприятиме відповідальному використанню технологій штучного інтелекту у сфері національної безпеки.
Отже, співпраця техногігантів з оборонним сектором у США поступово стала новою нормою, до якої доєднується дедалі більше компаній. Наприклад, Anthropic, яка працює у сфері штучного інтелекту, також оголосила, що об’єднується з аналітичною компанією Palantir та Amazon Web Services, щоб надати розвідці й оборонним службам США доступ до своїх моделей ШІ. Однак політика Anthropic все ще забороняє використовувати її моделі штучного інтелекту для розробки або вдосконалення «систем, призначених для заподіяння шкоди або втрати людського життя». Проте цілком можливо, що скоро це формулювання зміниться.
У листопаді 2024 року гігант у світі соцмереж Meta оголосив, що надасть свої моделі штучного інтелекту Llama державним установам і приватним компаніям, які працюють над обороною та національною безпекою. Це сталося, попри те що тоді політики Meta забороняли використання Llama для «військових, ядерних галузей або застосувань».
Проте це не завадило появі Defense Llama — чатбота, розробленого компанією Scale AI на основі моделі Llama 3 від Meta й спеціально налаштованого для підтримки національної безпеки США. Його створили для інтеграції в різні оборонні системи, включно з платформами командування й управління, інструментами аналізу розвідданих і системою підтримки ухвалення рішень. Особливість Defense Llama — це здатність відповідати на запитання, пов’язані з воєнними операціями, такими як планування авіаударів.
Трансформація етичних принципів ШІ Google — від протестів до нової норми
Цікаво, що зміна парадигми застосування розробок техногігантів майже не викликала масових протестів серед їхніх працівників чи з боку правозахисників (хоча окремі протести на заяву Google все ж прозвучали). Це свідчить не стільки про те, що світ не протестує проти розвитку Military AI, скільки про те, що його поява й використання колись мирних технологій у військові справі стало потребою сучасного суспільства.
Принципи використання штучного інтелекту Google розробила 2018 року у відповідь на внутрішню негативну реакцію її працівників щодо участі компанії в проєкті Пентагону Maven, який використовував штучний інтелект для спостереження за дронами. Працівники Google висловили стурбованість тим, що цей проєкт суперечить їхнім етичним стандартам, а тисячі з них підписали відкритого листа із закликом до тодішнього генерального директора Сундар Пічаї відмовитися від військових контрактів. Це обурення привело до того, що Google не продовжив свій контракт із Міністерством оборони (DoD) і зобов’язався уникати технологій, які можуть завдати шкоди або сприяти насильству.
Заяви проти проєкту Maven були не єдиними: Google поставала перед протестами через свою участь в ізраїльському проєкті Nimbus — ініціативі хмарних обчислень для ізраїльського уряду. Цього разу працівники стверджували, що технологію використовують проти палестинців. Проте після атак на Ізраїль 7 жовтня 2023 року компанія Google надала інструменти штучного інтелекту Міністерству оборони Ізраїлю й ЦАХАЛ та відмовилася коментувати це рішення.
Військовий ШІ став реальністю
Відсутність гучних протестів проти змін у підходах щодо дозволів використовувати нові технології насправді не лише нова норма, яка виникла, зокрема, й через велику війну в Україні. Насправді військовики різних країн — і навіть американські — уже давно активно тестують ШІ-інструменти.
Ще 2024 року стало відомо про те, що під час війни в Україні американські військовики перевіряли роботу розвідувальних безпілотників. За результатами цього успішного тестування Пентагон має намір випустити кілька тисяч порівняно недорогих автономних транспортних засобів, які підтримуватиме штучний інтелект. «Амбітна ініціатива під назвою Replicator має на меті “прискорити прогрес у надто повільному переході військових інновацій США до використання малих, розумних, дешевих і платформ”», — заявила в серпні заступниця міністра оборони Кетлін Гікс.
Експерти й військовики з Пентагону розуміють, що протягом наступних кількох років США матимуть повністю автономну летальну зброю. Хоча офіційні особи наполягають на тому, що люди завжди контролюватимуть ситуацію, експерти кажуть: підвищення швидкості обробки даних і можливості зв’язку між автономними машинами, оснащеними зброєю, неминуче призведе до того, що люди лише спостерігатимуть за тим, як на полі бою взаємодіють механізми.
Така зміна вигляду військового протистояння неможлива без активного впровадження штучного інтелекту у військову справу. Американська армія до цього готується не лише в Україні й не лише безпосередньо для завдавання ударів. На початку лютого 2024 року армія США використала ШІ для визначення цілей для авіаударів в Іраку й Сирії, що привело до понад 85 успішних ударів за один день. Ця операція була частиною співпраці між Пентагоном і технологічними компаніями, метою якої було покращення збору розвідувальної інформації за допомогою алгоритмів машинного навчання, які аналізують знімки з дронів і супутників.
Інновації потребують захисту й обмежень
Техногіганти, дозволяючи використання своїх технологій штучного інтелекту у військових цілях, відкривають нові горизонти для можливостей збройних сил, проте, на жаль, мало хто акцентує на потенційних загрозах. Поки що значна частина дискусій зосереджена на інноваціях, натомість етичні питання ігнорують. Серед них — автоматизація ухвалення рішень у конфліктах, можливість зловживань і те, що над зброєю немає людського контролю. Це може призвести до непередбачуваних наслідків, зокрема підвищеного ризику ескалації насильства, порушень прав людини й навіть ризиків для глобальної безпеки.
Андрій Латиш, офіцер ЗСУ, фахівець із військового застосування ШІ-технологій, переконаний, що про такі ризики треба думати вже сьогодні. На думку експерта, «основні ризики, які виникають під час використання штучного інтелекту у військових розробках, пов’язані зі складністю та вартістю таких розробок. Тобто це ризики неуспішної реалізації проєкту й, відповідно, нерезультативної розтрати досить дорогих і дефіцитних ресурсів».
Пояснюючи те, у який спосіб уже сьогодні можна запобігти неконтрольованому використанню ШІ-технологій у війні, Андрій Латиш упевнений, що це запитання варто ставити передусім юристам, а не інженерам: «У цьому контексті ми приходимо до тієї ж проблеми, що і в інших перегонах озброєнь, суть яких полягає в тому, що будь-які обмеження фактично роблять через згоду на обмеження спроможностей. Відповідно, загалом сторони вмотивовані не погоджуватись обмежувати себе. Тим паче поки мова йде про активні фази конфліктів, такі як війна в Україні. Тому я особисто очікую, що ще певний час фокус буде на досягнення максимальних спроможностей і максимальних результатів».
Тож рішення Google та інших ШІ-компаній відмовитися від заборони на використання свого штучного інтелекту у військових цілях — логічний розвиток використання технологій в умовах сучасних загроз. Це рішення продиктоване не лише міркуваннями національної безпеки, а й неминучою інтеграцією ШІ у військову сферу. У світі, де технології дедалі більше визначають стратегію і динаміку бойових дій, взаємодія між військовою сферою і ШІ-напрямом мусила породити Military AI — сферу військового застосування штучного інтелекту, що ми сьогодні й спостерігаємо. Відмова від попередніх заборон на використання ШІ у військовій справі свідчить про усвідомлення того, що ігнорування нових реалій може призвести до технологічного відставання. Проте не варто забувати про питання етики, контролю й потенційних наслідків цих рішень для майбутнього війни та глобальної безпеки. Схоже, що цю систему «стримувань і противаг» поки що ще не створили.