Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Військові амбіції та етика алгоритмів: чому суперечка між Anthropic і Пентагоном має глобальні наслідки

Наука
4 Березня 2026, 19:04

Поки світ спостерігає за подіями на Близькому Сході, у США розгортається конфлікт між технологічною корпорацією, яка публічно відмовила в співпраці Пентагону.


Штучний інтелект, головна технологія останніх років, цікавить не лише бізнес, студентів чи науковців. Військові вже давно вивчають переваги ШІ, а технологічні компанії вносять корективи у правила використання своїх продуктів, фіксуючи можливість їх застосування під час створення зброї та військових конфліктів. Тож конфлікт між Athropic та Пентагоном, за яким технологічний світ спостерігав наприкінці лютого, насправді був лише питанням часу. Ця спроба технологічної корпорації Anthropic захистити свої розробки від військової машини має глобальне значення для всього світу та для нашого з вами майбутнього, передовсім для тих, хто усвідомлює ризики ситуації, коли рішення про застосування військової сили ухвалюватимуть не люди, а алгоритми.

Передісторія: коли бізнес іде на війну

Перед тим як детально пояснювати суть конфлікту між бізнесом та армією США, варто згадати, що таке компанія Anthropic. Вона була створена 2021 року командою, яка пішла з OpenAI. Її очільник Даріо Амодеї — один з небагатьох представників ШІ-бізнесу, який відкрито каже, що розробляє технологію, потенційно небезпечну для людства, і саме тому хоче тримати її під контролем. Anthropic позиціює себе як «компанію безпеки» в розрізі власної відповідальності перед майбутнім людства.

Саме ця репутація зробила їхню мовну модель Claude привабливою для американських спецслужб і оборонного відомства. У 2024 році Anthropic уклала партнерство з Palantir — компанією, що десятиліттями обслуговує американські розвідувальні структури. У липні 2025 року Пентагон підписав однотипні контракти з чотирма провідними ШІ-компаніями — Anthropic, OpenAI, Google і xAI (компанія Ілона Маска). Кожен контракт вартістю в $200 млн передбачав «прототипування можливостей штучного інтелекту, що просувають національну безпеку США» — вельми розмите формулювання, яке й заклало підвалини для конфлікту, що вибухнув у лютому 2026-го.

У контракті між Anthropic та Пентагоном фігурувало два обмеження. Перше — продукти Anthropic не можуть використовуватися в системах летальної зброї з повною автономією, тобто там, де машина самостійно, без участі людини, вирішує, кого вбити. Друге обмеження забороняло використовувати продукти компанії у масовому стеженні за американськими громадянами на території США.

Даріо Амодеї неодноразово пояснював, що ці два обмеження — не примха і не маркетинг, а етичні переконання, на яких базується існування компанії. «Сучасні ШІ-моделі недостатньо надійні, щоб діяти повністю автономно й незалежно в ситуаціях, де ціна їхньої помилки — людське життя», — писав очільник компанії. Він пояснював: потужна ШІ-модель, що аналізує мільярди розмов мільйонів людей, здатна виявляти й придушувати осередки невдоволення ще до того, як вони переростуть у щось більше, — іншими словами, уже сьогодні ця модель становить загрозу для демократії та свободи слова.

Ультиматум від військових

У січні 2026 року міністр оборони Піт Геґсет підписав нову стратегію Пентагону в галузі ШІ. Ключове її положення полягало в тому, що будь-які контракти з технологічними компаніями відтепер мають виключати «специфічні для компанії охоронні обмеження» і передбачати право військових використовувати ШІ-інструменти «для будь-яких законних цілей». З одного боку, Пентагон був готовий обіцяти не використовувати Claude для масового стеження й автономного вбивства, але додав в угоду фразу as appropriate («за доречністю»), що фактично залишало фінальне слово за військовими. Anthropic на такі формулювання не погодилась.

Під час переговорів між Anthropic і Пентагоном представники військового відомства наполягали на праві за допомогою продуктів Anthropic збирати й аналізувати знеособлені комерційні дані про американців: геолокацію, історію браузера, транзакції. У відповідь Anthropic запропонувала інший формат співпраці: компанія погоджувалась працювати з державною таємницею за встановленими законом правилами, але виступила проти використання своїх технологій для аналізу великих масивів персональних даних, які приватні компанії збирають про звичайних громадян.

Пентагон відмовив, на що Anthropic ще раз підкреслили, що погоджуються на будь-яке законне застосування — за двома винятками. Натомість Пентагон наполягав, аби не було жодних виключень. Військові хочуть мати право аналізувати масиви даних про американців: пошукові запити, GPS-переміщення, транзакції, листування. Через це, власне, і розвалилась угода між Anthropic та військовими. Проте 24 лютого 2026 року міністр оборони Геґсет озвучив ультиматум, у якому вимагав, аби керівник компанії Даріо Амодеї до вечора п’ятниці, 27 лютого, погодився на його формулювання й на право необмеженого використання продуктів Anthropic.

Позиція Anthropic: «Ми не можемо погодитись»

26 лютого Амодеї оприлюднив на сайті компанії розгорнуту заяву. Він визнав, що Anthropic «щиро намагалась досягти угоди протягом тривалих переговорів», та підкреслив, що підтримує всі законні застосування ШІ у сфері національної безпеки — окрім двох вузьких винятків. «За нашими даними, ці обмеження не вплинули на жодну державну місію до цього часу, — наголосив Амодеї й додав: — Жодні залякування чи покарання з боку міністерства війни не змінять нашої позиції щодо масового внутрішнього спостереження чи повністю автономної зброї».

Фінальний абзац заяви Амодеї звучить як публічна декларація цінностей: «Нашими першочерговими пріоритетами є захист клієнтів від будь-яких збоїв, спричинених цими надзвичайними подіями, та співпраця з військовим міністерством». За умови, що Anthropic — не єдина компанія, чиї розробки планує використовувати Пентагон, ця заява — своєрідний маніфест, озвучений у світі, який готується автоматизувати військові протистояння та застосовувати алгоритми не лише як інструменти підтримки рішень, а як повноцінних учасників бойових і розвідувальних процесів, здатних впливати на хід конфліктів без прямого людського контролю.

Відповідь влади та спроба обмежити Anthropic

Заява Амодеї викликала обурення не лише серед військових. Дональд Трамп написав у власній соцмережі Truth Social: «Ліваки-божевільні з Anthropic зробили катастрофічну помилку, намагаючись закрутити гайки військовому міністерству й змусити підкорятись їхнім умовам обслуговування замість нашої конституції. Тому я наказую кожному федеральному агентству негайно припинити використання технологій Anthropic». Згодом очільник Пентагону Геґсет оголосив Anthropic ризиком для ланцюга поставок.

Це рішення є надзвичайно важливим кроком, адже це статус, який дозволяє федеральному уряду США обмежувати чи припиняти співпрацю з компанією, призупиняти надання їй контрактів чи навіть застосовувати щодо неї положення Defense Production Act (Федеральний закон США про оборонне виробництво 1950 року, що надає уряду повноваження вимагати від приватних компаній пріоритетного виконання державних замовлень і забезпечувати виробництво товарів/технологій, необхідних для національної безпеки) для примусового залучення ресурсів лише в межах визначених державних потреб.

Цей статус зазвичай призначений для компаній, пов’язаних з іноземними ворогами. Проте досі він ніколи не застосовувався проти американської компанії — лише проти іноземних, таких як китайські Huawei і ZTE та російська «Лабораторія Касперського». Тож ця оцінка Anthropic — це не просто розірвання контракту з ШІ-компанією з боку Пентагону. Формально вона означає, що будь-який підрядник, що працює з американською армією, зобов’язаний довести, що не використовує нічого пов’язаного з Anthropic. В майбутньому це може спонукати Amazon, Google і Nvidia — які вклали в Anthropic мільярди — продати свої частки.

Юристи одразу звернули увагу на проблематичність процедури таких визначень. Адже за федеральним законом статус «ризику для ланцюга поставок» вимагає проведення оцінки ризиків, повідомлення Конгресу і доказів того, що іноземний противник може скористатися ситуацією. Нічого з цього зроблено не було, тож не дивно, що Anthropic оголосила, буцімто оскаржить рішення в суді.

Як OpenAI намагалась використати ситуацію на власну користь

Іще раніше компанія OpenAI — розробник ChatGPT, — яка теж влітку уклала контракт із Пентагоном, видалила з переліку заборонених використань її продуктів формулювання про зброю і бойові дії. А 27 лютого 2026 року, щойно американські чиновники оголосили про припинення співпраці з Anthropic, очільник OpenAI Сем Альтман повідомив про підписання оновленої угоди з Пентагоном, фактично скориставшись провалом конкурента. Так, Альтман згадав про існування запобіжників, схожих на ті, що були в Anthropic (заборона на автономну зброю і масове стеження). Але ключова різниця: OpenAI не вписала їх як тверді заборони в текст контракту, а погодилась на формулювання «будь-яке законне використання».

Характерно, що, коментуючи цю угоду, Альтман публічно заявляв, буцімто OpenAI, як і Anthropic, відмовляється допускати свої моделі до автономних систем убивства, та підкреслював, що його модель залишатиметься «в хмарі». Проте цей аргумент не варто сприймати серйозно, адже межа між хмарним сервісом і реальним полем бою в сучасних військових мережах є умовною. Невідомо, як надалі реагуватимуть звичайні люди на ці суперечки військових та ШІ, проте після оголошення про цю угоду американці стали масово видаляти ChatGPT зі своїх смартфонів, а водночас інтерес до продуктів Anthropic зріс.

Голоси співробітників

Поки керівники ШІ-компаній торгувались з Пентагоном, їхні рядові співробітники вирішили висловитися з приводу цієї історії. Понад 220 працівників Google й OpenAI підписали спільну петицію під назвою «Нас не розділити» («We Will Not Be Divided»). Серед них — 176 людей з Google і ще 47 з OpenAI. Згодом кількість співробітників OpenAI, що підписали петицію та відкритий лист, зросла до сотні.

Колишня керівниця геополітичного напряму OpenAI Сара Шокер детально пояснила суть конфлікту між Пентагоном та ШІ-компаніями. За її словами, жодна з провідних ШІ-компаній не має послідовної політики щодо військового використання своїх технологій, а їхні правила, що стосуються таких застосувань, навмисно розмиті, щоб зберегти гнучкість. Шокер також звернула увагу на формулювання, яким послуговувалась OpenAI у контракті з Пентагоном: заборона стосується лише «керування» автономними системами зброї — але це слово залишає значний простір для інтерпретацій. Компанія теоретично може погодитись на те, що її модель може стати частиною автономної зброї, аби тільки «одноосібно» не ухвалювала фінального рішення про удар.

Про що насправді сперечались військові та бізнесмени й чому це важливо

Щоб зрозуміти суть проблеми та глибинний зміст конфлікту, варто зрозуміти, що означає «умови використання» ШІ-моделі у військовому контексті.

Коли ви купуєте зброю, держава регулює, де і як її можна застосовувати. Коли держава сама закуповує зброю, вона не цікавиться умовами у постачальників. Але ШІ — це не зброя у звичному розумінні. Це програмне забезпечення, яке залишається власністю компанії, що його розробила. Компанія сама встановлює правила його використання. І раптом виявилось, що найпотужніша армія світу хоче використовувати продукт за власними правилами, а не за правилами розробника.

В Anthropic намагались пояснити, що компанія не продає американським військовим зброю, а надає ліцензію на використання своєї технології на певних умовах. Пентагон стверджує: коли йдеться про національну безпеку, жодна комерційна компанія не може ставити умов суверенній державі.

Цей конфлікт — це не просто юридична суперечка. Це питання про те, чи буде майбутнє ШІ регулюватись ринком і корпоративною відповідальністю, а чи все ж головними у регулюванні ШІ будуть держава та її структури, зокрема військові.

Якщо Пентагон переможе, буде встановлено прецедент: держава може змусити будь-яку ШІ-компанію прибрати будь-які обмеження щодо їхньої технології. Якщо виграє Anthropic, тобто суд визнає визначення «ризику для ланцюга поставок» незаконним — буде встановлений інший прецедент. Це означатиме, що ШІ-компанії можуть мати та відстоювати власну етичну позицію щодо своїх продуктів.

Читайте також: TiкТoк під американським прапором: як угода з Oracle змінить популярну соцмережу

Зрозуміло, що конфлікт Anthropic та Пентагоном вийде за межі корпоративного скандалу. Це перший відкритий конфлікт між розробником сучасного ШІ і державним апаратом. У майбутньому його результат не лише може змінити правила взаємодії технологічних компаній із державою, а й, у певному розумінні, визначити майбутні військові конфлікти.

читати ще