“`html
Штучний інтелект радикально трансформує військову справу, впливаючи на все, від обробки розвідувальних даних до автоматизації прийняття рішень на полі бою. Зростаюча швидкість та ефективність, які забезпечує ШІ, супроводжуються новими викликами, зокрема, збільшенням ціни помилок. У цьому огляді ми досліджуємо, наскільки збройні сили США готові довірити штучному інтелекту критичні рішення, що можуть впливати на людські життя.

Від компʼютерного зору до генеративного ШІ в плануванні бойових дій
Пентагон використовує генеративні системи ШІ для обробки даних у секретних операціях, завантажуючи в них списки потенційних цілей. ШІ аналізує цю інформацію на запит військових, визначаючи пріоритетність об’єктів з урахуванням поточної дислокації сил.
Впровадження генеративного ШІ значно скорочує час, необхідний для націлювання, проте перевірити достовірність результатів таких моделей стає складніше.
Інструмент Claude, розроблений стартапом Anthropic, був ключовим елементом військових операцій США. Однак, компанія Anthropic виступила проти створення повністю автономної зброї, що призвело до обмеження використання їхніх технологій Пентагоном. Наразі, для секретних завдань використовуються моделі від OpenAI та xAI.
Прикладом застосування ШІ у військових цілях є платформа Artificial Intelligence Platform (AIP), розроблена військовим підрядником Palantir.
ШІ-помічник може самостійно аналізувати виявлені об’єкти та визначати їх як, наприклад, «імовірний бронетанковий ударний батальйон». Після цього система генерує кілька варіантів дій для військового аналітика:
- атака з повітря,
- використання далекобійної артилерії,
- висування тактичної групи.
Використання ШІ для створення таких звітів значно економить час.


Наприкінці лютого – початку березня Anthropic відмовилася надавати уряду США беззастережний доступ до своїх технологій та виступила проти створення повністю автономної зброї. Ілюстрація Getty Images
Масштаби застосування ШІ у війнах США
Існує принципова різниця між старими системами, такими як Maven, та генеративними системами ШІ. Maven зобов’язувала військових безпосередньо аналізувати дані на карті поля бою. Натомість, генеративні системи ШІ полегшують отримання даних через текстовий інтерфейс, але ускладнюють перевірку їхньої достовірності.
Поєднання системи Maven та генеративного ШІ Claude прискорило темпи військової кампанії США в Ірані, зменшило здатність Ірану до контрудару та перетворило планування боїв на операції в реальному часі. Це дозволило американським військовим вразити 1000 цілей у перші 24 години атаки, а протягом 10 днів – 5000 цілей.
Технологія застосовувалася і в інших місіях, зокрема, під час військової операції у Венесуелі.
Ключовим є те, що ШІ дозволяє американським військовим обробляти цілі зі швидкістю машини, а не людини.
Водночас існують серйозні недоліки таких технологій: ШІ може помилятися, тому необхідна перевірка результатів генеративного ШІ людьми, особливо коли на кону стоять життя і смерть.
Прикладом є операція США в Ірані, внаслідок якої загинули понад 1300 цивільних, зокрема, понад 175 осіб у школі для дівчаток. Розслідування виявило, що частково причиною ракетного удару по школі були застарілі дані для націлювання.


Тисячі людей зібралися на похороні в місті Мінaб в Ірані, де прощалися з дітьми, загиблими внаслідок удару по школі на півдні Ірану. Ілюстрація Getty Images
Курс на автономну зброю та небезпечні збої
Пентагон активно розробляє повністю автономну зброю, зокрема, впроваджує ШІ в ударні дрони-камікадзе, що дозволить їм самостійно орієнтуватися, знаходити цілі та атакувати навіть у разі втрати зв’язку з командуванням.
Для цього уряд США запустив програму DAWG (раніше Replicator), метою якої є швидке розгортання тисяч автономних безпілотників. Цей флот готують на випадок потенційного конфлікту з Китаєм через Тайвань, базові системи мають бути готові вже до 2027 року.
Паралельно розробляються інші автономні системи, такі як програма Goalkeeper зі створення баражуючих боєприпасів та проєкт Whiplash, який має на меті перетворити сотні звичайних гідроциклів на озброєних бомбами морських роботів.
Проте, ці технології залишаються нестабільними та небезпечними. Під час випробувань у Каліфорнії один з автономних військових катерів вийшов з-під контролю та ледь не потопив човен з людьми.
Подібні технології потребують подальшого вдосконалення. Неможливо вирішити проблему безпеки таких машин простим додаванням додаткових кнопок на пульт управління.
Жодна велика мовна модель у її нинішньому вигляді не повинна розглядатися для використання в повністю автономній летальній системі озброєння. Надмірна залежність від них на даному етапі може призвести до катастрофічних наслідків.
“`
