Штучний інтелект трансформує сучасні військові дії, пропонуючи інноваційні підходи до аналізу розвідданих та прийняття рішень на полі бою. Однак, поряд зі зростанням швидкості та ефективності, зростає і ризик фатальних помилок. Враховуючи це, актуалізується питання готовності військових структур, зокрема, збройних сил США, довіряти алгоритмам завдання, що безпосередньо впливають на людські життя. Нижче представлено аналіз тенденцій, що спостерігаються у цій сфері, згідно з матеріалами провідних міжнародних видань.
Від комп’ютерного зору до генеративного ШІ в плануванні бойових дій
Пентагон впроваджує спеціалізовані генеративні системи штучного інтелекту (ШІ) для обробки даних у секретних операціях. Ці системи отримують списки потенційних цілей, аналізують надану інформацію та визначають пріоритетність об’єктів, враховуючи, зокрема, наявність авіації, повідомляє MIT Technology Review. Додавання генеративного ШІ суттєво скорочує час, необхідний для націлювання, але водночас ускладнює перевірку достовірності результатів роботи моделей.
Раніше, система Maven, розроблена з 2017 року, використовувала ШІ попередніх поколінь для аналізу великих обсягів зображень та даних, наприклад, ідентифікуючи цілі на відео з дронів. Нині ця функціональність доповнюється генеративним ШІ, що значно прискорює пошук та аналіз інформації.
Інструмент Claude від стартапу Anthropic відігравав ключову роль у військових операціях США. Проте, наприкінці лютого – на початку березня, Anthropic відмовилася надавати уряду США беззастережний доступ до своїх технологій та висловила позицію проти створення повністю автономної зброї. У відповідь Пентагон заборонив використання їхніх продуктів і швидко переорієнтувався на моделі від компаній OpenAI та xAI.
Платформа Artificial Intelligence Platform (AIP), розроблена військовим підрядником Palantir, також демонструє застосування ШІ у військовій сфері. Помічник на базі ШІ здатен самостійно аналізувати виявлені ворожі об’єкти, визначаючи їх як, наприклад, «ймовірно, бронетанковий ударний батальйон». Після цього він генерує три варіанти дій для військового аналітика: атака з повітря, використання далекобійної артилерії або висунення тактичної групи, як зазначає Wired.
Використання ШІ для створення подібних звітів значно економить час. За словами Кунаала Шарми, керівника напрямку роботи з державним сектором у компанії Anthropic, раніше на подібний аналіз могло піти до п’яти годин.

Наприкінці лютого – початку березня Anthropic відмовилася надавати уряду США беззастережний доступ до своїх технологій та виступила проти створення повністю автономної зброї. Фото Getty Images
Масштаби застосування ШІ у війнах США
Існує фундаментальна різниця між системою Maven та генеративними системами ШІ, як зазначає MIT Technology Review. Maven вимагала від військових безпосереднього вивчення та інтерпретації даних на карті поля бою. Натомість, системи генеративного ШІ, побудовані на мовних моделях, є менш перевіреними в бойових умовах. Вони полегшують доступ до даних через текстовий інтерфейс, але достовірність отриманої інформації складніше перевірити.
За даними співрозмовників Washington Post, поєднання системи Maven з інструментом генеративного ШІ Claude прискорило темпи військової кампанії США на Близькому Сході. Це обмежило можливості Ірану для контрударів та дозволило перетворити тижні планування боїв на операції в реальному часі. Завдяки цьому, американські військові змогли вразити 1000 цілей за перші 24 години атаки, а протягом 10 днів ця цифра досягла 5000 цілей, згідно з даними Центрального командування США (Centcom).
Ця ж технологія була застосована й в інших місіях. Зокрема, в січні інструмент Claude відіграв важливу роль під час військової операції у Венесуелі, в результаті якої було захоплено президента Ніколаса Мадуро, повідомляє MIT Technology Review.
«Ключове зрушення парадигми полягає в тому, що ШІ дозволяє американським військовим обробляти цілі зі швидкістю машини, а не зі швидкістю людини», – цитує WP Пола Шарре, виконавчого віцепрезидента Центру нової американської безпеки.
Однак, існують й серйозні недоліки таких технологій. «ШІ помиляється. Нам потрібні люди, щоб перевіряти результати генеративного ШІ, коли на кону стоять життя і смерть», – додає Шарре.
З нещодавніх контроверсійних прикладів – операція США в Ірані. За даними іранських чиновників, унаслідок авіаударів в Ірані загинули понад 1300 цивільних, включно зі 175 дітьми, які загинули в школі для дівчат. Хоча розслідування триває, попередні дані вказують на те, що однією з причин ракетного удару по школі стали застарілі дані для націлювання, як зазначає NYT.

Тисячі людей зібралися на похороні в місті Мінaб в Ірані, де прощалися з дітьми, загиблими внаслідок удару по школі на півдні Ірану. Фото Getty Images
Курс на автономну зброю та небезпечні збої
Окрім аналізу цілей, Пентагон активно працює над створенням повністю автономної зброї, як повідомляє Bloomberg. Військові прагнуть інтегрувати ШІ безпосередньо в ударні дрони-камікадзе, що дозволить їм самостійно орієнтуватися, знаходити цілі та атакувати навіть у разі втрати зв’язку з командуванням.
З цією метою уряд США запустив програму Replicator, яка згодом була перейменована на DAWG. Її головна мета – швидке розгортання тисяч автономних безпілотників, які будуть готові до потенційного конфлікту з Китаєм щодо Тайваню вже до 2027 року.
Паралельно розробляються інші автономні системи, зокрема програма Goalkeeper зі створення баражуючих боєприпасів. Існує також секретний проєкт Whiplash, метою якого є перетворення сотень гідроциклів на озброєних бомбами морських роботів, зазначає Bloomberg.
Однак, ці технології залишаються нестабільними та потенційно небезпечними. Наприклад, під час випробувань у Каліфорнії влітку 2025 року сталася аварія, коли один з автономних військових катерів вийшов з-під контролю через помилку оператора. Робот почав хаотично рухатися на високій швидкості, ледь не перевернувши човен з людьми, повідомляє Bloomberg.
Такі технології залишаються вкрай нестабільними. Проблему безпеки автономних машин неможливо вирішити лише додаванням додаткових кнопок на пульт управління, підкреслює Bloomberg.
Попри поспіх, жодна велика мовна модель у її нинішньому вигляді не повинна розглядатися для використання в повністю автономній летальної системі озброєння, пише Bloomberg. «Надмірна залежність від них на даному етапі – це шлях до катастрофи», – попереджає Джек Шанахен, генерал-лейтенант у відставці та колишній керівник проєкту Maven.
