AI nie jest nieomylna. W wojsku ma swoją świetlaną przyszłość, ale tylko pod ludzkim nadzorem

2025-06-02 17:00

O sztucznej inteligencji (AI vel SI) mówi się wszędzie. Czasem jej algorytmy są wręcz mitologizowane, czasem niedoceniane. SI może znaleźć zastosowanie wszędzie. Wszystko zależy od potencjału algorytmów tworzących „sztuczniaki”. A wiadomo, że w wojsku sięga się po najlepsze rozwiązania. Są one używane lub w fazie testów. Albo są w obu fazach, co pokazali Ukraińcy niszcząc rosyjskie bazy lotnicze dronami wspomaganymi przez AI.

lotnictwo-sztuczna inteligencja

i

Autor: Adobe Firefly AI

W Wielkiej Brytanii zakończyły się testy AI zastosowanej do wspomagania obronności na lądzie, w morzu i powietrzu. Wspomnieć należy, że sporo o AI mówiono w Warszawie. Portal Obronny był organizatorem (26 maja) konferencji tematycznej: „Integracja zasobów cywilnych i wojskowych w doskonaleniu opieki medycznej w warunkach konfliktów i kryzysów: wsparcie technologiczne w obszarze leków, materiałów, sprzętu oraz sztucznej inteligencji. Gdzie jesteśmy, dokąd zmierzamy?”.

Pięć dni testowania AI na lądzie, w morzu i powietrzu

Wracamy do brytyjskich testów (Port of Portland, 25–30 maja). W komunikacie wielu szczegółów nie podano. Można dowiedzieć się z niego, że test dostarczył cennych danych do rozwoju i weryfikacji algorytmów SI i „wzmacnia pozycję Wielkiej Brytanii jako lidera innowacji obronnych”.

Królewskiej Marynarki Wojennej technologie SI poprawią nadzór morski, usprawnią wykrywanie zagrożeń w złożonych warunkach morskich oraz umożliwią szybsze podejmowanie decyzji podczas operacji morskich.

Królewskie Siły Powietrzne (RAF) skorzystają z zaawansowanych systemów rozpoznawania celów, które mogą jednocześnie przetwarzać informacje z wielu sensorów powietrznych, zmniejszając obciążenie poznawcze pilotów i umożliwiając skuteczniejsze działania powietrzne w trudnych warunkach.

Oprócz wojskowych w testach uczestniczyło 200 naukowców, a także przedstawiciele biznesu informatycznego. Obecni byli eksperci i wojskowi ze Stanów Zjednoczonych i Australii.

W komunikacie napisano: „W ciągu pięciu dni rejestrowano dane wizualne, w podczerwieni oraz radarowe z okrętów Królewskiej Marynarki Wojennej, pojazdów lądowych oraz załogowych i bezzałogowych statków powietrznych, działających w scenariuszach misji. Przełomowy test jest odpowiedzią na historyczne zobowiązanie premiera do zwiększenia wydatków na obronę do 2,5% PKB, co podkreśla kluczowe znaczenie gotowości militarnej w erze zwiększonej globalnej niepewności”.

Godne pochwały jest to, że w komunikacie podkreślono, że AI nie stworzono po to, by zastąpiła człowieka. „Wykorzystanie tych systemów SI ma na celu wspieranie, a nie zastępowanie, ludzkiego podejmowania decyzji w operacjach obronnych. Technologia ma zmniejszyć obciążenie poznawcze personelu wojskowego poprzez filtrowanie informacji i dostarczanie jaśniejszych danych wywiadowczych z pola walki”.

Garda: kmdr Witkiewicz o Orce
Portal Obronny SE Google News

Tylko w filmach SF sztuczna inteligencja jest idealna

Należy zauważyć, bo niektórzy w ferworze zauroczenia sztuczną inteligencją (i często wyolbrzymianymi jej możliwościami) zapominają, że AI/SI nie jest bezbłędna.

Owszem, AI potrafi szybciej wykrywać zagrożenia niż człowiek. Lepiej ocenia sytuację. Zmniejsza obciążenie pilotów, operatorów. Może precyzyjnie kierować, np. rakietami itd., itd., ale… W kontekście wojskowego zastosowania dokładność systemów AI oscyluje między 85 a ponad 99 proc., ale nigdy nie jest to dokładność 100-procentowa.

W filmach SF AI nie popełnia pomyłek. Kiedyś tak może i będzie.

Może dojść do błędów w rozpoznawaniu obrazów. Nawet najlepsze systemy rozpoznawania obrazów mają dokładność 95–99 proc. na testowych zbiorach danych. Jednak w realnych warunkach pola walki, których nie zdołano przewidzieć, dokładność ta może być znacząco obniżona.

Istnieje ryzyko fałszywych alarmów (false positives) i pominięć (false negatives). W systemach AI kluczowym problemem jest zrównoważenie między tymi dwoma typami błędów. Na przykład w zastosowaniach wojskowych fałszywy alarm może być nie tylko kosztowny, ale i – co gorsza – tragiczny.

AI uczy się na podstawie absorobowanych danych, więc jeśli dane treningowe są niepełne lub zniekształcone, system popełnia więcej błędów. Proste: system może posługiwać się błędnymi danymi, uznając, że podaje prawdziwe.

Z tego powodu eksperci podkreślają, że systemy AI w wojsku powinny być stosowane jako wsparcie decyzji człowieka, a nie ich zastępstwo, właśnie ze względu na ryzyko błędów.

Zagrożenie błędami decyzji AI nie jest hipotetyczne

Zdarzały się w realu. Jaki jest zakres tych pomyłek sztucznej inteligencji pracującej w obronności? Wojskowi tym nie chwalą się. Bywa, że pomyłki są tak znaczące, że nie da się ich ukryć. Oto kilka przykładów:

W 2019 r. armia amerykańska testowała autonomiczne drony wspomagane przez AI do rozpoznawania i eliminowania celów. Zdarzały się przypadki, gdy system błędnie rozpoznawał neutralne obiekty jako cele wroga, co mogło prowadzić do ataków na niewinne cele lub sojuszników. Skutkiem były przerwy w programie i wprowadzenie dodatkowego nadzoru ludzkiego.

W 2018 r. AI błędnie wykryła start rakiety w ćwiczeniach NATO, wywołując alarm gotowości.

Zdarzyło sie, co wyszło na jaw, że wykorzystywane przez armię systemy rozpoznawania twarzy oparte na AI popełniały błędy w identyfikacji, zwłaszcza w trudnych warunkach oświetleniowych lub przy zasłoniętych twarzach, co mogło prowadzić do pomyłek w identyfikacji sojuszników i cywilów jako przeciwników.

Reasumując: sztuczna inteligencja może zastąpić dziennikarza. Co najwyżej jej twórczość będzie gorszego gatunku od ludzkiej, choć są tacy, którzy twierdzą, że będzie odwrotnie. Sztuczna inteligencja w wojsku nie zastąpi człowieka, bo ten musi mieć kontrolę nad weryfikacją ich decyzji. Choć jak pokazują wymienione wyżej przykłady, nie zawsze człowiek w porę może powstrzymać AI od błędnego działania...

Sonda
Czy uważasz, że sztuczna inteligencja jest zagrożeniem dla człowieka?