W Wielkiej Brytanii zakończyły się testy AI zastosowanej do wspomagania obronności na lądzie, w morzu i powietrzu. Wspomnieć należy, że sporo o AI mówiono w Warszawie. Portal Obronny był organizatorem (26 maja) konferencji tematycznej: „Integracja zasobów cywilnych i wojskowych w doskonaleniu opieki medycznej w warunkach konfliktów i kryzysów: wsparcie technologiczne w obszarze leków, materiałów, sprzętu oraz sztucznej inteligencji. Gdzie jesteśmy, dokąd zmierzamy?”.
Pięć dni testowania AI na lądzie, w morzu i powietrzu
Wracamy do brytyjskich testów (Port of Portland, 25–30 maja). W komunikacie wielu szczegółów nie podano. Można dowiedzieć się z niego, że test dostarczył cennych danych do rozwoju i weryfikacji algorytmów SI i „wzmacnia pozycję Wielkiej Brytanii jako lidera innowacji obronnych”.
Królewskiej Marynarki Wojennej technologie SI poprawią nadzór morski, usprawnią wykrywanie zagrożeń w złożonych warunkach morskich oraz umożliwią szybsze podejmowanie decyzji podczas operacji morskich.
Królewskie Siły Powietrzne (RAF) skorzystają z zaawansowanych systemów rozpoznawania celów, które mogą jednocześnie przetwarzać informacje z wielu sensorów powietrznych, zmniejszając obciążenie poznawcze pilotów i umożliwiając skuteczniejsze działania powietrzne w trudnych warunkach.
Oprócz wojskowych w testach uczestniczyło 200 naukowców, a także przedstawiciele biznesu informatycznego. Obecni byli eksperci i wojskowi ze Stanów Zjednoczonych i Australii.
W komunikacie napisano: „W ciągu pięciu dni rejestrowano dane wizualne, w podczerwieni oraz radarowe z okrętów Królewskiej Marynarki Wojennej, pojazdów lądowych oraz załogowych i bezzałogowych statków powietrznych, działających w scenariuszach misji. Przełomowy test jest odpowiedzią na historyczne zobowiązanie premiera do zwiększenia wydatków na obronę do 2,5% PKB, co podkreśla kluczowe znaczenie gotowości militarnej w erze zwiększonej globalnej niepewności”.
Godne pochwały jest to, że w komunikacie podkreślono, że AI nie stworzono po to, by zastąpiła człowieka. „Wykorzystanie tych systemów SI ma na celu wspieranie, a nie zastępowanie, ludzkiego podejmowania decyzji w operacjach obronnych. Technologia ma zmniejszyć obciążenie poznawcze personelu wojskowego poprzez filtrowanie informacji i dostarczanie jaśniejszych danych wywiadowczych z pola walki”.

Tylko w filmach SF sztuczna inteligencja jest idealna
Należy zauważyć, bo niektórzy w ferworze zauroczenia sztuczną inteligencją (i często wyolbrzymianymi jej możliwościami) zapominają, że AI/SI nie jest bezbłędna.
Owszem, AI potrafi szybciej wykrywać zagrożenia niż człowiek. Lepiej ocenia sytuację. Zmniejsza obciążenie pilotów, operatorów. Może precyzyjnie kierować, np. rakietami itd., itd., ale… W kontekście wojskowego zastosowania dokładność systemów AI oscyluje między 85 a ponad 99 proc., ale nigdy nie jest to dokładność 100-procentowa.
W filmach SF AI nie popełnia pomyłek. Kiedyś tak może i będzie.
Może dojść do błędów w rozpoznawaniu obrazów. Nawet najlepsze systemy rozpoznawania obrazów mają dokładność 95–99 proc. na testowych zbiorach danych. Jednak w realnych warunkach pola walki, których nie zdołano przewidzieć, dokładność ta może być znacząco obniżona.
Istnieje ryzyko fałszywych alarmów (false positives) i pominięć (false negatives). W systemach AI kluczowym problemem jest zrównoważenie między tymi dwoma typami błędów. Na przykład w zastosowaniach wojskowych fałszywy alarm może być nie tylko kosztowny, ale i – co gorsza – tragiczny.
AI uczy się na podstawie absorobowanych danych, więc jeśli dane treningowe są niepełne lub zniekształcone, system popełnia więcej błędów. Proste: system może posługiwać się błędnymi danymi, uznając, że podaje prawdziwe.
Z tego powodu eksperci podkreślają, że systemy AI w wojsku powinny być stosowane jako wsparcie decyzji człowieka, a nie ich zastępstwo, właśnie ze względu na ryzyko błędów.
Zagrożenie błędami decyzji AI nie jest hipotetyczne
Zdarzały się w realu. Jaki jest zakres tych pomyłek sztucznej inteligencji pracującej w obronności? Wojskowi tym nie chwalą się. Bywa, że pomyłki są tak znaczące, że nie da się ich ukryć. Oto kilka przykładów:
W 2019 r. armia amerykańska testowała autonomiczne drony wspomagane przez AI do rozpoznawania i eliminowania celów. Zdarzały się przypadki, gdy system błędnie rozpoznawał neutralne obiekty jako cele wroga, co mogło prowadzić do ataków na niewinne cele lub sojuszników. Skutkiem były przerwy w programie i wprowadzenie dodatkowego nadzoru ludzkiego.
W 2018 r. AI błędnie wykryła start rakiety w ćwiczeniach NATO, wywołując alarm gotowości.
Zdarzyło sie, co wyszło na jaw, że wykorzystywane przez armię systemy rozpoznawania twarzy oparte na AI popełniały błędy w identyfikacji, zwłaszcza w trudnych warunkach oświetleniowych lub przy zasłoniętych twarzach, co mogło prowadzić do pomyłek w identyfikacji sojuszników i cywilów jako przeciwników.
Reasumując: sztuczna inteligencja może zastąpić dziennikarza. Co najwyżej jej twórczość będzie gorszego gatunku od ludzkiej, choć są tacy, którzy twierdzą, że będzie odwrotnie. Sztuczna inteligencja w wojsku nie zastąpi człowieka, bo ten musi mieć kontrolę nad weryfikacją ich decyzji. Choć jak pokazują wymienione wyżej przykłady, nie zawsze człowiek w porę może powstrzymać AI od błędnego działania...