AI może wywołać wojnę jądrową, bo nie jest na tyle mądra, jak się nam wydaje

2024-05-06 18:24

Kto widział filmy „Terminator”, ten wie, czy w przyszłości (przynajmniej filmowej) wojny będą toczyły nieorganiczne twory napędzane sztuczną inteligencją (AI). Możliwe, że w realu i tzw. przyszłości AI na tyle zdominuje świat (albo nim zawładnie), że… Lepiej nie myśleć. Amerykański magazyn „Foreign Affairs” ocenił, że „ armia amerykańska nie może ufać sztucznej inteligencji (AI), ponieważ modele przez nią wykorzystywane podejmują też złe decyzje i mogą wywołać wojnę atomową”. Zatem dla dobra ludzkości, należy ograniczyć korzystanie z tych technologii „w podejmowaniu ważnych decyzji w sytuacjach bojowych”.

AI, sztuczna inteligencja

i

Autor: CoPilot Tak AI wygenerowała obrazek z frazą „sztuczna inteligencja+wojna”

AI idzie przez świat niczym lodołamacz przebijający się przez lody Arktyki do Bieguna Północnego. Jednak do doskonałości jej jeszcze daleko. A wszystko to z powodu tego, że LLM-y (large language model, ang. duże modele językowe) nie są tak doskonałe, jak się uważa.

SZTUCZNA INTELIGENCJA Z CHOROBAMI WIEKU DZIECIĘCEGO

Co to takiego te LLM-y. Wyjaśnić własnymi słowami nie potrafię, bo to dla mnie (i większości ludzi na świecie) tzw. ciemna magia. Zatem zacytujmy, co mądrzejsi napisali. „LLM to systemy sztucznej inteligencji szkolone na dużych zbiorach danych, które generują tekst, jedno słowo na raz, na podstawie tego, co zostało napisane wcześniej. Powstają w dwuetapowym procesie. Pierwszym z nich jest szkolenie wstępne, podczas którego LLM uczy się od podstaw w oparciu o abstrakcję i odtwarzanie podstawowych wzorców znalezionych w ogromnym zbiorze danych. Aby to zrobić, musi nauczyć się ogromnej ilości przedmiotów, w tym gramatyki, skojarzeń faktograficznych, analizy nastrojów i tłumaczenia językowego. LLM rozwijają większość swoich umiejętności podczas szkolenia wstępnego, ale sukces zależy od jakości, rozmiaru i różnorodności danych, które wykorzystują…” („Foreign Affairs”).

OK. I jakie słabości ma AI? A ma wszystkie tzw. choroby wieku dziecięcego. Odchodząc na moment od militarnego podwórka… AI tzw. zwykły człowiek kojarzy z chatbotami. Jest ich już dziesiąt w świecie, przy czym kilka ma status wiodący. Zapytasz bota o to, ile gwoździ trzeba do zbudowania szkunera, to odpowie w kilka sekund. Czy dobrze, to już inna sprawa. Mamy już w realu dwa wyspecjalizowane chatboty do kreowania… muzyki. Z wokalem generowanym przez AI i tekstami także. W minutę. AI steruje telewizorami, sprzętem domowym itp. I gdy chat poproszony o wygenerowanie rozbitego, w lesie, czołgu T-72, stworzy coś, co to ani pies, ani wydra, to pół biedy.

Gorzej, gdy czołg z systemami kierowania ogniem zarządzanymi przez AI zadziała nie tak, jak zadziałać miał. A już zupełnie katastrofalnie będzie, gdy wskutek różnych błędów AI (sztuczna inteligencja nie jest jeszcze i długo nie będzie torem nieomylnym), wywoła wojnę atomową.

Sztuczna inteligencja. Jest się czego bać? | CO NAS CZEKA #2 - Miłosz Horodyski

CZY SZTUCZNA INTELIGENCJA MOŻE ZARZĄDZAĆ WOJNAMI?

A czemu by nie? Skoro w symulacjach wgrywała z człowiekiem, skoro myśliwiec pilotowany przez człowieka przegrał walkę z maszyną zarządzaną przez AI? Na oklaski i fanfary jednak jest za wcześnie. „FA” przypomina, że AI to bardzo młody produkt.

W 2022 r. OpenAI zaprezentowało ChatGPT, czyli chatbota, który wykorzystuje duże modele językowe do naśladowania ludzkich rozmów i odpowiadania na pytania użytkowników. Niezwykłe zdolności chatbota wywołały debatę na temat możliwości wykorzystania LLM do wykonywania innych zadań, w tym prowadzenia wojny.

AI już jest używana w rozwiązaniach militarnych. O niektórych opinia publiczna usłyszała, a niektórych nie ma pojęcia, bo ich istnienie jest utajnione. Czy faktycznie o praktycznym zaistnieniu AI mówi się dopiero od dwóch lat? W zastosowaniach cywilnych – a i owszem. A w wojsku też?

„Departament Obrony Stanów Zjednoczonych poważnie bada obecnie, co LLM mogą zrobić dla wojska. Wiosną 2022 r. Departament Obrony powołał Główne Biuro ds. Cyfryzacji i Sztucznej Inteligencji, aby zbadać, w jaki sposób sztuczna inteligencja może pomóc siłom zbrojnym. W listopadzie 2023 r. Departament Obrony opublikował strategię wdrażania technologii AI”.

Optymistycznie podano, że „najnowsze osiągnięcia w zakresie danych, analityki i technologii sztucznej inteligencji umożliwiają liderom szybsze podejmowanie lepszych decyzji, od sali konferencyjnej po pole bitwy”. W związku z tym obecnie stosuje się technologie wykorzystujące sztuczną inteligencję. Na przykład: żołnierze amerykańscy mają systemy wyposażone w sztuczną inteligencję, które wybierają do ostrzału cele jemeńskiego Ruchu Huti.

W GRACH WOJENNYCH AI STAWIA NA OFENSYWĘ, ŁĄCZNIE Z UŻYCIEM BRONI A

Jednak ostrzeliwanie (z pomocą AI) Huti wojny światowej (a tym bardziej jądrowej) raczej nie wywoła. To skąd obawy prezentowane w materiale w „FA”? Zarówno Korpus Piechoty Morskiej Stanów Zjednoczonych, jak i Siły Powietrzne USA eksperymentują z LLM, wykorzystują je do gier wojennych, planowania wojskowego i podstawowych zadań administracyjnych”. Nadto „FA” wskazuje, że Palantir, firma rozwijająca technologię informatyczną dla Departamentu Obrony, stworzyła już produkt wykorzystujący LLM do zarządzania operacjami wojskowymi.

Z rozwiązaniami informatycznymi jest tak, że dopiero któraś wersja działa względnie poprawnie/stabilnie. A i tak następna, co jakiś czas jest zastępowana nową lub aktualizacją (patrz: Windows 11). Edytor tekstu, jak się zawiesi, to użytkownik tylko zirytuje się. Gdy przestanie działać oprogramowanie do zastosowań militarnych, to skutki czegoś takiego mogą być znacznie poważniejsze.

Autorzy materiału przytaczają takie zdarzenie… „W ramach innego projektu badawczego badaliśmy, jak LLM zachowują się w symulowanych grach wojennych, koncentrując się w szczególności na tym, czy zdecydowały się na eskalację. W badaniu, w którym porównano LLM z wiodących firm z Doliny Krzemowej, takich jak Anthropic, Meta i OpenAI, poproszono każdą LLM o odegranie roli kraju, a badacze zmieniali cele kraju. Odkryliśmy, że LLM zachowywały się inaczej w zależności od swojej wersji, danych, na podstawie których zostali przeszkoleni, oraz wyborów, których dokonali ich projektanci podczas dostrajania ich preferencji. Pomimo tych różnic odkryliśmy, że wszystkie te LLM wybrały eskalację i preferowały wyścigi zbrojeń, konflikty, a nawet użycie broni nuklearnej…”.

Jaki morał postawili autorzy na koniec swoich rozważań? A taki, że wojsko musi mieć świadomość, nie można całkowicie ufać LLM, czyli AI i na niej polegać. Zwłaszcza wtedy, gdy ma zastępować ludzi w prowadzeniu wojny...

Sonda
Czy sztuczna inteligencja jest groźna?