Wojsko czy cywile: kto będzie kreował rozwój sztucznej inteligencji? "Człowiek ma wpływ na ten proces uczenia"

2024-05-25 5:08

– Chcę wierzyć, że będzie to świat cywilny poparty badaniami naukowymi. Chcę w to bardzo wierzyć, aczkolwiek ostatnie loty F-16 i wypowiedzi amerykańskiego generała, który stwierdził, że nie zawahałby się już powierzyć użycia broni przez AI, która pilotowała samolot, są trochę niepokojące. Jest szansa, że sztucznej inteligencji nie wykorzystają terroryści. W najbliższym czasie – uważa Mariusz Czarnecki, CEO Vaibro; ekspert ds. cyberbezpieczeństwa i sztucznej inteligencji, w rozmowie z Portalem Obronnym.

Mariusz Czarnecki, Vaibro.AI

i

Autor: ARC. PRV.

„Portal Obronny”: – Zachwycamy się AI lub – jak kto woli – SI. Nie wiem, czy jest się z czego cieszyć, jeśli w którychś tam amerykańskich grach wojennych, gdzie dopuszczono SI, ta sięgnęła po broń jądrową. I było po sprawie...

Mariusz Czarnecki: – Słyszałem o tym wydarzeniu. Wszystko zależy od tego, ile w SI mamy pierwiastka, który ma chronić ludzi. Jeśli „wtłoczymy” w SI odpowiednie zasady moralne, to będzie ona postępować moralnie. Inaczej: system musi otrzymać odpowiednią ilość danych. Nie sądzę, żeby w zastosowaniach militarnych uczenie sztucznej inteligencji przebiegało na zasadzie: bądź bardziej moralny i nie wykorzystaj każdej broni, dzięki której możesz pokonać przeciwnika, odnieść sukces. Jeśli podamy dla SI, że jednym z kryteriów jej funkcjonowania, ma być odniesienie sukcesu, to sięgnie po wszelkie możliwości, które pozwolą jej wygrać i nie będzie zważać na aspekty moralne takiego działania.

– Armia izraelska „zaangażować” miała SI w kierowanie nalotami na Strefę Gazy. Chyba ta inteligencja była za mało moralna, bo dużo ofiar było wśród cywili...

– Nie wiem, nie umiem się do tego odnieść jednoznacznie, bo to są zasłyszane informacje. Jest mnóstwo publikacji w tym temacie, ale to są niepotwierdzone informacje. Z tego co mnie jest wiadomo, to sprawa zastosowania AI w kierowaniu izraelskim bombami jest badana przez Stany Zjednoczone.

– Rozumiem, ale sztuczna inteligencja – jesteśmy raczej zgodni co do tego – będzie taka, jaką ją zaprogramuje człowiek i niekoniecznie naładuje SI danymi o moralności...

– Ważne jest na podstawie jakich danych będzie się szkolić, uczyć i jak będzie nagradzana za prawidłowe decyzje? Czyli: to my tak naprawdę mamy wpływ na to, w jaki sposób sztuczna inteligencja będzie wnioskować i w jaki sposób będzie się zachowywać, jeśli odpowiednio w procesie uczenia będziemy nagradzali określone zachowania.

– To znaczy, że...

– Człowiek ma wpływ na ten proces uczenia. Po pierwsze: jest źródłem danych, którymi ten proces zasili. Po drugie: poprzez nagrody. To jest tzw. uczenie maszynowe z nagrodami.

Raport - Michał Prokopowicz - Człowiek czy robot? Sztuczna inteligencja zawładnie światem!

– To jest ta pozytywna strona rzeczywistości. Deepfake i różne inne fałszywki kreowane przez sztuczną inteligencję, to druga strona, ta ciemna strona, oblicza SI.

– Tak, mamy w tej chwili w internecie wysyp wszelkiego rodzaju niezweryfikowanych informacji. Dlaczego? A dlatego że obecnie poziom rozwoju sztucznej inteligencji, to jest tak naprawdę poziomem asystenta. Czyli kogoś, który może nam dostarczyć pewnego rodzaju informacje, ale informacje te wymagają zweryfikowania. Natomiast powszechny dostęp do tych algorytmów sprawił, że nastąpiła pewna degradacja danych w publicznie dostępnych źródłach, ale to taki mechanizm samonakręcający się.

AI generuje nam pewne teksty i konfabuluje. I to jest takie zupełnie nieznane zjawisko konfabulacji, czyli domyśla się, dokreowuje to, czego nie wie, czego nie jest w stanie wywnioskować. Ktoś tego nie weryfikuje i umieszcza, publikuje to w sieci, stając się dostawcą kolejnych danych do procesu uczenia, więc kolejne procesy uczenia przebiegają na już coraz bardziej zdegradowanych danych. Dlatego tak ważnym jest, żeby AI wzorowało się na danych, które są rzetelne, sprawdzone i mają zweryfikowane pochodzenie.

– Jasne, jeśli jednak te dane będzie dostarczały tzw. służby państwa X dla zdyskredytowania przeciwnika politycznego, no to mamy wykreowaną trochę już inną rzeczywistość. Większego kalibru od „prywatnie” sfejkowanego prezydenta Dudy wulgarnie przeklinającego...

– Tu mówimy też o algorytmach, które potrafią imitować mowę człowieka, potrafią imitować mimikę twarzy. Takie fałszywki są popularne i są szeroko dostępne i jest coraz trudniejsze ich odróżnienie od prawdziwych nagrań i prawdziwych wypowiedzi. Sądzę, że generowanie takich „głębokich fałszerstw” będzie w najbliższej przyszłości sporym problemem. Jak rozstrzygnąć jednoznacznie czy to jest deepfake, czy to jest coś prawdziwego?

– A to ta słynna sztuczna inteligencja nie może zdemaskować jakiegoś przekazu, że to zostało wykreowane fałszywie przez inną sztuczną inteligencję?

– Właśnie jest to taki proces, który w tej chwili postępuje: „sztuczna inteligencja kontra sztuczna inteligencja”, czyli jedne algorytmy generują pewnego rodzaju dane, a drugie próbują odgadnąć, że to, co zostało wygenerowane i to, co zostało dostarczone, to stworzyła sztuczna inteligencja. W testach, które prowadziliśmy wychodzi, że tym sposobem można wykryć ok. 54 proc. takich kreacji. Być może jeszcze nie stosowaliśmy właściwych algorytmów i być może są już obecnie doskonalsze.

– Jak na razie to mierny wynik, jak rzut monetą. Czasem służby specjalne nie dysponują bardziej precyzyjnymi narzędziami?

– Być może mają takie. Od „zawsze” służby specjalne miały i mają dostęp do nowszych technologii niż te, które są w cywilnych zastosowaniach

– I się tym nie chwalą. OK. A jeśliby rozwój SI porównać do rozwoju przemysłowego świata, to z czym? Z epoką żelaza, pary, komputeryzacji?

– Nie zastanawiałem się nad takim porównaniem, ale... Myślę, że jesteśmy gdzieś na etapie trzeciej rewolucji przemysłowej. Natomiast postęp rozwoju wykładniczy, a postęp rozwoju między trzecią a czwartą generacją przemysłu, czyli przemysłem 4.0, to było okres kilkudziesięciu lat. Teraz rozwój AI będziemy mierzyć nie w latach, tylko raczej w miesiącach. Dochodzę do takiego wniosku obserwując to, jak szybko rozwijają się mechanizmy i jak szybko rozwijają się algorytmy samouczące oparte o tzw. deep learning.

– Najczęściej było tak, że technika wojskowa wyprzedzała technikę cywilną. To, co wojsko wymyśliło później przechodziło do zastosowań cywilnych. Kto będzie kreował rzeczywistość SI? Świat cywilny czy militarny?

– Chcę wierzyć, że będzie to świat cywilny poparty badaniami naukowymi. Chcę w to bardzo wierzyć, aczkolwiek ostatnie loty F-16 i wypowiedzi amerykańskiego generała, który stwierdził, że nie zawahałby się już powierzyć użycia broni przez AI, która pilotowała samolot, są trochę niepokojące.

– Skoro mowa o tym co niepokoi. Jeśli można złamać zabezpieczenia informatyczne Pentagonu, to czy nie można zawładnąć SI dla uzyskania celów terrorystycznych?

– To jest realne zagrożenie, dlatego że nie ma 100-procentowych zabezpieczeń. A dlatego ich nie ma, bo z reguły najsłabszym ogniwem w całości okazuje się być człowiek, który gdzieś zawiódł na tym etapie zabezpieczeń. Natomiast jeśli pomyślimy o tym, że AI też będzie systemem, który będzie zabezpieczał dostęp do AI, które mają być chronione dokładnie tak samo jak militarne jednostki mające dostęp do broni atomowej, z tym samym poziomem zabezpieczeń, no to jest szansa, że nie dostanie się to w ręce terrorystów. W najbliższym czasie. Rozwój sztucznej inteligencji jest tak szybki i powszechność technologii jest tak dostępna, łącznie z mocami obliczeniowymi, że mając odpowiednie fundusze, to wytworzenie tego typu algorytmów, które będą w stanie być nieprzyjazne dla człowieka, jest kwestią czasu...

Sonda
Czy sztuczna inteligencja jest groźna?