26 maja odbyła się konferencja Portalu Obronnego w Hotelu Bellotto pt: „Integracja zasobów cywilnych i wojskowych w doskonaleniu opieki medycznej w warunkach konfliktów i kryzysów: wsparcie technologiczne w obszarze leków, materiałów, sprzętu oraz sztucznej inteligencji. Gdzie jesteśmy, dokąd zmierzamy?" Jednym z paneli był panel pt:"Nowe technologie i sztuczna inteligencja: społeczne, etyczne i prawne wyzwania współczesności" w którym wzięli udział:
- Prof. dr hab. n. hum. Paweł Łuków – Dziekan Wydziału Filozofii, Uniwersytet Warszawski
- Prof. dr hab. n. praw. Sławomir Żółtek – Dziekan Wydziału Prawa i Administracji, Uniwersytet Warszawski
- dr hab. n. med. i n. o zdr. Justyna Klingemann – Zakład Zdrowia Publicznego, WIM-PIB
- dr hab. n. praw. Aneta Łazarska, prof. ucz. – Kierownik Katedry Prawa i Postępowania Cywilnego, Uczelnia Łazarskiego, Sędzia Sądu Okręgowego w Warszawie
- płk dr n. med. Radosław Tworus – kierownik Kliniki Psychiatrii i Stresu Bojowego, WIM-PIB
Moderatorką panelu była Ewelina Celejewska, Business Unit Director obszaru Zdrowie, Grupa ZPR Media
Przed rozpoczęciem się samego panelu płk dr n. med. Radosław Tworus poprowadził wykład wprowadzający, którego początek oparł o adaptacje Star Wars, pan pułkownik dla lepszego zobrazowania znaczenia nowych technologi i sztucznej inteligencji jako systemy, które były i są cały czas wokół nas. Wszystkie rzeczy codziennego użytku jak AGD, telefony czy komputery.
Wszystkie te rzeczy codziennego użytku zawierają dane, które muszą być chronione. Jednak tego typu sytuacja tyczy się również specjalistycznych systemów jak systemy bankowe, banki haseł, systemy ochrony zdrowia lub systemy zarządzania ruchem ulicznym. Ten typ systemów jest strategicznie ważny dla społeczeństwa, ponieważ to w nich są najwrażliwsze dane, od których zależy ludzki byt lub nawet życie. Systemy te są w coraz większym stopniu opierane o zaawansowane systemy sztucznej inteligencji. Jest to niewątpliwie szansa rozwoju jednak pułkownik Tworus, również zaznaczył kwestie zagrożeń z nią związanych.
Prof. dr hab. n. hum. Paweł Łuków – Dziekan Wydziału Filozofii, Uniwersytet Warszawski powiedział:
"Trzeba się zastanowić czy omawiane technologię, mają rzeczywiście te właściwości, które im przypisujemy. Jeśli chodzi o całą sferę zagrożeń w świecie cyfrowym, to z pewności odbiega on od tego, czego byśmy oczekiwali jeszcze pięć lub dziesięć lat temu. Kluczowa rzecz, jaką widać jest to, że tego rodzaju rozwiązania technologiczne odtwarzają to co myśmy już wcześniej robili. Wobec tego wydaje się, że pewne standardy, będą wbudowane w te rozwiązania, z chwilą kiedy te algorytmy są uczone, na określonym materiale, w którym zawarte są pewne standardy. Pytanie dotyczy tego, czy my we właściwy sposób tego rodzaju rozwiązania tworzymy, czy za mało nie wbudowujemy mechanizmów samokontrolnych, wtedy będzie pytanie, wedle jakich standardów będziemy te mechanizmy tworzyli. Mam już pewne wypracowane system w tej dziedzinie, ale zazwyczaj są one pod bezpośrednią kontrolą człowieka."
Następnie głos zabrała dr hab. n. praw. Aneta Łazarska, prof. ucz. – Kierownik Katedry Prawa i Postępowania Cywilnego, Uczelnia Łazarskiego, Sędzia Sądu Okręgowego w Warszawie, jak powiedziała pani profesor:
"Wydaje mi się, że warto, abyśmy wszyscy sobie uświadomili, że naprawdę przechodzimy pewien proces transformacji, jako społeczeństwo w społeczeństwo nowych technologii, a także epoki cyfrowej. Muszę powiedzieć, że ja sobie to dopiero całkiem niedawno uświadomiłam, mimo że też przeszłam cały proces pandemii, kiedy nagle m.in. sądy musiały przejść w inny tryb funkcjonowania w postaci, chociażby zdalnych rozpraw, które zrewolucjonizowały sądownictwo w znacznym stopniu. W sądach zmiany są zazwyczaj powolne i podchodzą bardzo konserwatywnie do takich zmian. Dopiero niedawno sobie uświadomiłam ten proces transformacji, w którym my wszyscy się znajdujemy i jednocześnie niedostatki zarówno samego prawa jak i edukacji społecznej, jeśli chodzi o kwestie nauczenia nas wszystkich umiejętności cyfrowych, aby się nie bać nowych technologii."
płk dr n. med. Radosław Tworus – kierownik Kliniki Psychiatrii i Stresu Bojowego, WIM-PIB powiedział:
"W medycynie jest trochę jak w ruchu drogowym, powinna obowiązywać zasada ograniczonego zaufania i powinno się wszystko dokładnie sprawdzać. Lekarze na chwilę obecną są przygotowani na wyzwanie związane ze sztuczną inteligencją. Operując pacjenta chirurg, musi wiedzieć, że nie wszystko w tym brzuchu lub klatce piersiowej jest tak jak, pokazuj atlas czy jak nas tego uczono na studiach. Sytuacja mu być dostosowana do rzeczywistości. Kiedy chirurg będzie wychodził z założenie, że wszystkie nerwy i organy przebiegają tak, jak to pokazują książki, na pewno popełni błąd, więc to zaufanie musi być ograniczone. Obecnie mamy coraz więcej takich sytuacji, że musimy zdać się na elektronikę oraz na sprzęt, ponieważ sami mamy tego czasu coraz mniej. Tempo naszego życia, wielozadaniowość, konieczność wprowadzania szybkich rozwiązań, często w takich zdarzeniach, chociażby jak wojna, kiedy zachorowalność bądź urazowość będzie ogromna, będziemy musieli się takimi technikami posługiwać. Pytanie, kiedy nas one oszukają oraz w jakim stopniu. Dzieci również, powinniśmy uczyć prawidłowych zachowań, okazuje się jednak, że nie zawsze nam to wychodzi i nic nie robimy, żeby nam to wyszło, więc dzieciom również potrafimy przekazać te patologiczne rozwiązania."
Dr hab. n. praw. Aneta Łazarska, prof. ucz. – Kierownik Katedry Prawa i Postępowania Cywilnego, Uczelnia Łazarskiego, Sędzia Sądu Okręgowego w Warszawie powiedziała:
"Myśląc o tych kwestiach, warto rozważyć również rozważyć takie decyzje, przy których stanęliśmy. Jeśli sztuczna inteligencja zacznie sczytywać sensory biomedyczne i podejmować decyzję czy ratować żołnierza z pola walki, jest to też kwestia wartości i pytanie, jakie decyzję będzie podejmować i na jakich wartościach te decyzje będą budowane. Tu wchodzi też kwestia wartości i tego, na jakie pytania i na jakich wartościach te decyzje będą budowane, jest niezwykle kluczowa i ta, kwestia etyczna będzie wychodziła na pierwszy plan, czy ważniejsze będzie życie oficera, czy ważniejsze będzie życie żołnierza, ile żyć żołnierzy będzie potrzebnych, aby przeważyć życie oficera czy generała. Można się także zastanawiać czy pierwszym terytorium w kwestii ratowania żołnierzy będzie to gdzie, bardziej opłaca się prowadzić działania wojenne".
Prof. dr hab. n. praw. Sławomir Żółtek – Dziekan Wydziału Prawa i Administracji, Uniwersytet Warszawski powiedział:
"Nowoczesność to nie jest tylko sztuczna inteligencja, to są jedynie programy komputerowe. Nowoczesność to jest także robotyka, która bardzo poważnie wchodzi do naszego życia i bardzo mocno zagnieździła się w medycynie, a jest to dopiero początek. Jest to dobry początek duże pieniądze i dlatego tam robotyka występuje, ale ta robotyka będzie wchodziła coraz poważniej do naszego życia i za 30-40 lat zobaczycie państwo, że to, co będziemy mieli w domach my czy nasze dzieci będzie daleko odstawało od tego, co w tych domach mamy teraz. Dlaczego o tym mówię? Dlatego, że te wszystkie nasze lęki, które wiążą się czy to ze sztuczną inteligencją, czy z robotyką lub z innymi zaawansowanymi programami, jak na przykład z programami opartymi na blockchain, z całymi kryptowalutami i tak dalej, to dotyczy trochę tego, że te wszystkie elementy przejmują pewne fazy, które były zarezerwowane tylko dla człowieka, zakresy naszych zadań, które tylko my byliśmy w stanie robić. Teraz już tak powoli przestaje być. W tej chwili zaczynają nas wyręczać inne urządzenia czy programy. Stąd pojawiają się nasze obawy i pytania o odpowiedzialność. Kto jak, po co i dlaczego."
"Chciałbym natomiast zwrócić uwagę na inny problem, którym jest wykluczenie, ponieważ to nie jest tak, że wszyscy tak chętnie siadają do Chata GPT i go używają. Ja jako prawnik i wykładowca akademicki go używam. Natomiast gwarantuje państwu, że pomiędzy mną, prawnikiem używającym tego narzędzia, który wie jak go promptować, a ludźmi, którzy go nie używają, jest przepaść w postaci ilości, szybkości i jakości. Ja używając tego narzędzia, pracuję znacznie szybciej oraz efektywniej i jako prawnik z określoną wiedzą jestem w stanie ocenić, czy to narzędzie daje mi rezultaty, które są poprawne, czy nie, bo ja tę wiedzę po prostu posiadam.
