Do jakich dylematów moralnych prowadzi korzystanie ze sztucznej inteligencji? Odpowiada o. Janusz Pyda OP

GN 12/2023

publikacja 23.03.2023 00:00

O dylematach moralnych związanych z działaniem sztucznej inteligencji mówi o. Janusz Pyda, dominikanin.

Do jakich dylematów moralnych prowadzi korzystanie ze sztucznej inteligencji? Odpowiada o. Janusz Pyda OP O. Janusz Pyda OP Tomasz Gołąb /Foto Gość

Jakub Jałowiczor: Ksiądz podczas homilii pyta wiernych, czy przebaczyli wrogom. Starsza pani zgłasza się i mówi, że nie ma żadnych wrogów. „Jak to możliwe?” – dopytuje kapłan. „Przeżyłam wszystkich dziadów” – odpowiada babcia. Zna ojciec ten dowcip?

O. Janusz Pyda OP:
Nie.

Platforma sztucznej inteligencji zwana ChatGPT stworzyła go dla CNA, amerykańskiego katolickiego portalu. Dziennikarze poprosili to narzędzie o napisanie żartu i po paru próbach wyszło coś takiego. O sakramenty nie pytam, bo sprawa jest jasna, jednak wyobraża sobie Ojciec, że za jakiś czas, zamiast pisać homilię, będzie można wrzucić do komputera czytanie z dnia i ewentualnie fragmenty z pism ojców Kościoła, a reszta zrobi się sama?

To już jest możliwe. Wielu wiernych nie dostrzegłoby, że tekst został wygenerowany przez algorytm. Dotyczy to nie tylko homilii. Mógłbym panu zadać pytanie, czy wyobraża sobie, że artykuł do „Gościa” jest generowany przez SI – i proszę mi wierzyć, to jest możliwe. Teksty takie będą sztampowe, odtwórcze, ale ich stworzenie jest wykonalne. Z czego to wynika? W internecie jest całe Pismo Święte, znajdziemy też ogromną bazę homilii różnego typu, a algorytmy SI mogą to kompilować. Sztuczna inteligencja robi to na tyle inteligentnie, że człowiek może tego nie zauważyć.

Czyli po rewolucji przemysłowej, a później komputeryzacji ludzie przestaną być potrzebni na kolejnym odcinku, tym razem w zawodach wymagających kreatywności?

W tych pracach, które wymagają prawdziwej kreatywności – nie sądzę. SI na pewno nie napisze odkrywczego, ciekawego i głębokiego eseju na jakiś temat. Natomiast może kompilować notatki prasowe, newsy, horoskopy. Choć broń tę wygenerowali informatycy, i oni są zagrożeni. Sztuczna inteligencja może pisać bowiem kody na podstawowym poziomie.

Czy jest w tym jakiś dylemat moralny? W końcu koparka też odbiera pracę ludziom.

To prawda. Może zabrzmi to dziwnie, ale dylemat moralny z SI nie polega na tym, iż zastąpi ona w pracy niektórych ludzi. Wówczas nawet wynalezienie koła czy udomowienie konia musielibyśmy uznać za moralnie nader wątpliwe. Przy generowaniu np. tekstów za pomocą SI poważniejszym zagadnieniem jest chociażby kwestia praw autorskich. System SI, który wytwarza tekst prasowy, robi plagiat, tylko wykonany tak, że problem ten nie będzie podpadał pod definicje prawne. SI jest w jakimś sensie pasożytem na ludzkiej twórczości. Rewolucja, o którą pan pyta, dała się nam we znaki, kiedy firma Open AI wypuściła dwa systemy: ChatGPT, do tworzenia tekstów, i Dall-E, gdzie za pomocą słów można stworzyć obraz. Wpisuję w algorytm „słoneczniki” i program je wygeneruje. Prawdopodobnie jedną z propozycji będzie przedstawienie kwiatów na modłę ekspresjonistyczną, jak u van Gogha. Ale gdyby SI funkcjonowała przed van Goghiem i miała dostęp do wszystkich obrazów słoneczników, jakie wcześniej istniały, to na pewno nie stworzyłaby „Słoneczników” van Gogha. Pracowałaby na tym, co już było. W tym sensie malarz jest nie do zastąpienia.

Ale jeśli mamy do czynienia z urządzeniem, które wyciąga wnioski z danych oraz z własnych wniosków – nie wiadomo, ile może być tych poziomów – to może dojdziemy do tego, że systemy zwane SI będą w naszym rozumieniu tworzyć, nie tylko kompilować.

To bardzo dobre pytanie. Nawet jeśli algorytm jest samozwrotny, czyli odnosi się do tego, co sam generuje, to tak czy inaczej nie jest w stanie wygenerować niczego nowego. Wiąże się to poniekąd ze słynnym problemem nierozstrzygalności Alana Turinga: nawet teoretycznie nie jesteśmy w stanie stworzyć sztucznej sieci neuronowej, która sama sobie powiedziałaby: stop. Ale też nie potrafimy stworzyć takiej sieci, która wygenerowałaby coś więcej niż kompilacja. Nie widać, żeby tę granicę dało się przekroczyć. Romantycy powiedzieliby: mieliśmy rację, w prawdziwej twórczości chodzi o coś, co można nazwać talentem, iskrą Bożą, znamieniem geniuszu. Czesław Miłosz powiedziałby: to daimonion. Myślę, że to, co w twórczości ludzkiej jest największe, przychodzi z zewnątrz.

W działaniu samouczących się algorytmów widzi Ojciec więcej szans czy zagrożeń?

Nie potrafię jednoznacznie odpowiedzieć i nie chcę siać defetyzmu, choć chyba widzę więcej zagrożeń. Nie są one jednak takie, jakich się zwykle spodziewamy. Używamy określenia „samouczące się maszyny”. Słusznie je tak nazywamy, ale one uczą się od człowieka. To nie człowiek je uczy, lecz one uczą się od człowieka. Na tym polega sztuczna inteligencja. Ona nie pracuje bez „obserwowania” tego, co robi człowiek, i to nie jeden, ale ogromna rzesza. Zazwyczaj daję taki przykład: chcemy zaprogramować komputer, żeby grał w kółko i krzyżyk. Prosta gra: 9 pól, 2 figury, rozstrzygnięcie może się wydarzyć po zajęciu mniej niż 9 pól, czyli liczba możliwych wariantów gry to mniej niż 9! [czyt. dziewięć silnia – przyp. red.]. W grze jest dokładnie 255 168 możliwych kombinacji. Da się to wyliczyć bez większego problemu. Dałoby się je rozpisać, wrzucić do komputera, a on, korzystając z szybkości procesora, wygra z większością graczy. Ale to nie SI. To my „nauczyliśmy” maszynę. Co innego, gdybyśmy napisali program obserwujący dużą liczbę graczy, który sam uczy się zasad. Lecz trzeba pamiętać, że graczy musi być rzeczywiście dużo. Jeśli mówimy o rewolucji, to kluczowy jest internet. SI usycha bez powszechnych wyszukiwarek.

W skrócie – kiedy mówimy o tworzeniu SI, musimy pamiętać, że sami ją non stop karmimy.

Tak.

Wspomniałem o żarcie, który uzyskał portal CNA. Prawie identyczny kawał można znaleźć w internecie, niektóre wersje są nawet z 2010 r. SI niespecjalnie się wysiliła, zmieniła tylko parę szczegółów.

Świetny przykład na to, co mówiłem o przetwarzającej kompilacji jako zasadzie działania SI.

Może w takim razie możliwości SI nie są aż tak wielkie, jak się dziś wydaje? Sztuczna inteligencja jest czasem opisywana jako bóg, który może kontrolować i tworzyć świat. A jednocześnie niektóre przykłady pokazują jej bardzo proste ograniczenia.

Najgorsze jest to, że jedno drugiemu nie przeszkadza. SI może się mylić i być niedoskonała, a jednocześnie odgrywać rolę boga. Jeśli wyszukujemy coś w internecie, to dzięki np. plikom cookies portal czy wyszukiwarka będzie, jak to się ładnie określa, personalizować dla nas treści. Można powiedzieć: świetnie, znajdzie dla mnie coś ciekawego. Można też powiedzieć: to bardzo źle, bo wpycha mnie to w bańkę informacyjną. Jeśli otrzymuję tylko takie informacje, które utwierdzają mnie w poglądach, to jest to bardzo niebezpieczne. Jeśli mamy się czegoś bać już teraz w związku z powszechną obecnością SI, to raczej wizji z filmu „Truman show” niż z „Terminatora”. Do „Terminatora” jeszcze daleko, ale ta pierwsza sytuacja – ktoś niby jest wolny, ale świat wokół niego jest kompletnie skonfigurowany – już właściwie się realizuje. I zaczynają się prawdziwe dylematy moralne związane z SI.

A czy da się stworzyć jakieś zasady, kodeks etyczny funkcjonowania SI?

W świecie powszechnie dostępnego internetu – nie. Musiałoby to być związane z ogromnym ograniczeniem tzw. wolności w internecie. Prędzej można by mówić o indywidualnym kodeksie etycznym, np. że nie korzystamy z algorytmów, które publikują newsy, bez sprawdzenia ich przez człowieka. Ale czy to by zadziałało? Nie sądzę. Główny problem etyczny związany z SI w info- sferze nie różni się bardzo od problemów moralnych związanych z dobrze nam znanym zjawiskiem plotki, oszustwa czy wpływania na opinię publiczną za pomocą półprawd, wybiórczych informacji i kłamstw. Mają tu zastosowanie te same normy etyczne.

Czyli jesteśmy skazani na takie życie jak Truman z filmu? Nie można z tym nic zrobić?

Można, ale bardziej indywidualnie. Najpierw trzeba zrobić krok ku wyjściu ze świata kształtowanego przez informację do świata kształtowanego przez doświadczenie. Może to brzmieć górnolotnie i filozoficznie, ale proszę zauważyć, że jeśli chcemy zobaczyć, jaka jest pogoda, to nie wyglądamy za okno, lecz sprawdzamy prognozę w internecie. Dotyczy to bardzo wielu spraw, znacznie ważniejszych niż pogoda. Kształtujemy nasz obraz świata przede wszystkim na podstawie informacji medialnych, a nie naszego doświadczenia świata. Drugi krok to, proszę wybaczyć wzniosłe stwierdzenie, życie w sferze kultury wysokiej. Im bardziej będziemy żyć w sferze van Gogha, Chopina czy Szekspira, tym bardziej będziemy odporni na generowane przez SI widokówki i jelonki na rykowisku.

Stolica Apostolska wystosowała apel zwany Rome Call, rodzaj wezwania o poszanowanie pewnych zasad w SI. Spodziewa się Ojciec, że głos Stolicy Apostolskiej będzie respektowany? Może wywrzeć wpływ np. na twórców algorytmów?

Zupełnie się tego nie spodziewam. Po pierwsze – nie obwiniam Stolicy Apostolskiej, bo trudno było pewne rzeczy przewidywać – ale to głos spóźniony. Nieraz mówimy o SI w tonie futurystycznym, a za mało zastanawiamy się, jak ogromną rolę odgrywa ona w naszym codziennym życiu już teraz. Po drugie – chodzi tu o ogromne pieniądze. Redakcji będzie taniej generować newsy za pomocą ChataGPT albo czegoś podobnego, niż zatrudniając do tego dziennikarzy. Bańki marketingowe też są nieprawdopodobnie zyskowne w reklamie. Niedawno pewna firma zwolniła osobę odpowiedzialną za korespondencję międzynarodową, bo do pisania prostych maili wystarczają już translatory bazujące na sztucznej inteligencji.

Na ile człowiek jest odpowiedzialny moralnie za to, co robi stworzony przez niego system, który sam się uczy?

O to można się spierać. Jedno ze stanowisk jest takie, że człowiek nie jest moralnie odpowiedzialny za odkrycia, tylko za ich wykorzystanie. O dokonaniu rozszczepienia atomu przez Otto Hahna – dzięki któremu nauczyliśmy się uwalniania nieprawdopodobnej energii – można powiedzieć, że było ambiwalentne. Dzięki niemu możemy stawiać elektrownie atomowe, produkujące czystą, stabilną i stosunkowo tanią energię dla rzesz ludzi. Jednak pierwszym wykorzystaniem tego odkrycia był projekt Manhattan i bomba na Hiroszimę. Proszę zwrócić uwagę, że naukowcy bardzo szybko wiedzieli, iż pierwszym sposobem wykorzystania odkrycia będzie ten militarny. Z SI może być podobnie. Może być bardzo pożyteczna, ale ma tak ogromny wpływ na społeczeństwo, a co za tym idzie – na demokrację w zachodnich społeczeństwach, że trudno mi uwierzyć, żeby ktoś oparł się użyciu SI w taki sposób w wojnie informacyjnej.

W zwykłej wojnie chyba też. Użycie systemów SI choćby do rozpoznawania celów i kierowania ogniem to ogromne ułatwienie pracy człowieka, który strzela.

W pewnych przypadkach to wręcz jedyny sposób obrony. Kiedy mówimy o zastosowaniu SI w działaniach militarnych, mamy na myśli autonomiczne systemy bojowe. Jeden z nich to system Phalanx, stosowany przez wiele krajów na okrętach do zwalczania pocisków hipersonicznych. Jeśli pocisk leci z prędkością ponaddźwiękową na krótkim dystansie, reakcja człowieka jest zbyt długa, żeby go zestrzelić. Obrona w takiej sytuacji może być wyłącznie, mówiąc starym językiem, automatyczna. Phalanx bazuje na SI i na podstawie danych z radarów i różnych czujników system strzela sam. Żaden człowiek nie podejmuje decyzji, bo nie ma czasu. System jest typowo defensywny, więc w tym sensie nie jest groźny. Jednak mamy też rakiety powietrze –ziemia typu fire and forget (wystrzel i zapomnij), gdzie to człowiek odpala pocisk, ale znalezienie celu albo to, w jakiej skali będzie on zniszczony, jest „decyzją” pocisku. To już niebezpieczne. Czy są możliwe systemy bardziej zaawansowane? Oczywiście. Działanie drona typu Predator z pociskiem Hellfire, który sam startuje na podstawie danych, było możliwe już kilka lat temu. Dlatego w 2015 r. w Buenos Aires podczas wielkiej konferencji o sztucznej inteligencji wystosowano apel o samoograniczanie w stosowaniu broni autonomicznych. Ludzie czują zagrożenie. Myślę jednak, że zagrożenie wynikające z używania SI w sferze czysto militarnej jest nieporównanie mniejsze niż stosowanie SI w wojnie informacyjnej.

Czy na pewno? Jeśli SI będzie decydować o podejmowanych działaniach w większym stopniu niż tylko kierowanie ogniem, to przecież może się okazać, że strategicznie opłacalne jest np. niszczenie cywilnego miasta, żeby paraliżować ruchy wojska.

Obrońcy zastosowania SI w armii powiedzą: prezydent Putin nie jest sztuczną inteligencją, a Rosja na Ukrainie robi dokładnie to, co pan opisuje. Powiedzą, że SI na pewno nie będzie gorsza niż człowiek, co więcej, może być lepsza, nie będzie bowiem dokonywała gwałtów czy bezsensownych mordów wynikających z tego, że żołnierz spanikował, był zaburzony albo pijany.•

Janusz Pyda

dominikanin, pracownik naukowo-dydaktyczny Instytutu Tomistycznego i Akademii Katolickiej w Warszawie. Wykładowca antropologii filozoficznej i teologii dogmatycznej m.in. w Kolegium Filozoficzno-Teologicznym Polskiej Prowincji Dominikanów.

Dostępna jest część treści. Chcesz więcej? Zaloguj się i rozpocznij subskrypcję.
Kup wydanie papierowe lub najnowsze e-wydanie.