O różnicy między człowiekiem a samouczącą się maszyną mówi ks. dr Jarosław Sobkowiak

GN 12/2023

publikacja 23.03.2023 00:00

O różnicy między człowiekiem a samouczącą się maszyną mówi ks. dr Jarosław Sobkowiak.

Ks. dr Jarosław Sobkowiak – marianin, prodziekan Wydziału Teologicznego UKSW. Ks. dr Jarosław Sobkowiak – marianin, prodziekan Wydziału Teologicznego UKSW.
Waldemar Kompała

Jakub Jałowiczor: Czy sztuczna inteligencja myśli za nas?

Ks. Jarosław Sobkowiak:
Spójrzmy na historię. Początkowo człowiek przechowywał wszystko w swojej pamięci. Rozwój techniki sprawił jednak, że liczba danych jest zbyt duża. Człowiek zaczął więc wyprowadzać pamięć poza siebie. Najpierw zapisywać, potem nagrywać. W pewnym momencie to, co miało być nośnikiem pamięci, stało się sposobem jej gromadzenia.

To znaczy?

Myślimy przez nośnik. Przykład: dawniej telefon służył do rozmawiania, ale smartfon może wybrać za mnie nawet restaurację. Pozornie pomaga, ale jednocześnie przejmuje pewne moje funkcje. Problemem jest zatem lenistwo człowieka. Dobrowolnie oddaję maszynie to, co było moim przywilejem.

Czym właściwie sztuczna inteligencja różni się od naszego sposobu myślenia?

Sztuczna inteligencja, mówiąc językiem teologii, jest stworzona, a nie zrodzona. Nie kształtuje się w procesie biologicznego i duchowego rozwoju jak człowiek, tylko jest przez niego stworzona. Człowiek się uczy i maszyna się uczy. Jednak maszynę w punkcie wyjścia uczymy my i cele w punkcie wyjścia wyznacza człowiek. Algorytm nie jest odpowiednikiem mózgu, tylko metodą, jaką człowiek chciał uczyć maszynę – choć algorytmy są coraz doskonalsze i subtelniejsze. Algorytm można rozwijać, można doprowadzić do samouczenia się maszyny. Nauczyliśmy ją kilku funkcji, a ona może na tej podstawie opracowywać nowe sposoby obróbki danych, wręcz podejmować decyzje. Jednak maszynie ktoś na początku wyznaczył cel i funkcjonuje ona według schematu, który niestety może wymknąć się spod kontroli. Skutki tego mogą nas zaskoczyć. To jednak ciągle pewien schemat. Nie przesadzajmy z oczekiwaniem, że maszyna stanie się inteligencją porównywalną z ludzką. Nie mówię o mocy, często bowiem zachwyca nas to, że SI zrobi szybciej coś, co my robimy wolno. Ale to ciągle będzie działanie sztuczne, w kluczu algorytmu i celów wyznaczanych maszynie. Spójrzmy na to, co nazywamy kreatywnością. Człowiek jest w porównaniu z maszyną niewydolny. Kształcenie zaczyna się od zera i trwa długo. Kiedy jednak zastanawiamy się nad kwestią praw autorskich, to większość prawodawstw, które poruszają ten temat, mówi: takie prawo pojawi się tam, gdzie pojawi się czynnik ludzki. Gdy maszyna tworzy grafikę, powstaje nowy produkt, ale nie jest on rezultatem zadziwienia światem, odczuć i intuicji. W prawie autorskim nie dojdziemy dalej niż do ochrony oprogramowania.

Obawia się Ksiądz rozwoju samouczących się algorytmów?

Boję się tego, że człowiek przestaje myśleć. Moim zdaniem nie pokona nas sztuczna inteligencja, ale zniszczyć nas może lenistwo, bo zdolności człowieka, jak twórczość i poznanie, możemy oddać maszynie. I wtedy będziemy żyli decyzjami maszyny, a to jest niebezpieczne. Przykład: student pisze pracę. Kiedyś podstawę takiego zadania stanowiły kwerenda biblioteczna, wypracowanie własnej ścieżki. Dzisiaj bibliografię wyszuka mi maszyna. Słowa kluczowe znajdę w wyszukiwarce. Komputer da mi prawie gotowy produkt, który tylko obrobię. I w pracach widać coraz mniej ludzkiej kreatywności. Zresztą w całym systemie szkolnictwa uczymy człowieka jak maszynę. Maszynę uczymy za pomocą algorytmów, a ludzi za pomocą testów. I w ten sposób człowiek powoli staje się sztuczną inteligencją, ale zawsze będzie wolniejszy od tej cyfrowej. Nie jest to zagrożenie takie jak wojna atomowa, lecz zagrożenie dla człowieka w jego istocie. Przestanie być bowiem w najlepszym znaczeniu człowiekiem humanistycznym, stanie się człowiekiem technicznym, odbiorcą wytworów maszyny, a nie twórcą. Myślenie ludzkie jest kognitywne, wiąże wiele doświadczeń, także takich, których nie odda się modelowo. Z kolei maszyna kieruje się ścieżkami, które nawet jeśli wydają się superinteligentne, są sztuczne i techniczne.

Algorytm nie ma sumienia i moralności, ale skoro podejmuje działania, to należałoby w jakiś sposób pilnować, żeby nie miały one złych skutków, prawda?

Maszyna w jakimś sensie wybiera między dobrem a złem, bo wskazuje prawdę i fałsz, ale jest to kategoria dobra i zła nieporównywalna do takich, jakich potrzebuje do funkcjonowania człowiek. Obawiam się nastania ery imperatywu technicznego: jeśli coś jest możliwe technicznie, to stanie się możliwe etycznie. Dziś jest tak w biotechnologii. Ciągle słyszymy: ale to da się zrobić. Jeśli człowiek odda moc decydowania – tu wracamy do kwestii lenistwa – straci moment wolności. Tego, co zawsze było istotą człowieczeństwa.•

Dostępna jest część treści. Chcesz więcej? Zaloguj się i rozpocznij subskrypcję.
Kup wydanie papierowe lub najnowsze e-wydanie.