Sztuczna inteligencja. Zagrożenie na wyciągnięcie ręki?

Bartosz Walter

|

GN 12/2023

publikacja 23.03.2023 00:00

Wygląda na to, że wypuściliśmy dżina z butelki. Miłośnicy literatury fantastycznonaukowej wiedzą, że wobec sztucznej inteligencji człowiek wcześniej czy później znajdzie się na przegranej pozycji. Czy powinniśmy zacząć się bać?

Sztuczna inteligencja. Zagrożenie na wyciągnięcie ręki? istockphoto

Od lat wiadomo, że maszyny wyposażone w olbrzymią pamięć i dużą moc obliczeniową są szybsze i bystrzejsze od ludzi, a przy tym pozbawione jakiegokolwiek systemu etycznego, co przecież musi prowadzić najpierw do ich konfliktu z ludźmi, a potem do zwycięstwa. Pewną pociechą był fakt, że miało to się wydarzyć w odległej przyszłości. Jednak ChatGPT, inteligentny bot konwersacyjny, który od kilku miesięcy znajduje się w technologicznym centrum uwagi całego świata, jasno pokazuje, że sztuczna inteligencja dosłownie puka do naszych drzwi.

ChatGPT jest programem wykorzystującym wielką moc obliczeniową specjalnie dla niego stworzonego komputera. Potrafi nawiązać i utrzymać kontakt z rozmówcą, ma olbrzymią wiedzę na wiele tematów, umie się uczyć, łączyć niektóre fakty i wyciągać z nich wnioski. W ciągu kilku miesięcy stał się najbardziej znanym przykładem sztucznej inteligencji – i to nie tej przedstawionej w filmach czy książkach, ale jak najbardziej realnej, której każdy może użyć. Liczba osób, które chcą się z nim „zaprzyjaźnić”, rośnie w błyskawicznym tempie: zdobycie pierwszego miliona użytkowników zajęło mu zaledwie kilka dni, podczas gdy nawet najpopularniejsze serwisy społecznościowe potrzebowały na to przynajmniej dziesięciu miesięcy.

Czym jest sztuczna inteligencja?

Czym zatem w ogóle jest inteligencja? Jakie cechy powinna posiadać jej sztuczna odmiana, aby można było uznać ją za faktycznie inteligentną? Choć pytanie to stawiali sobie wielcy myśliciele już wiele stuleci temu, właściwa dyskusja rozpoczęła się w latach 40. ubiegłego wieku, gdy genialny angielski matematyk Alan Turing zaproponował, aby inteligencję systemu mierzyć za pomocą jej podobieństwa do inteligencji ludzkiej, czyli umiejętności wnioskowania, łączenia faktów, a nade wszystko uczenia się i budowania na tej podstawie nowej wiedzy. Zaproponował on proste kryterium, będące pewnego rodzaju sprawdzianem, nazwanym później testem Turinga. Zgodnie z jego zasadami maszyna jest inteligentna, jeżeli człowiek – sędzia prowadzący jednoczesną konwersację z innym człowiekiem i z maszyną – nie będzie w stanie na podstawie samych wypowiedzi określić, który z rozmówców jest prawdziwy. Turing spekulował, że do roku 2000 uda się zbudować taki system, który w ciągu pięciominutowej pogawędki będzie w stanie skutecznie oszukać 30 proc. sędziów, wymagając do tego, bagatela, nieco ponad stu megabajtów pamięci. Z perspektywy połowy XX wieku taka ilość zapewne oszałamiała, jednak obecnie nawet najprostsze urządzenia elektroniczne posiadają pamięć wielokrotnie większą i trudno nazwać je inteligentnymi.

Efekt Elizy i paradoks Moraveca

Test Turinga zakłada, że maszyna będzie naśladować człowieka, uwzględniając przy tym jego ograniczenia. Jeden ze wczesnych systemów, o nazwie Eliza, z sukcesem wykorzystał te założenia. Podczas „rozmowy” z sędzią wyszukiwał w pytaniu pewne słowa i frazy, a następnie próbował do nich nawiązać lub przeformułować swą wypowiedź; jeżeli nie miał nic do powiedzenia, zmieniał temat lub sam zadawał jakieś pytanie. W ten sposób skłaniał rozmówcę do doszukiwania się znaczeń w słowach i pojęciach, które ich nie posiadają, co sprawiało wrażenie typowo ludzkiego zachowania, a później zostało nazwane „efektem Elizy”.

O ile możliwe jest stworzenie maszyny dobrze radzącej sobie z jednym zadaniem, np. odróżnianiem obiektów na podstawie ich właściwości, o tyle inne problemy, z którymi bez problemu radzi sobie kilkulatek, np. rozpoznawanie prostych obrazów czy wnioskowanie na ich podstawie, okazują się bardzo trudne. Zjawisko to, nazywane paradoksem Moraveca, pokazuje istotne ograniczenie sztucznej inteligencji: rzeczy pozornie złożone są dla niej łatwe, natomiast rzeczy naturalne dla nas, związane przede wszystkim z kreatywnością, okazują się skomplikowane. Myśląc o prawdziwej inteligencji, mamy oczywiście na myśli tę drugą kategorię. Na razie jednak nie wiadomo, czy będziemy w stanie kiedykolwiek ją zbudować.

Pięta Achillesa

Sztuczna inteligencja jest obecnie szeroko wykorzystywana; w niektórych sytuacjach jest nawet lepsza od ludzi. Istnieją systemy, kwtóre z łatwością pokonują arcymistrzów w szachach (osiągają ranking w okolicach 3400 punktów, podczas gdy Magnus Carlsen, aktualnie najlepszy szachista, ma ich zaledwie 2859). Kilka lat temu program AlphaGO wygrał w grę Go, będącą wielokrotnie bardziej skomplikowaną od szachów. Sztuczna inteligencja bardzo dobrze radzi sobie również w praktycznych problemach, na przykład rozpoznając choroby na podstawie objawów i wyników badań obrazowych. Jednak z drugiej strony nadal zdarzają jej się zawstydzające wpadki, jak pewnej aplikacji do katalogowania zdjęć, która czarnoskóre osoby rozpoznała jako goryle. Błędów nie jest pozbawiony również ChatGPT, który podczas dyskusji z użytkownikami używał rasistowskich argumentów i dyskryminował niektóre grupy społeczne, zarzucając im skłonność do popełniania przestępstw. Wiadomo również, że zdarza mu się zwyczajnie…kłamać, tworząc nieistniejące fakty lub doszukując się nieistniejących powiązań między nimi. O ile ChatGPT jest doskonały w pisaniu, streszczaniu lub redagowaniu tekstów w różnych językach, jednocześnie często powołuje się w nich na fikcyjne źródła lub zmyślonych autorów. Wyobraźmy sobie, jak wyglądałyby prace magisterskie, naukowe czy choćby powieści, których autorzy „wspomogą” się chatem. Co w nich będzie prawdziwe i oryginalne, a co fałszywe? Wygląda na to, że Achilles ma swoją piętę, i to prawdopodobnie niejedną.

Czy zachowamy kontrolę?

Czy to oznacza, że sztuczna inteligencja musi zaprowadzić nas do świata znanego z przerażających wizji, w których władzę obejmą maszyny? Na razie można z przekonaniem powiedzieć, że nic na to nie wskazuje, o ile ludzie tej władzy sami im nie przekażą poprzez własne zaniedbanie i lenistwo. Błędy maszyn wynikały bowiem nie ze złej woli bota (bo on jej nie posiada), ale z niewłaściwego doboru danych uczących. Jeśli więc zachowamy źródła wiedzy inne niż sztuczna inteligencja, do których będzie można się odwołać, żeby zweryfikować jej słowa i działania, wówczas zachowamy kontrolę. Pozostaje jedynie pytanie, czy faktycznie będziemy tego chcieli.•

 

Dostępna jest część treści. Chcesz więcej? Zaloguj się i rozpocznij subskrypcję.
Kup wydanie papierowe lub najnowsze e-wydanie.