Nowy numer 42/2019 Archiwum

Moralność maszyn

Jak nauczyć maszyny podejmowania moralnie słusznych decyzji? Wbrew pozorom to nie jest wydumany problem. Algorytmy za chwilę zaczną kierować naszymi samochodami i zastępować lekarzy. Już dzisiaj w wielu miejscach zastępują sędziów.

Standardowe ćwiczenie logiczne, gdy mowa o moralności maszyn, opisuje sytuację, w której człowiek podróżuje autonomicznym samochodem. Może czyta gazetę, może pije kawę albo rozmawia przez telefon. Może to robić, bo jego samochód nie wymaga kierowcy. Dziesiątki czujników kontrolują sytuację wokół pojazdu. Odpowiednie moduły wymiany danych non stop ściągają informacje o trasie, którą jedzie samochód, a szybkie algorytmy na podstawie danych z czujników i z chmury podejmują decyzje. Dzięki temu auto bezpiecznie jedzie, a kierowca może robić… w zasadzie cokolwiek.

Ta sielanka zostaje jednak przerwana niespodziewanym wtargnięciem na jezdnię człowieka. Niech to będzie dziecko, które gra z kolegą w piłkę. Piłka poturlała się na ulicę, a za nią wbiegł na jezdnię dzieciak. Samochód – znacznie szybciej niż człowiek – wykrywa takie zagrożenie. Ale wykrycie to jedno, a skuteczne przeciwdziałanie to drugie. Samochód, który waży grubo ponad tonę, nie może się zatrzymać w miejscu, nawet jeżeli automat natychmiast „naciśnie” na hamulec. Zresztą automat „naciska” nieporównywalnie szybciej niż człowiek. Ma też nieporównywalnie większą wiedzę o sytuacji. Człowiek ma dwoje oczu, samochody autonomiczne są całe obudowane czujnikami.

Dziecko wybiega na ulicę tuż przed maską. Algorytmy z prędkością światła liczą i już wiedzą, że auto nie zdąży wyhamować. To jest kluczowy moment. Jaką decyzję powinny podjąć? Czy samochód ma uderzyć w dziecko, czy z pełną prędkością skręcić i uderzyć w drzewo, co prawdopodobnie zakończy się śmiercią pasażera? Czy algorytm powinien bardziej szanować życie właściciela, czy obcego? A gdyby to nie chodziło o dziecko, tylko np. o bezdomnego? Czy sytuacja wyglądałaby inaczej? A gdyby to była grupa osób? Jak to przeliczać? Jak zadecydować?

Wina i kara

Przedstawiona sytuacja tylko z pozoru jest hipotetyczna. W rzeczywistości wcale taka nie jest. W nieprzewidywalnych sytuacjach samochody będą musiały podejmować szybkie decyzje. Niektóre z nich będą dotyczyły życia lub śmierci, a już na pewno zdrowia lub kalectwa. Oczywiście człowiek za kierownicą jest także (a nawet częściej niż automat) stawiany w podobnych sytuacjach. Ale to zupełni inny przypadek. W nagłych sytuacjach ludzki mózg wchodzi w tryb awaryjny. Nie ma analizy danych, nie ma zbierania informacji z czujników (zmysłów) i nie ma świadomego procesu podejmowania decyzji. Jest odruch i instynkt. Te odruchy mogą być lepsze, gdy kierowca je trenował i/lub ma doświadczenie. Ale za te odruchy nie odpowiadamy przed sądem. Nawet gdy zabijemy człowieka, z odruchów system prawny nas rozgrzesza. W więzieniu można wylądować, gdy samochód był niesprawny z winy kierowcy, gdy kierowca był pod wpływem środków odurzających albo gdy rozmawiał przez telefon. Maszyny, algorytmu nikt rozgrzeszał nie będzie.

Oczywiście maszyny sztucznie inteligentne rządzą się swoimi prawami i programista nie wpisuje linijka po linijce, co w danej sytuacji mają robić. One same tego się uczą, ale człowiek tworzy ramy tej nauki, ogólne założenia. I to w nich, w jakiś sposób, musi zostać wpisana moralność i etyka. Jak to zrobić?

Człowiek podejmuje decyzje pod wpływem wielu czynników. Czasami rządzą nimi przypadki, czasami emocje, czasami chłodna (o ile taka u człowieka jest możliwa) analiza. Ogromny wpływ na decyzje mają nasze poglądy. A te biorą się z doświadczeń, wychowania i pracy nad sobą (np. z rozmów z innymi ludźmi bądź czytania książek). Wpływ na poglądy (a więc i decyzje) ma także to, czy jesteśmy religijni i jakie wartości religia nam przekazuje. Tylko jak te wszystkie zmienne zastosować do programu komputerowego?

Odpowiednio napisane programy komputerowe uczą się i – o ile można tego stwierdzenia użyć – nabierają przez to doświadczeń. Kłopot w tym, że robią to w dziwny sposób. Z jakiegoś powodu wolą złe doświadczenia od tych dobrych. Przekonaliśmy się o tym, instalując boty w mediach społecznościowych. Boty to dość specyficzne programy służące do korespondowania (a w ogólności do „udawania ludzi”). „Zatrudnia się” je np. na infoliniach, aby udzielały klientom informacji. Boty można też rozpuścić w internecie, by komentowały czy pisały posty. Ale najpierw trzeba je nauczyć udawania ludzi. Najlepiej przez „przebywanie” z nimi. Boty na Twitterze albo Facebooku chętnie uczyły się od innych użytkowników, ale częściej tego, co chcielibyśmy z internetu wyciąć. Po krótkim czasie zaczęły obrażać i insynuować, dodawać seksistowskie i rasistowskie komentarze. Dzięki interakcji z innymi (żywymi) uczestnikami sieci bot uczy się słownictwa, także specjalistycznego, zachowania, powiedzielibyśmy: kindersztuby. Tylko dlaczego chętniej uczy się tego, co złe? Eksperyment przerwano, boty „ukarano”, wyłączając je. I wciąż się zastanawiamy, co poszło nie tak.

Próby i prawa

Naukowcy pracujący w MIT (Massachusetts Institute of Technology) w Cambridge w USA jakiś czas temu uruchomili program mający na celu poznanie wyborów moralnych ludzi. Każdy mógł się zalogować na odpowiedniej stronie i wypełnić kwestionariusz. Były w nim opisane sytuacje, w których trzeba było zająć jakieś stanowisko, podjąć decyzję. Twórcy projektu uznali, że skoro ludzie uczą się tego, co jest dobre, a co złe, od innych ludzi (rodziców, nauczycieli, autorytetów), podobnie trzeba postąpić ze sztuczną inteligencją. Trzeba stworzyć rejestr zachowań moralnych, a następnie wpoić je programom. Czy jednak zdanie większości zawsze jest moralne? Czy większość zawsze ma rację? Tak zwane prawa naturalne nie podlegają głosowaniu, a kwestionariusz to przecież nic innego jak swego rodzaju głosowanie.

Sztuczna inteligencja nie ma instynktu czy głosu wewnętrznego. Wszystko jest dla niej moralnie obojętne. Nie przemówimy do jej „sumienia”, gdy zobaczymy, że jej działania są nieetyczne czy niemoralne. Dla niej będą to po prostu działania. Jak nauczyć automaty moralności? To – moim zdaniem – kluczowe pytanie w rozwoju tej technologii. Niestety nie znamy na nie odpowiedzi. I nawet nie wiemy, jak jej poszukiwać. Ułomna próba inżynierów z MIT (i wiele podobnych, które podejmuje się w różnych ośrodkach na całym świecie) wydaje się na razie jedyną. Tutaj nie sprawdzają się już normy etyczne spisane w latach 40. XX wieku przez Isaaka Asimova (zwane prawami Asimova), bo w zasadzie ograniczają się one do wskazówek dla programistów. Tamte roboty same nie podejmowały decyzji, bo w zasadzie robił to programista. Roboty Asimova miały być tak zaprogramowane, by nie skrzywdzić człowieka ani nie dopuścić, by doznał on jakiejkolwiek krzywdy. Ponadto robot miał być człowiekowi zawsze posłuszny, chyba że to posłuszeństwo sprowadziłoby na człowieka niebezpieczeństwo. I ostatnie „przykazanie”: choć robot powinien chronić siebie, chronić miał przede wszystkim człowieka.

Już samo przeczytanie tych trzech zasad jasno pokazuje, że nie mogą one znaleźć zastosowania w urządzeniach obdarzonych inteligencją i potrafiących samodzielnie podejmować decyzje.

Po prawach Asimova były prawa Langforda. Pierwsza rzucająca się w oczy różnica jest taka, że prawa Asimova podporządkowywały maszyny ludziom, bo miały one działać na rzecz człowieka. Tymczasem roboty Langforda były podporządkowane rządowi lub organizacji, która sfinansowała ich budowę. Tu już nie ma mowy o chronieniu życia. Jest mowa o chronieniu interesów. W połowie lat 90. XX wieku fizyk i elektronik Mark Tilden stworzył zasady, które dawały robotom pozycję uprzywilejowaną w stosunku do człowieka. Prawa Tildena mówiły o tym, że robot za wszelką cenę powinien chronić siebie i dbać o dostęp do źródeł energii. Dla siebie. Potem były jeszcze zasady Nivena, trzy prawa Clarke’a (dotyczące raczej rozwoju technologii jako takiej) oraz niezliczona liczba prac transhumanistów, którzy – w największym skrócie – chcą wykorzystywać m.in. technologię, w tym sztuczną inteligencję, do przezwyciężenia ludzkich ograniczeń, także tych wynikających z biologii.

Pytania bez odpowiedzi

Wspomniane prawa i kodeksy nie przystają jednak do sytuacji, z którą musimy się zmierzyć dzisiaj. Etycy maszyn sprzed kilkudziesięciu (jak Asimov) czy kilkunastu lat zastanawiali się, jak opisać relację pomiędzy urządzeniem a człowiekiem, ale za każdym razem zakładali, że jedna grupa (prawie zawsze maszyny) musi być bezwzględnie podporządkowana drugiej. Sztuczna inteligencja nie wpisuje się w ten podział. Ona ma nam pomagać i być naszym partnerem, a nie ubezwłasnowolnionym najemnikiem. Urządzenia wyposażone w taką inteligencję muszą działać według innych reguł niż zasady wiążące pana i niewolnika. W tym właśnie kierunku idzie tzw. teoria przyjaznej inteligencji. Jej autor, Eliezer Yudkowsky, jest zdania, że stworzenie algorytmów, które będą kierowały się zasadami moralnymi, jest możliwe. Kłopot z koncepcjami Yudkowskiego polega na tym, że nie podaje on żadnych przepisów, nie udziela odpowiedzi, lecz jedynie wyraża życzenia. Twierdzi, że w przyszłości inteligentne maszyny będą odrębną rasą, że będą od nas niezależne, że będą myślały i zachowywały się inaczej niż my. Kłopot w tym, że – jeżeli do tego dojdzie – będziemy musieli z tą nową formą inteligencji współistnieć, a to oznacza, że jakoś trzeba będzie ustalić zasady, które dla obydwu stron będą akceptowalne. Chyba że założymy, iż sztuczna inteligencja nauczy się ich od nas. Tych zasad, czyli naszej moralności. Tylko czy takie bezczynne wyczekiwanie jest roztropne? I czy, gdy maszyny nauczą się jakiejś moralności, nie będzie już za późno, by cokolwiek skorygować?

Na te pytania nie znamy dzisiaj odpowiedzi, co nie zmienia faktu, że wkrótce wsiądziemy do samochodu, który będzie za nas podejmował decyzje.

Czy nadrzędną zasadą algorytmów powinno być wykonanie obowiązku (nie bacząc na koszty), czy raczej czynienie dobra? Czy powinniśmy nauczyć algorytmy kłamać, aby zminimalizować zło, czy zawsze powinny one mówić prawdę? Pomiędzy dobrem a obowiązkiem, pomiędzy kłamstwem a prawdomównością jest cały wachlarz stanów pośrednich. Tak samo jak pomiędzy zasadą, że robot zawsze wykonuje rozkaz właściciela, a zasadą, że nigdy takiego rozkazu nie wykonuje.

Zastanawiając się nad tym, musimy mieć świadomość, że algorytmy uczące się i podejmujące decyzje mają zastosowanie nie tylko w sektorze transportu. Sztuczna inteligencja coraz szerzej otwiera sobie drzwi do medycyny. I moim zdaniem zrobi tam większą rewolucję niż w transporcie. Czy system monitorujący stan zdrowia może podać lekarstwo wbrew woli człowieka? Nie? A ileż to razy trzeba chorego albo nieodpowiedzialnego pacjenta oszukać, żeby podać mu – dla jego dobra – lekarstwo? No to może niech robot podaje lekarstwa zawsze według swojego uznania, a wszelkie próby odmowy niech ignoruje? To też brzmi źle. Ale w takim razie co brzmi dobrze? Jak to wszystko poukładać?

To wciąż dopiero początek historii. W USA algorytmy są powszechnie wykorzystywane do określania ryzyka popełnienia przestępstwa w czasie zwolnienia warunkowego. Analizują zachowanie i sytuację więźnia, ale także środowisko, z którego pochodzi, i rodzaj przestępstwa, za które został skazany. Sędzia tylko podpisuje dokumenty. Algorytmy są wolne od sentymentów, nie robią na nich wrażenia ckliwe historie i okazuje się, że... świetnie się sprawdzają. Liczba przestępstw popełnianych na zwolnieniu warunkowym szybko spada. Ale czy algorytmy powinny być stosowane już na początku procesu sądzenia? Czy powinny wskazywać sędziom, kogo skazać i jaką karę wymierzyć? To pytanie retoryczne, bo dzisiaj w USA ten system już funkcjonuje, a algorytmy nazywa się – tłumacząc wprost z angielskiego – algorytmami oceny ryzyka kryminalnego. Tylko od kogo mają się one uczyć sprawiedliwości? Czy człowiek, który w sądzeniu innych sam popełnia tyle błędów, jest idealnym nauczycielem?

To kolejne pytania bez odpowiedzi. Sporo tych pytań… A może zrobić krok w tył? Jakoś się z tego wszystkiego wycofać? To niemożliwe. Dzisiaj nie da się już tego zrobić. Więc lepiej się uczyć… filozofii i etyki. Bo na wiedzę z tych dziedzin, podobnie jak na wiedzę z informatyki, może być w przyszłości duże zapotrzebowanie.•

« 1 »
oceń artykuł Pobieranie..

Zobacz także

  • Spoko
    15.03.2019 10:12
    "Tutaj nie sprawdzają się już normy etyczne spisane w latach 40. XX wieku przez Isaaka Asimova..." - niestety nie jest to prawda, sprawdzają się znakomicie. Maszyna może się tylko uczyć, nie ma mowy o myśleniu, więc wpisanie 3 praw daje gwarancję bezpieczeństwa ludziom.
    Przykład z dzieckiem na drodze też jest nie trafiony, bo samochody autonomiczne będą miały autonomiczne drogi, które będą zabezpieczone przed ludźmi.
  • tomaszl
    15.03.2019 10:41
    To jest bardzo ciekawy i niewątpliwie złożony problem. Oczywiście za kilka lat te wszystkie wątpliwości zostaną już rozstrzygnięte, a świat "maszyn i algorytmów" będzie o wiele powszechniejszy niż dziś.
    Zresztą dziś tzw. AI jest już powszechna choćby w rozpoznawaniu mowy czy obrazów (dla przykładu analizy emocji ze zdjęcia). Dziś to jeszcze forma zabawy, ale w przyszłości to będzie jedna z form interakcji człowieka ze światem cyfrowym.
    Tak jak już dziś można swobodnie rozmawiać ze swą komórką, czy choćby swoim domem. I to nawet w języku polskim.
    Dla pokolenia obecnych dzieci i samochód autonomiczny i medycyna z AI i wiele innych obszarów zastosowań będą już normalnością i codziennością.

    doceń 0
  • Rafaello
    15.03.2019 20:48
    Nie podjąłbym się nauczenia maszyny tego jaką decyzję ma podjąć w sytuacji gdy wszystkie rozwiązania są złe.
    doceń 0

Ze względów bezpieczeństwa, kiedy korzystasz z możliwości napisania komentarza lub dodania intencji, w logach systemowych zapisuje się Twoje IP. Mają do niego dostęp wyłącznie uprawnieni administratorzy systemu. Administratorem Twoich danych jest Instytut Gość Media, z siedzibą w Katowicach 40-042, ul. Wita Stwosza 11. Szanujemy Twoje dane i chronimy je. Szczegółowe informacje na ten temat oraz i prawa, jakie Ci przysługują, opisaliśmy w Polityce prywatności.

Zamieszczone komentarze są prywatnymi opiniami ich autorów i nie odzwierciedlają poglądów redakcji