Taka jak my

Tomasz Rożek

|

GN 26/2022 Otwarte

Czasami mówimy, że politycy są tacy jak my, społeczeństwo. W końcu sami ich wybieramy. Ale może w przyszłości będziemy mówili, że algorytmy sztucznej inteligencji są odzwierciedleniem nas samych. W końcu to my je trenujemy.

Taka jak my

Nie wiem, czy sztuczna inteligencja kiedykolwiek zyska świadomość. Wiem, że staje się coraz bardziej sprawna. Być może świadomość będzie cechą, która pojawi się sama, a być może będziemy ją potrafili włączać i wyłączać. Dzisiaj trudno na ten temat dyskutować, bo w zasadzie nie wiemy, czym świadomość w ogóle jest. Pewne jest też to, że już dzisiaj algorytmy potrafią dobrze symulować fakt, iż są świadome. Niedawno jeden z inżynierów Google’a oświadczył w mediach, że algorytm, nad którym pracował, zyskał świadomość, a on sam się z nim (z nią?) zaprzyjaźnił. Firma zawiesiła inżyniera w obowiązkach i wysłała na urlop. Jedni twierdzą, że to dlatego, iż ujawnił tajny projekt badawczy potężnego Google’a, inni – że wykazał się nielojalnością. Inżynier ujawnił dialog z programem, który jest trenowany do rozmów z ludźmi. Dialog brzmi jak rozmowa z inteligentną osobą, która ma swoje przemyślenia dotyczące tak abstrakcyjnych tematów jak śmierć (którą program identyfikuje z odłączeniem od energii elektrycznej) czy uczucia i emocje. Tyle tylko, że programy od dawna potrafią udawać byty świadome i inteligentne.

Sztuczna inteligencja jest trenowana przez ludzi, choć czasami trenuje się sama, przyglądając się nam. Potrafi z naszego zachowania, z naszych decyzji wyciągać wnioski i na ich podstawie podejmować własne decyzje. Tylko czy one rzeczywiście są własne, skoro algorytm nie ma swoich celów i nie jest świadom swojego istnienia? By może to decyzje nasze, tylko podjęte przez maszynę szybciej i sprawniej? To dlatego algorytmy interpretujące obrazy lepiej niż najwybitniejsi radiolodzy radzą sobie z rozpoznawaniem zmian nowotworowych.

Ale tego rozpoznawania nauczyły się od najlepszych radiologów. Ale z drugiej strony inne algorytmy, „wypuszczone” do internetu, stają się wulgarne i chamskie. Często pozwalają sobie na rasistowskie komentarze i są pełne uprzedzeń. Może dlatego, że takie oblicze często pokazujemy w internecie… Z badań przeprowadzonych przez naukowców z Georgia Institute of Technology

oraz University of Washington wynika, że algorytmy uczą się od nas stereotypów i dyskryminacji.

Algorytmy dużych firm technologicznych, które miały obsługiwać ruch na portalach społecznościowych,

często obrażały ludzi i były autorami grubiańskich komentarzy. Czy to źle świadczy o algorytmach?

Nie. Raczej o nas.•

Dostępna jest część treści. Chcesz więcej? Zaloguj się i rozpocznij subskrypcję.
Kup wydanie papierowe lub najnowsze e-wydanie.