Nowy numer 33/2022 Archiwum

Taka jak my

Czasami mówimy, że politycy są tacy jak my, społeczeństwo. W końcu sami ich wybieramy. Ale może w przyszłości będziemy mówili, że algorytmy sztucznej inteligencji są odzwierciedleniem nas samych. W końcu to my je trenujemy.

Nie wiem, czy sztuczna inteligencja kiedykolwiek zyska świadomość. Wiem, że staje się coraz bardziej sprawna. Być może świadomość będzie cechą, która pojawi się sama, a być może będziemy ją potrafili włączać i wyłączać. Dzisiaj trudno na ten temat dyskutować, bo w zasadzie nie wiemy, czym świadomość w ogóle jest. Pewne jest też to, że już dzisiaj algorytmy potrafią dobrze symulować fakt, iż są świadome. Niedawno jeden z inżynierów Google’a oświadczył w mediach, że algorytm, nad którym pracował, zyskał świadomość, a on sam się z nim (z nią?) zaprzyjaźnił. Firma zawiesiła inżyniera w obowiązkach i wysłała na urlop. Jedni twierdzą, że to dlatego, iż ujawnił tajny projekt badawczy potężnego Google’a, inni – że wykazał się nielojalnością. Inżynier ujawnił dialog z programem, który jest trenowany do rozmów z ludźmi. Dialog brzmi jak rozmowa z inteligentną osobą, która ma swoje przemyślenia dotyczące tak abstrakcyjnych tematów jak śmierć (którą program identyfikuje z odłączeniem od energii elektrycznej) czy uczucia i emocje. Tyle tylko, że programy od dawna potrafią udawać byty świadome i inteligentne.

Sztuczna inteligencja jest trenowana przez ludzi, choć czasami trenuje się sama, przyglądając się nam. Potrafi z naszego zachowania, z naszych decyzji wyciągać wnioski i na ich podstawie podejmować własne decyzje. Tylko czy one rzeczywiście są własne, skoro algorytm nie ma swoich celów i nie jest świadom swojego istnienia? By może to decyzje nasze, tylko podjęte przez maszynę szybciej i sprawniej? To dlatego algorytmy interpretujące obrazy lepiej niż najwybitniejsi radiolodzy radzą sobie z rozpoznawaniem zmian nowotworowych.

Ale tego rozpoznawania nauczyły się od najlepszych radiologów. Ale z drugiej strony inne algorytmy, „wypuszczone” do internetu, stają się wulgarne i chamskie. Często pozwalają sobie na rasistowskie komentarze i są pełne uprzedzeń. Może dlatego, że takie oblicze często pokazujemy w internecie… Z badań przeprowadzonych przez naukowców z Georgia Institute of Technology

oraz University of Washington wynika, że algorytmy uczą się od nas stereotypów i dyskryminacji.

Algorytmy dużych firm technologicznych, które miały obsługiwać ruch na portalach społecznościowych,

często obrażały ludzi i były autorami grubiańskich komentarzy. Czy to źle świadczy o algorytmach?

Nie. Raczej o nas.•

« 1 »
oceń artykuł Pobieranie..

Zobacz także

Wyraź swoją opinię

napisz do redakcji:

gosc@gosc.pl

podziel się