Czy technologia cyfrowa może zachwiać podstawami demokratycznego porządku?

Tomasz Rożek

|

GN 42/2023

publikacja 19.10.2023 00:00

Algorytmy mają coraz większy wpływ na to, kogo i jak wybieramy. Czy wyniki wyborów zależą dziś głównie od technologii?

Czy technologia cyfrowa może zachwiać podstawami demokratycznego porządku? istockphoto

Demokracja opiera się na kilku filarach, ale wśród nich zaufanie i dostęp do informacji wydają się kluczowe. Bo ileż wart jest głos oparty na kłamstwie? Ileż warta opinia oparta na niewiedzy? To nie ekstremizmy, ale technologia może mieć, a stawiam tezę, że już ma, ogromny wpływ na demokracje. Bo czymże ona jest, jeśli nie opartym na zaufaniu przekonaniem, że każdy z nas, na swój sposób zorientowany, wybiera najważniejsze osoby w państwie (pośrednio lub bezpośrednio)? A co w sytuacji, gdy ktoś lub coś zacznie masowo przekierowywać strumień informacji tak, by uzyskać oczekiwany wynik? Co, gdy ktoś lub coś zacznie podsyłać nam fałszywe wiadomości skrojone dokładnie pod nas? Nie wszystkim te same – inne młodym matkom, inne starszym mężczyznom. Kierowanie komunikatów do konkretnych grup odbiorców i kłamanie to oczywiście nie jest wynalazek współczesności, ale skala, z jaką mamy do czynienia dzisiaj, jest bezprecedensowa.

Wolność i równość

Sztuczna inteligencja to analiza ogromnych zbiorów danych i wyciąganie na ich podstawie wniosków. Wystarczy obserwacja naszego ruchu w internecie, tego, co czytamy, co i jak komentujemy, a nawet niespecjalnie rozbudowany algorytm z dużą dozą prawdopodobieństwa wskaże, której partii jesteśmy zwolennikami. Wskaże także, która partia jest tą drugiego wyboru, a na które nie zagłosujemy nigdy. Już samo to jest w pewnym sensie podważeniem tajności wyborów. Prywatność to prawo każdego z nas. Tyle tylko, że algorytmy tego słowa nie znają. I nie tylko w kontekście wyborów technologie cyfrowe mają potencjał całkowitego pozbawienia nas prywatności. Osoby, które w internecie bywają rzadko (albo nie bywają wcale), nie mogą się łudzić, że to nie ich problem. Korzystają przecież z telefonów komórkowych i z kart płatniczych, widzą je kamery monitoringu miejskiego. Wiem, brzmi to jak obsesja na punkcie własnej prywatności, ale nią nie jest. Systemy cyfrowe masowo gromadzą nasze dane, przetwarzają je i wykorzystują, także po to, by się uczyć. Najczęściej nie mamy o tym pojęcia, a często chodzi o dane bardzo wrażliwe (wręcz intymne), w tym takie, które dotyczą wyborów politycznych. Jak budować społeczeństwo obywatelskie, które jest podstawą działania każdej dojrzałej demokracji, gdy jako obywatele jesteśmy profilowani i – czy tego chcemy, czy nie – otaczani już nie bańkami, ale bunkrami, przez które niezwykle trudno przebić się z innym niż skrojonym pod nas przekazem? To pozwala nami sprawnie manipulować, ale przekłada się także na coraz mniejsze zaufanie do instytucji i do procedur takich jak wybory czy referenda. Partie polityczne całymi garściami (jedynym ograniczeniem są finanse) korzystają z narzędzi profilowania, aby u „swoich” – często niezależnie od faktów – cementować przekonanie, a niezdecydowanym przedstawić zero-jedynkowy obraz rzeczywistości. Wcześniej też nie każdy korzystał ze swobody pozyskiwania informacji, ale dzisiaj trzeba być specjalistą, by w ogóle z niej skorzystać. Gdzie zatem są wolność i równość w każdym aspekcie naszego życia, także w prawie do rzetelnej informacji? Wolność i równość to przecież fundamenty ustroju demokratycznego. Bez nich demokracja nie działa.

Kto wygrywał, a kto grał?

Kłamstwo nie jest wynalazkiem współczesności. Ale kłamstwo, które łatwo może dosięgnąć milionów uszu, już tak. Technicznie rzecz biorąc, w zasadzie nie ma żadnych granic, które stałyby na drodze do zmanipulowania dowolnego obrazu, materiału wideo czy głosu. Programy do montażu wideo bez większych problemów radzą sobie np. z tworzeniem realistycznych materiałów, w których prawdziwa osoba swoim głosem wypowiada zdania w rzeczywistości nigdy przez nią niewypowiedziane. Program może nawet tak doskonale zanimować ruch ust, że odbiorca nie jest w stanie odróżnić oryginału od fałszerstwa. Jedna z partii stworzyła internetowy kwestionariusz, do którego wystarczyło wpisać dowolny tekst, a chwilę później można go było odsłuchać, jak gdyby wypowiedział go jeden z najbardziej znanych polskich polityków. Głos, akcent, maniera – wszystko brzmiało jak oryginał. Ale było fałszerstwem.

Dlaczego piszę o tym w artykule o zagrożonej demokracji? Bo zaufanie jest jednym z jej fundamentów. Między innymi zaufanie do tego, co widzę, i do tego, co słyszę. Co stanie się z zaufaniem do ludzi, instytucji, systemu wyborczego, gdy proces fałszowania i manipulowania zostanie zautomatyzowany przez inteligentne algorytmy? Gdy te sfałszowane tak, aby odpowiadały konkretnemu odbiorcy (o profilowaniu i targetowaniu pisałem wyżej), treści wyleją się na cały cyfrowy świat, skąd będziemy wiedzieli, co prawdą jest, a co nią nie jest? Na podstawie jakich przesłanek będziemy podejmowali wyborcze decyzje? Jak na te decyzje może rzutować np. granie społecznymi emocjami i odruchami? Ktoś, kto ma w ręku tak potężne narzędzia, może mieć wpływ na wynik wyborczy. Nie brakuje głosów, że dzięki wykorzystaniu tych właśnie mechanizmów w 2016 roku prezydentem USA został Donald Trump. Jego wybór był konsekwencją procesu wyborczego. Czy Amerykanie rzeczywiście byli w tym wyborze wolni? Czy byli wolni Brytyjczycy, gdy głosowali za wystąpieniem ich kraju z Unii Europejskiej? Dzisiaj wiemy, jak wiele energii (i pieniędzy) poświęcono wtedy na prowadzenie opartych na botach i algorytmach kampanii w internecie. Kto zatem te wybory wygrywał, a kto nimi grał?

Co z tym zrobić?

Sztuczna inteligencja nie ma świadomości. Nie ma swoich celów ani własnego zdania. Nic nie wie, niczego nie rozumie, niczego nie interpretuje. Jest bardzo skomplikowanym programem, który analizuje ogromne zbiory danych i na podstawie tych analiz wyciąga z nich wnioski. Te wnioski zależą jednak od tego, jakie dane dostanie do analizy, na jakich danych się uczy. Mogą być one obciążone stereotypami, uprzedzeniami czy poglądami twórców technologii lub jej trenerów. Te procesy powinny być regulowane prawnie i kontrolowane. Nie możemy popełnić błędu, który popełniliśmy, gdy szybko rozwijały się media społecznościowe. W ich przypadku instytucje państwa i międzynarodowe gremia (na przykład takie jak struktury europejskie) w zasadzie skapitulowały. Straty zaczęły odrabiać o kilka lat za późno. Sztuczna inteligencja powinna być regulowana ściśle i z całą stanowczością. Inaczej z jej powodu wpadniemy w ogromne kłopoty. Może cieszyć fakt, że Komisja Europejska ma chyba tego świadomość, bo prace nad regulacjami AI w Europie są na ukończeniu. Czy będą one jednak wystarczające, skoro nie ma dnia bez kolejnych milowych kroków rozwoju tej technologii?

Ale nawet najlepsze regulacje nie wystarczą, gdy my, użytkownicy, nie będziemy świadomi tej technologii. I tutaj dochodzimy do edukacji i wychowania. I to na różnych płaszczyznach – na technologicznej i obywatelskiej. O sztucznej inteligencji mówi się sporo. Konkretyzuje się związane z nią zagrożenia znacznie rzadziej. A wśród tych wspominanych stanowczo najrzadziej mówi się o tym, że algorytmy mogą zachwiać podstawami demokratycznych wyborów. To jest groźne, bo oznacza, że nie mamy świadomości zagrożenia. A tymczasem inteligentne algorytmy są wykorzystywane w najbardziej wrażliwych systemach czy dziedzinach życia. W medycynie i edukacji, ale także w wymiarze sprawiedliwości. Czy mamy tego świadomość? Czy uczymy o tym w szkole? Niestety, nie uczymy. Zachowujemy się jak dziecko, które uważa, że problemy tego świata znikają, gdy ono zamknie oczy. A one, niestety, nabrzmiewają.

Dostępna jest część treści. Chcesz więcej? Zaloguj się i rozpocznij subskrypcję.
Kup wydanie papierowe lub najnowsze e-wydanie.