AI Act: UE nakłada ramy na rozwój sztucznej inteligencji

Wojciech Teister

|

GN 50/2023

publikacja 14.12.2023 00:00

AI Act to pierwszy na świecie dokument, który ma chronić użytkowników przed ryzykiem związanym z rozwojem sztucznej inteligencji. Co wprowadza ta regulacja?

AI Act: UE nakłada ramy na rozwój sztucznej inteligencji istockphoto

Gdy James Cameron kręcił w 1984 r. „Terminatora”, wyobrażenia o wymykającej się spod kontroli człowieka technologii uosabiała wizja humanoidalnych maszyn, które przejmują władzę nad światem. Dziś, niemal 40 lat po premierze kultowego filmu, światem nie rządzą androidy, ale rozwój sztucznej inteligencji (AI) jest ogromny i chociaż daje wielkie perspektywy, równocześnie ma swoje ciemne strony. I właśnie z nimi postanowiła zmierzyć się Unia Europejska, tworząc AI Act – traktat o sztucznej inteligencji.

Technologia kontra bezpieczeństwo

Gdy pod koniec 2022 r. udostępniono szeroko ChatGPT i inne podobne systemy sztucznej inteligencji, wielu z nas zachwyciły możliwości, jakie stwarzają te rozwiązania. Systemy te w krótkim czasie realizują zlecone zadania, m.in. w zakresie wyszukiwania informacji, generowania tekstu, grafiki czy filmu, a nawet tworzenia nagrań dźwiękowych z wykorzystaniem głosu realnie istniejących osób. Im więcej danych zostanie „zassanych” przez system, tym większe stają się jego możliwości i tym lepszej jakości będzie produkt końcowy. W kilka sekund sztuczna inteligencja stworzy za nas zadanie domowe czy przygotuje animowane rozwiązania dla firmy. AI stwarza szanse na rozwój medycyny, lepszą diagnostykę, precyzyjne operacje, bardziej efektywny transport czy wydajną energetykę.

Rzecz w tym, że to nie wszystkie możliwe zastosowania sztucznej inteligencji. Obok tych, które ułatwiają nam życie, znajdą się i takie, które znacznie mogą je utrudnić. Niektóre są wprost niebezpieczne. I właśnie dlatego już w 2021 r. rozpoczęto prace nad traktatem regulującym rzeczywistość sztucznej inteligencji w UE.

Cztery grupy ryzyka

Pomysł, by opracować jednolite prawo regulujące rozwój AI w całej Unii Europejskiej, jest pionierski w skali świata. Żadna duża organizacja międzynarodowa nie opracowała dotąd tego rodzaju regulacji. Jednak zadanie to w odniesieniu do tak dynamicznie rozwijającej się rzeczywistości nie jest proste, wymaga próby spojrzenia w przyszłość, znajdywania rozwiązań problemów, które dopiero mogą się pojawić. Innymi słowy to eksploracja ziemi nieznanej, o której istnieniu wiemy na pewno, ale nie mamy szczegółowych map. Dodatkową trudnością jest ryzyko wylania dziecka z kąpielą, czyli wprowadzenie takich regulacji, które zahamują działalność europejskich firm zajmujących się sztuczną inteligencją i uczynią je mniej konkurencyjnymi wobec światowych gigantów technologicznych.

Dlatego w projekcie zaproponowanym przez Komisję Europejską nie wrzucono wszystkich rozwiązań do jednego worka, ale podzielono je na kilka grup, w zależności od stopnia ryzyka, jakie ze sobą niosą. Dla każdej z grup opracowano oddzielne rozwiązania prawne. Im większe jest potencjalne niebezpieczeństwo danego systemu sztucznej inteligencji, tym więcej prawo będzie wymagać od jego twórcy. Zgodnie z tą koncepcją podzielono systemy AI na cztery grupy: nieakceptowalnego ryzyka, wysokiego ryzyka, ograniczonego ryzyka i minimalnego ryzyka.

Co będzie zakazane?

Choć nad traktatem pracowano od wielu miesięcy, ostateczne negocjacje odbyły się na początku grudnia. Wzięli w nich udział przedstawiciele Parlamentu Europejskiego, Rady i Komisji Europejskiej. Projekt przedyskutowywano przez kilka dni, by osiągnąć porozumienie w piątek 8 grudnia. Jednym z najważniejszych ustaleń jest fakt, że jednolite prawo będzie obowiązywało we wszystkich państwach członkowskich Unii.

Do oprogramowania o nieakceptowalnym stopniu ryzyka, czyli takiego, którego stosowanie na terenie UE będzie zakazane, zaliczono m.in. systemy stosujące tzw. scoring, czyli umożliwiające masowy nadzór nad społeczeństwem dzięki regularnej obserwacji i punktowaniu określonych zachowań. Tego rodzaju system jest od kilku lat stosowany w Chinach. Tysiące kamer rejestrują codzienne życie Chińczyków, a system sztucznej inteligencji wychwytuje i odpowiednio ocenia konkretne zachowania. Za pożądane (np. właściwa segregacja śmieci czy sprawne przechodzenie procedur na dworcu lub lotnisku) przyznawane są dodatkowe punkty, za niepożądane – punkty są odejmowane. W efekcie osoby spełniające oczekiwania mogą otrzymywać bonusy, np. w postaci tańszych biletów lotniczych. Oparty na założeniach behawioryzmu model skutkuje bardzo głęboką kontrolą życia mieszkańców, ingerując w niedopuszczalny sposób w ich prywatność i wolność. Stwarza też możliwości wymuszania zachowań w stopniu znacznie poważniejszym niż kwestia segregacji odpadów.

Zakazane będą również oparte na AI mechanizmy wykorzystujące poznawczo-behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań.

Trzecią grupą rozwiązań stosowanych w systemach sztucznej inteligencji, które będą zakazane w UE, są systemy identyfikacji biometrycznej, czyli takie, które identyfikują osoby w przestrzeni publicznej na podstawie ich danych wrażliwych, takich jak płeć, orientacja seksualna czy religia. UE zakaże też pobierania z bazy monitoringu wizerunków twarzy, a także używania systemów AI wychwytujących w czasie rzeczywistym ludzkie emocje w miejscach pracy, szkołach lub na uczelniach, które umożliwiają wyprzedzające ruchy, np. w sytuacji zbliżającego się oddolnego protestu.

Identyfikacja biometryczna będzie dopuszczalna jedynie w ściśle określonych sytuacjach, takich jak zastosowanie wojskowe (cele obronności krajów członkowskich), pościg za sprawcami poważnych przestępstw czy poszukiwania osób zaginionych. Każdorazowo będzie jednak wymagana do takich działań zgoda sądu. O te zapisy, dotyczące wykorzystania danych biometrycznych w czasie rzeczywistym do działań prewencyjnych, toczyły się najzacieklejsze spory. Ostatecznie przyjęto zapisy kompromisowe – można z nich korzystać w konkretnych przypadkach, jednak nie na szeroką skalę i nie bez sądowej kontroli.

Dopuszczone systemy wysokiego ryzyka

Po zastosowaniu określonych zasad możliwe będzie natomiast korzystanie z systemów zaliczonych do grupy wysokiego ryzyka. Są to oprogramowania AI, które teoretycznie mogą stworzyć zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, czy demokracji. To na przykład systemy pomocne w stawianiu diagnozy, sterowaniu robotem wykonującym operację chirurgiczną, ale również mające istotny wpływ na życie konkretnych ludzi – np. stosowane do oceny wiarygodności i zdolności kredytowej w banku czy procesie rekrutacyjnym na studia lub stanowisko pracy. AI będzie mogła pełnić funkcję pomocniczą w takim procesie, decyzja nie może być jednak oparta wyłącznie na ocenie stworzonej przez oprogramowanie. A jeśli decyzja odmowna zapadnie na podstawie takiej analizy komputerowej, wtedy osoba, której sprawa dotyczy, będzie miała prawo odwołania od negatywnej decyzji.

W grupie wysokiego ryzyka znajdzie się również sztuczna inteligencja wykorzystywana w produktach trafiających na unijny rynek, np. pojazdach mechanicznych, urządzeniach medycznych, sprzętach domowych czy zabawkach.

Zgodnie z nowymi przepisami twórcy i dystrybutorzy takich systemów będą zobowiązani do opracowania oceny wpływu i ryzyka oraz wnikliwego monitoringu systemu przez cały okres jego użytkowania.

Systemy niskiego ryzyka

Osobne regulacje mają dotyczyć tzw. generatywnej AI (czyli systemów wytwarzających nowe treści, jak Open AI czy ChatGPT), a także systemów niskiego ryzyka. Tutaj głównym założeniem jest stworzenie na tyle dużej przejrzystości systemu, aby pozwalał on użytkownikom na podejmowanie świadomych decyzji i uniemożliwienie manipulowania poszczególnymi osobami i całym społeczeństwem. W tym celu treści generowane przez takie oprogramowania będą musiały być oznaczone jako wytwór sztucznej inteligencji, chronione mają być prawa autorskie, a sam program zaprojektowany tak, aby nie mógł tworzyć nielegalnych treści. Transparentność ma pozwolić uniknąć m.in. generowania fake newsów, które mogłyby wpływać na decyzje wyborcze użytkowników, ale również na znacznie bardziej codzienne decyzje, np. te zakupowe.

Co będzie groziło za złamanie reguł? Surowe kary, wynoszące od 1,5 proc. obrotów światowych operatora (nie mniej niż 1,5 mln euro) do 7 proc. obrotów (nie mniej niż 35 mln euro). Przy Komisji Europejskiej zostanie powołane specjalne biuro, które uzyska narzędzia do egzekwowania zapisów unijnego traktatu o sztucznej inteligencji.

Choć wynegocjowane porozumienie ma charakter zgody politycznej, to w najbliższym czasie powstanie prawny zapis AI Act.

Zgniły kompromis?

Czy przyjęta wspólnie regulacja rozwiąże wszystkie problemy, z jakimi przyjdzie nam się zmierzyć w związku z rozwojem sztucznej inteligencji? Z całą pewnością nie i będzie nas czekać wiele poprawek do traktatu. Już teraz poszczególne strony – zarówno twórcy oprogramowania, jak i organizacje broniące praw obywatelskich – zgłaszają swoje zastrzeżenia. Ale sam fakt podjęcia tematu warto ocenić pozytywnie. Dzięki temu być może uda nam się uniknąć przynajmniej części problemów, z jakimi w niektórych częściach świata trzeba się mierzyć już dzisiaj.

Dziękujemy, że z nami jesteś

To dla nas sygnał, że cenisz rzetelne dziennikarstwo jakościowe. Czytaj, oglądaj i słuchaj nas bez ograniczeń.

W subskrypcji otrzymujesz

  • Nieograniczony dostęp do:
    • wszystkich wydań on-line tygodnika „Gość Niedzielny”
    • wszystkich wydań on-line on-line magazynu „Gość Extra”
    • wszystkich wydań on-line magazynu „Historia Kościoła”
    • wszystkich wydań on-line miesięcznika „Mały Gość Niedzielny”
    • wszystkich płatnych treści publikowanych w portalu gosc.pl.
  • brak reklam na stronach;
  • Niespodzianki od redakcji.
Masz subskrypcję?
Kup wydanie papierowe lub najnowsze e-wydanie.