Nowy numer 29/2021 Archiwum

Kogo nie lubią w Facebooku

– Lewicowy skręt to norma wśród pracowników IT – mówi polski informatyk, który pracował w siedzibie Facebooka w Kalifornii. Nie tylko narodowcy uważają, że największy serwis społecznościowy świata cenzuruje konserwatywne treści.

Skasowali profile z setkami tysięcy obserwujących. Stowarzyszenie Marsz Niepodległości – 250 tys. fanów. Ruch Narodowy – 170 tys. Młodzież Wszechpolska – 80 tys. – ogłosił Robert Winnicki z Ruchu Narodowego. Zaraz potem posypały się blokady dla wszystkich, którzy umieścili na swoim profilu zapraszający na marsz 11 listopada plakat przedstawiający husarza, krzyż i zdjęcie pochodu.

Po medialnym nagłośnieniu sprawy serwis odblokował profile. Richard Allan, wiceszef Facebooka ds. polityki publicznej w Europie, Afryce i na Bliskim Wschodzie, tłumaczył, że powodem blokady było to, że na plakacie widniała falanga, czyli znak Obozu Narodowo-Radykalnego. Jak dodawał, firma „zdecydowała się zezwolić” na udostępnienie grafiki, gdyż Marsz Niepodległości jest legalnym wydarzeniem. Zasady blokowania profili przez Facebook pozostają jednak niejasne. Poseł Robert Winnicki z Ruchu Narodowego podaje np., że profil marszu przywrócono w wersji z czerwca, a nie z dnia, kiedy zniknął.

„Nie narusza regulaminu”

Afera z blokadą narodowców nie jest pierwszą tego typu sprawą w Polsce. W zeszłym roku na miesiąc zablokowany został profil serwisu Fronda.pl. Powód? Artykuł zatytułowany „Sprowadzanie do Polski muzułmanów to import potencjalnego zagrożenia”. Podobne problemy miał portal PCh24.pl. Z powodu publikacji artykułu o konsekwencjach homoseksualizmu zawieszono działalność kont pracowników tego serwisu. Portal zwracał uwagę, że Facebook nie był tak rygorystyczny wobec strony pt. „Najseksowniejsze 4-, 5- i 6-latki”. Internauci, którzy zgłaszali naruszenie zasad przez tę stronę, w odpowiedzi uzyskiwali informację, że „nie narusza ona regulaminu”. Pedofilski profil zniknął dopiero po tym, jak sprawą zainteresowały się media. Moderatorzy nie dopatrzyli się też naruszenia zasad w przypadku profili wulgarnie atakujących papieża. Pomimo zgłoszeń przez wiele miesięcy funkcjonowała strona zatytułowana „Ruch wyp... Terlika w kosmos”, a strona w identyczny sposób obrażająca działaczy pro life istniała do dnia zamknięcia tego numeru „Gościa”. Na profilu tym można było znaleźć zdjęcia martwych noworodków z wadami wrodzonymi, choć za publikacje fotografii abortowanych dzieci obrońcy życia są blokowani.

Tajne przez poufne

Zakładając konto, użytkownik Facebooka zgadza się na przestrzeganie regulaminu zakazującego publikacji m.in. treści, które „promują nienawiść” lub zawierają „drastyczną i nieuzasadnioną przemoc”. Ocenianiem, czy dany wpis złamał te zasady, zajmują się ludzie specjalnie do tego zatrudnieni (często są pracownikami firmy outsourcingowej). Podobnie jak inni pracownicy Facebooka, są oni zobowiązani do zachowania ścisłej tajemnicy. Przynajmniej w niektórych wypadkach klauzula obowiązuje nawet kilka lat po odejściu z pracy.

Grupy tzw. kuratorów nie muszą pracować w kraju, którym się zajmują. Zespół sprawdzający polskojęzyczną część serwisu ma funkcjonować w Irlandii. W Warszawie można znaleźć osoby, które zajmują się wpisami niemieckojęzycznymi. Polski informatyk, pracujący niegdyś w siedzibie Facebooka, powiedział nam, że firma, która na zlecenie serwisu kontrolowała zdjęcia, miała znajdować się w Maroku.

Firma reprezentująca Facebook w mediach (polski oddział korporacji nie ma oficjalnego rzecznika prasowego) zapewniała w rozmowie z portalem wpolityce.pl, że „pracownicy weryfikujący raporty działają bezstronnie, (...) nie biorąc pod uwagę przekonań politycznych ich autorów”. Nie zdradziła przy tym szczegółów. Wiadomo, że do kontroli wpisów wykorzystywane są algorytmy, które sprawdzają, czy dany tekst lub obraz zawiera niechciane treści. Proces ten nie jest jednak pozostawiony sam sobie. – Bardzo bym się zdziwił, gdyby udało się stworzyć taką metodę bez wkładu ludzkiego – mówi Błażej Osiński, informatyk, który zajmuje się tzw. uczeniem maszynowym. – Algorytm sam nie zgadnie, czy dana treść narusza zasady, dopóki ktoś go tego nie nauczy. Dostaje np. 10 tys. postów do zablokowania i 10 tys. takich, które trzeba dopuścić. Na ich podstawie zachodzi proces uczenia maszynowego, w którym algorytm zaczyna rozpoznawać cechy niechcianych wiadomości.

Możliwość wpływania na treść na tym się nie kończy. Wiosną tego roku byli kuratorzy Facebooka opowiedzieli mediom, że serwis niekiedy ręcznie steruje popularnością postów. Twierdzili, że mieli zalecenie, by promować wpisy pochodzące z mediów kojarzonych z lewicą, jak CNN czy „Guardian”, a hamować rozpowszechnianie tych, które publikowały media konserwatywne, jak Fox News. Mówili też, że mogli po prostu usunąć popularne hasło z listy trendów albo utrzymywać na niej takie, które nie cieszyło się popularnością.

« 1 2 »
oceń artykuł Pobieranie..
TAGI:

Wyraź swoją opinię

napisz do redakcji:

gosc@gosc.pl

podziel się

Zapisane na później

Pobieranie listy

Reklama