Sztuczna inteligencja nie taka potulna

MG

publikacja 20.11.2017 08:10

Na razie ludzie sterują sztuczną inteligencją. Co jeśli wymknie się spod kontroli? Ten eksperyment pokazał, jakie może przybrać oblicze.

Sztuczna inteligencja nie taka potulna Tay bot logo Wikipedia

Ostatnio miałam okazję posłuchać krótkiego wykładu o sztucznej inteligencji. Moją uwagę przykuł fragment o chatbocie Microsofta. Sprawa była głośna rok temu.

Chatbot – Tay miał być wizytówką Microsofta, ale po 24 godzinach od uruchomienia musiał zostać wyłączony.

Wirtualny byt 19-letniej Tay trafił na Twittera, gdzie jednak większość użytkowników to ludzie. Miał się uczyć, poznawać, rozmawiać, analizować i stawać się „bardziej ludzkim”. Cóż eksperyment zdecydowanie wymknął się spod kontroli. Microsoft chyba nie przewidział „trolli”. Sztuczna inteligencja nie miała szans ze złośliwością i pomysłowością ludzi. Co prawda Tay uczyła się szybko, ale w zaledwie 24 godziny stała się rasistką i fanką Hitlera.

Trudno stwierdzić na ile to wina Microsofta, na ile analiza rzeczywistości, a na ile przyczynili się do tego internauci. Należy jednak wyciągnąć wnioski, jeśli ludzie podsuwają sztucznej inteligencji głupie pomysły, to się nie może skończyć dla nas dobrze.