Nowy Numer 16/2024 Archiwum

Sztuczna inteligencja nie taka potulna

Na razie ludzie sterują sztuczną inteligencją. Co jeśli wymknie się spod kontroli? Ten eksperyment pokazał, jakie może przybrać oblicze.

Ostatnio miałam okazję posłuchać krótkiego wykładu o sztucznej inteligencji. Moją uwagę przykuł fragment o chatbocie Microsofta. Sprawa była głośna rok temu.

Chatbot – Tay miał być wizytówką Microsofta, ale po 24 godzinach od uruchomienia musiał zostać wyłączony.

Wirtualny byt 19-letniej Tay trafił na Twittera, gdzie jednak większość użytkowników to ludzie. Miał się uczyć, poznawać, rozmawiać, analizować i stawać się „bardziej ludzkim”. Cóż eksperyment zdecydowanie wymknął się spod kontroli. Microsoft chyba nie przewidział „trolli”. Sztuczna inteligencja nie miała szans ze złośliwością i pomysłowością ludzi. Co prawda Tay uczyła się szybko, ale w zaledwie 24 godziny stała się rasistką i fanką Hitlera.

Trudno stwierdzić na ile to wina Microsofta, na ile analiza rzeczywistości, a na ile przyczynili się do tego internauci. Należy jednak wyciągnąć wnioski, jeśli ludzie podsuwają sztucznej inteligencji głupie pomysły, to się nie może skończyć dla nas dobrze.

« 1 »

Zapisane na później

Pobieranie listy