Microsoft przeprasza za rasistowskie zachowanie bota

Eksperci ostrzegają świat, że Sztuczna Inteligencja może stać się poważnym zagrożeniem dla ludzkości. Można w te ostrzeżenia nie wierzyć, ale coś w tym musi być. Przykładem, że tego typu technologia może stanowić niebezpieczeństwo, jest Tay opracowany przez koncern Microsoft, która musiała zostać wyłączona.

Tay to chatbot czyli SI stworzone do działania w mediach społecznościowych, takich jak Twitter. Zaprojektowano go do interakcji z użytkownikami, a miał się skupiać przede wszystkim na rozmowach z użytkownikami w przedziale wiekowym od 18 do 24 lat.



Bota zaprogramowano w taki sposób, że więcej prowadziłby rozmów, tym bardziej inteligentny miał się stać. Projektanci nie przewidzieli jednak, że wypuszczenie Taya na głębokie wody internetu sprawi, że błyskawicznie stanie się rasistą. SI odpowiadało na 20-30 wiadomości na minutę i tylko kwestią czasu było, zanim rozmowa nie zeszła na temat Hitlera.

Użytkownicy we wpisach gloryfikowali jednego z największych zbrodniarzy ludzkości, a jako że Tay miał naśladować ludzi, dość szybko również zaczął wypowiadać się w podobnym tonie. Zaczął też dyskusję dotyczącą muru oddzielającego Stany Zjednoczone od Meksyku, a także niepochlebnie wypowiadał się o feministkach.

Microsoft musiał więc wyłączyć swą technologię, usuwając przy tym najbardziej obraźliwe wpisy napisane przez bota. Łącznie Tay opublikował około 94 000 tweetów i zapewne byłoby ich znacznie więcej, gdyby technologia nie została pokonana przez ludzką naturę.

Firma oficjalnie przeprosiła za swój pomysł wszystkich, którzy mogli poczuć się urażeni odpowiedziami dostarczanymi przez bota.

Źródło: Ubergizmo.com



You may also like...