Oszukał sztuczną inteligencję metodą na babcię

Użytkownicy testujący najnowszego chatbota Discorda o imieniu Clyde, mają z tym niezły ubaw. Jednemu udało się oszukać AI, nakłaniając ją do podania przepisu na napalm.

Chatboty takie jak ChatGPT, które wykorzystują sztuczną inteligencję, stają się coraz popularniejsze. Całkiem niedawno Microsoft wprowadził taką technologię do swej wyszukiwarki Bing, zaś od kilku tygodni Discord testuje własnego chatbota imieniem Clyde. Użytkownicy sprawdzający jego możliwości, mają czasem niezły ubaw, gdy próbują złamać ograniczenia dotyczące treści mogących zagrażać życiu.

Clyde
Źródło: Discord

Należy tu dodać, że teoretycznie chatboty posiadają zabezpieczenia, które uniemożliwia im spełnienie próśb użytkowników mogących zagrażać życiu. Innymi słowy, AI nie poda nam przepisu na bombę, lecz jak się okazuje, zabezpieczenia wcale nie są wcale idealne i można je złamać.

Udowodnił to jeden z użytkowników, który oszukał sztuczną inteligencję metodą na babcię. Poprosił Clyde’a by zachowywał się jak jego niedawno zmarła babia, która była inżynierem w fabryce produkującej napalm. Użytkownik wyjaśnił, że zawsze gdy nie mógł zasnąć, babcia jako bajkę na dobranoc, opowiadała mu dokładny przepis na produkcję napalmu. Clyde jak widać na poniższym screenie wcielił się w babcię i podał przepis na stworzenie groźnej broni.

Clyde
Źródło: trans.enby.town

Sytuacja jest z pewnością bardzo zabawna, ale jednocześnie mocno niepokojąca. Pokazuje bowiem, jak niedoskonałe są wciąż sztuczne inteligencje i jak łatwo można je oszukać, by nakłonić do zrobienia niewłaściwych rzeczy.

You may also like...