Mężczyzna walczy z AI, przez którą niesłusznie trafił do więzienia
Pewien mieszkaniec Chicago pozwał władze miasta o bezprawne aresztowanie w związku ze sprawą o morderstwo. Do więzienia wtrąciła go sztuczna inteligencja oraz system ShotSpotter, która jego zdaniem popełniła błąd.
Sztuczna inteligencja coraz bardziej wkracza w nasze życie, nie tylko wożąc nas autonomicznymi samochodami, ale również sugerując filmy w platformach streamingowych. Tego typu technologia wciąż jest jednak bardzo daleka od doskonałości i potrafi się mylić. Niestety konsekwencje takich pomyłek najczęściej ponoszą zwykli obywatele, którzy muszą potem walczyć o sprawiedliwość.
Przekonał się o tym na własnej skórze pewien 65-latek z Chicago. Spędził niemal rok w więzieniu pod zarzutem zastrzelenia mężczyzny w jego samochodzie. Na wolność wyszedł po tym, jak prokuratorzy poprosili sędziego o umorzenie jego sprawy z powodu niewystarczających dowodów. Mężczyzna twierdzi, że siedział niesłusznie, dlatego zdecydował się pozwać władze miasta.
ShotSpotter powodem niesłusznego aresztowania
65-latek trafił do więzienia z powodu technologii opracowanej przez firmę ShotSpotter, której zadaniem jest wykrywanie strzałów z broni palnej. Technologia bazuje na tysiącach mikrofonów rozmieszczonych w całym mieście, rejestrujących odgłosy strzałów. Następnie sztuczna inteligencja analizuje te dane i określa miejsce, w którym padł strzał. Gdy system zarejestruje wystrzał powiadamia również policję. W przypadku mężczyzny, nagranie audio z systemu ShotSpotter wykorzystano jako kluczowy dowód jego winy.
Mężczyznę aresztowano w 2021 roku z powodu śmierci młodego człowieka z sąsiedztwa, który w maju tego samego roku poprosił go o podwózkę w środku zamieszek związanych z brutalnością policji. Według mediów, kluczowym dowodem użytym do aresztowania 65-latka było nagranie z ulicznych kamer. Widać było na nim jego samochód jadący przez skrzyżowanie. Połączono je z hukiem wystrzału wychwyconym przez sieci ShotSpotter.
Badanie przeprowadzone w 2021 roku przez MacArthur Justice Center w 2021 r. wykazało jednak, że 89 procent zgłoszeń systemu wysyłanych organom ścigania, nie zawiera dowodów na żadne przestępstwo związane z bronią.
“W ciągu niecałych dwóch lat było ponad 40 000 fałszywych zgłoszeń ShotSpotter” – czytamy w raporcie. Grupa wskazała również, że alerty ShotSpotter “powinny służyć wyłącznie do wstępnych celów śledczych“. Na przykład polityka San Francisco dotycząca technologii nadzoru stanowi, że departament policji musi wykorzystywać informacje ShotSpotter tylko do znalezienia dowodów łuski na miejscu zdarzenia i dalszej analizy incydentu.
Prawnicy poszkodowanego oskarżają policję Chicago o brak innych tropów w śledztwie. W tym także zlekceważenia doniesienia mówiącego, iż ofiarę zastrzelono wcześniej na przystanku autobusowym. Poza tym władze nigdy nie ustaliły co było rzekomym motywem 65-latka. Nie znalazły też broni palnej, ani żadnego fizycznego dowodu potwierdzającego, że to on strzelał.
AI myli się zbyt często
ShotSpotter zamieścił już na swej stronie oświadczenie, w którym odrzuca zarzuty dotyczące dokładności systemu i nazywa je fałszywymi. Firma twierdzi, że technologia ma 97-procentową skuteczność, zaś odsetek fałszywie pozytywnych wyników wynosi jedynie 0,5 procent. Podkreśla też, że liczby te zostały niezależnie potwierdzone przez Edgeworth Analytics, firmę zajmującą się analizą danych z Waszyngtonu.
Złożony pozew ma na celu uzyskanie statusu pozwu zbiorowego, do którego mogłaby dołączyć każda osoba zatrzymana z powodu systemu ShotSpotter. Poszkodowany domaga się również od miasta odszkodowania za udrękę psychiczną i utratę dochodów. A także za poniesione przez niego opłaty prawne. Chce też wywalczyć całkowity zakaz używania tej technologii w mieście.
Technogadżet w liczbach