![Sztuczna inteligencja błędnie zidentyfikowała osiem osób, co doprowadziło do ich aresztowania [Źródło: RMF24]](https://i.iplsc.com/-/000KFZML8OPLS8SC-C411.jpeg)
Oryginalny tytuł: Sztuczna inteligencja źle rozpoznała twarze. Osiem osób trafiło za kraty
Link do źródła: https://www.rmf24.pl/nauka/news-sztuczna-inteligencja-zle-rozpoznala-twarze-osiem-osob-trafi,nId,7892532
Co najmniej ośmiu Amerykanów zostało aresztowanych, ponieważ zostali mylnie zidentyfikowani przez oprogramowanie rozpoznawania twarzy - podał dziennik “Washington Post”. Policja w USA używa sztucznej inteligencji do zatrzymywania podejrzanych bez konieczności posiadania innych dowodów. Dziennik przeanalizował policyjne dane z raportów, akt sądowych oraz rozmów z policją, prokuratorami i adwokatami. Redakcja zastrzegła, że najprawdopodobniej naświetliła za ich pomocą niewielką część problemu: prokuratorzy rzadko informują opinię publiczną, kiedy użyli narzędzi sztucznej inteligencji (AI), a prawo wymaga ich ujawnienia tylko w siedmiu stanach. Całkowita liczba przypadków niesłusznych aresztowań spowodowanych przez błędne wyniki wyszukiwania przez narzędzia AI jest więc niemożliwa do ustalenia - podkreślił “WP”. Jak ustaliła gazeta, w ośmiu znanych przypadkach niesłusznego aresztowania, policja, opierając się na identyfikacji twarzy przez narzędzia AI, nie podjęła co najmniej jednego z podstawowych działań śledczych. Gdyby jednak sprawdziła alibi, porównała znaki szczególne, zbadała dowody DNA lub odciski palców, tych ośmiu osób można byłoby wykluczyć jako podejrzanych jeszcze przed aresztowaniem. W sześciu z ośmiu przypadków policja nie sprawdziła alibi podejrzanych, a w dwóch zignorowała dowody przeczące jej założeniom - nawet tak znaczące, jak ślady DNA i odciski palców, które wskazywały na innego potencjalnego podejrzanego. “WP” przyznał, że oprogramowanie do rozpoznawania twarzy działa niemal doskonale w warunkach laboratoryjnych, z wykorzystaniem wyraźnych zdjęć porównawczych. Jednak, jak zauważyła Katie Kinsey, badaczka z wydziału prawa uniwersytetu NYU, nie przeprowadzono niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania niewyraźnych zdjęć z monitoringu. Z tego powodu trudno jest ocenić, jak często technologia wadliwie rozpoznaje twarz. Co więcej, badacze odkryli, że osoby korzystające z narzędzi AI mogą ulegać skłonności do ślepego ufania podejmowanym przez nie decyzjom.