W dobie rosnącej zależności od sztucznej inteligencji (AI) w różnych sektorach, od ochrony zdrowia po wymiar sprawiedliwości, narasta niepokój o możliwe błędy technologiczne i ich konsekwencje. Niedawny przypadek z Włoch uwidocznił potencjalne zagrożenia związane z wykorzystywaniem AI do identyfikacji sprawców przestępstw.
44-letni murarz, pochodzący z Rumunii, został aresztowany w Rzymie na podstawie międzynarodowego nakazu aresztowania wystawionego przez szwajcarski kanton Ticino. Został oskarżony o dokonanie dwóch kradzieży w miastach Lugano i Ascona. Jak podał włoski dziennik „La Repubblica”, mężczyzna trafił do rzymskiego więzienia Regina Coeli, gdzie dowiedział się, że rozpoznano go jako sprawcę przestępstw dzięki technologii sztucznej inteligencji, analizującej nagrania z monitoringu.
Błąd technologiczny: Niewinny człowiek aresztowany
System AI, stosowany w Szwajcarii do identyfikacji sprawców na podstawie nagrań monitoringu, popełnił kardynalny błąd, myląc rumuńskiego murarza z rzeczywistym przestępcą. Podczas gdy miały miejsce kradzieże, mężczyzna przebywał w pracy w Rzymie, co potwierdzili jego pracodawcy.
Adwokat zatrzymanego, początkowo podejrzewając błąd sądowy, odkrył, że to sztuczna inteligencja była przyczyną pomyłki. AI, zamiast dokładnie porównać nagrania wideo, źle zidentyfikowała jego klienta, co doprowadziło do wydania nakazu aresztowania i jego zatrzymania pod koniec września.
Problemy w komunikacji między organami
Kiedy adwokat przedstawił dowody potwierdzające obecność mężczyzny w pracy w Rzymie, zaczęto badać sprawę głębiej. Prokurator z kantonu Ticino wyjaśnił, że już 4 września nakaz aresztowania został wycofany. Niestety, informacja ta nie została odpowiednio przekazana władzom włoskim, co sprawiło, że murarz nadal przebywał w więzieniu, czekając na ekstradycję do Szwajcarii.
Dopiero później sąd apelacyjny w Rzymie, po otrzymaniu oficjalnego komunikatu z Ministerstwa Spraw Wewnętrznych Włoch, nakazał natychmiastowe zwolnienie mężczyzny.
Wnioski: AI nie jest nieomylna
Ten incydent z Włoch i Szwajcarii zwraca uwagę na kilka istotnych problemów. Po pierwsze, choć technologia AI ma ogromny potencjał w zakresie identyfikacji przestępców, nie jest ona wolna od błędów. Systemy takie jak monitoring z AI mogą opierać się na danych niepełnych lub błędnie interpretować informacje, co prowadzi do poważnych konsekwencji, takich jak aresztowanie niewinnych osób.
Po drugie, sprawa ta podkreśla także znaczenie skutecznej komunikacji między międzynarodowymi organami wymiaru sprawiedliwości. Brak właściwego przepływu informacji doprowadził do przedłużonego zatrzymania człowieka, mimo że decyzja o wycofaniu nakazu aresztowania była już podjęta.
Co dalej?
Technologia AI może odegrać kluczową rolę w zwalczaniu przestępczości, jednak niezbędne jest opracowanie odpowiednich protokołów i narzędzi kontrolnych, które zmniejszą ryzyko błędów. Sztuczna inteligencja nie powinna być jedynym narzędziem decyzyjnym w procesie wymiaru sprawiedliwości, zwłaszcza w tak delikatnych kwestiach jak aresztowania i ekstradycje. Ważne jest, aby rozwijać systemy AI w sposób transparentny, a także aby organy ścigania współpracowały w zakresie przetwarzania i wymiany danych z jeszcze większą starannością.
Jeden komentarz
To nie błąd, to celowe sterowanie niby „sztuczna inteligencją” ta sztuczna inteligencja jest zależna od ludzkiej ręki.