W dobie rosnącej zależności od sztucznej inteligencji (AI) w różnych sektorach, od ochrony zdrowia po wymiar sprawiedliwości, narasta niepokój o możliwe błędy technologiczne i ich konsekwencje. Niedawny przypadek z Włoch uwidocznił potencjalne zagrożenia związane z wykorzystywaniem AI do identyfikacji sprawców przestępstw.

44-letni murarz, pochodzący z Rumunii, został aresztowany w Rzymie na podstawie międzynarodowego nakazu aresztowania wystawionego przez szwajcarski kanton Ticino. Został oskarżony o dokonanie dwóch kradzieży w miastach Lugano i Ascona. Jak podał włoski dziennik „La Repubblica”, mężczyzna trafił do rzymskiego więzienia Regina Coeli, gdzie dowiedział się, że rozpoznano go jako sprawcę przestępstw dzięki technologii sztucznej inteligencji, analizującej nagrania z monitoringu.

Błąd technologiczny: Niewinny człowiek aresztowany

System AI, stosowany w Szwajcarii do identyfikacji sprawców na podstawie nagrań monitoringu, popełnił kardynalny błąd, myląc rumuńskiego murarza z rzeczywistym przestępcą. Podczas gdy miały miejsce kradzieże, mężczyzna przebywał w pracy w Rzymie, co potwierdzili jego pracodawcy.

Adwokat zatrzymanego, początkowo podejrzewając błąd sądowy, odkrył, że to sztuczna inteligencja była przyczyną pomyłki. AI, zamiast dokładnie porównać nagrania wideo, źle zidentyfikowała jego klienta, co doprowadziło do wydania nakazu aresztowania i jego zatrzymania pod koniec września.

Problemy w komunikacji między organami

Kiedy adwokat przedstawił dowody potwierdzające obecność mężczyzny w pracy w Rzymie, zaczęto badać sprawę głębiej. Prokurator z kantonu Ticino wyjaśnił, że już 4 września nakaz aresztowania został wycofany. Niestety, informacja ta nie została odpowiednio przekazana władzom włoskim, co sprawiło, że murarz nadal przebywał w więzieniu, czekając na ekstradycję do Szwajcarii.

Dopiero później sąd apelacyjny w Rzymie, po otrzymaniu oficjalnego komunikatu z Ministerstwa Spraw Wewnętrznych Włoch, nakazał natychmiastowe zwolnienie mężczyzny.

Wnioski: AI nie jest nieomylna

Ten incydent z Włoch i Szwajcarii zwraca uwagę na kilka istotnych problemów. Po pierwsze, choć technologia AI ma ogromny potencjał w zakresie identyfikacji przestępców, nie jest ona wolna od błędów. Systemy takie jak monitoring z AI mogą opierać się na danych niepełnych lub błędnie interpretować informacje, co prowadzi do poważnych konsekwencji, takich jak aresztowanie niewinnych osób.

Po drugie, sprawa ta podkreśla także znaczenie skutecznej komunikacji między międzynarodowymi organami wymiaru sprawiedliwości. Brak właściwego przepływu informacji doprowadził do przedłużonego zatrzymania człowieka, mimo że decyzja o wycofaniu nakazu aresztowania była już podjęta.

Co dalej?

Technologia AI może odegrać kluczową rolę w zwalczaniu przestępczości, jednak niezbędne jest opracowanie odpowiednich protokołów i narzędzi kontrolnych, które zmniejszą ryzyko błędów. Sztuczna inteligencja nie powinna być jedynym narzędziem decyzyjnym w procesie wymiaru sprawiedliwości, zwłaszcza w tak delikatnych kwestiach jak aresztowania i ekstradycje. Ważne jest, aby rozwijać systemy AI w sposób transparentny, a także aby organy ścigania współpracowały w zakresie przetwarzania i wymiany danych z jeszcze większą starannością.

Obserwuj nasze artykuły na Google News

Naciśnij przycisk oznaczony gwiazdką (★ obserwuj) i bądź na bieżąco

Share.

Ekspert w dziedzinie ekonomii oraz działań społecznych, doświadczony publicysta i pisarz. Pierwsze artykuły opublikował w 1999 roku publikacjami dla międzynarodowych wydawców. Współpracując z czołowymi światowymi redakcjami.

Jeden komentarz

  1. To nie błąd, to celowe sterowanie niby „sztuczna inteligencją” ta sztuczna inteligencja jest zależna od ludzkiej ręki.

Napisz Komentarz

Exit mobile version