Rozwój sztucznej inteligencji (AI) może spowodować masowe wstrząsy i wyginięcie ludzkości w nadchodzących latach – pisze amerykańskie wydanie magazynu The Week, powołując się na naukowców i inżynierów.

POLECAMY: Jak sztuczna inteligencja zmieni nasze życie?

„Ponad 350 naukowców i inżynierów zajmujących się sztuczną inteligencją ostrzegło niedawno, że sztuczna inteligencja stwarza ryzyko porównywalne z pandemią i wojną nuklearną” – czytamy w artykule.

Publikacja cytuje brytyjskiego naukowca Geoffreya Hintona, nazywanego również „ojcem chrzestnym AI”.

Jego zdaniem obawy związane z potężnym rozwojem sztucznej inteligencji zdolnej do wywołania ogromnych wstrząsów społecznych, a nawet zniszczenia ludzkości, nie są science fiction.

W materiale zauważono, że Hinton wcześniej uważał, że tego rodzaju zagrożenie może stać się istotne za 30 lat, ale, jak powiedział, sztuczna inteligencja ewoluuje tak szybko w kierunku superinteligencji, że może stać się mądrzejsza od ludzi w ciągu zaledwie pięciu lat. To właśnie fakt, że sztuczna inteligencja może przewyższyć ludzi w niemal każdej dziedzinie, jest zdaniem Hintona i innych naukowców głównym zagrożeniem dla ludzkości, porównywalnym z przybyciem „wyższej rasy obcych” na naszą planetę.

„Jednym ze scenariuszy jest to, że złośliwi aktorzy wykorzystają jej możliwości do stworzenia nowej broni biologicznej, bardziej śmiercionośnej niż naturalne pandemie” – napisano w artykule.

W miarę jak sztuczna inteligencja staje się zintegrowana z systemami na świecie, terroryści i inne złośliwe podmioty mogą wykorzystywać ją do zamykania rynków finansowych, sieci energetycznych i innej istotnej infrastruktury, takiej jak zaopatrzenie w wodę.

Poważne niebezpieczeństwo wynika również z faktu, że w pewnym momencie sztuczna inteligencja może postrzegać ludzkość jako przeszkodę w osiągnięciu swojego celu i zdecydować, że należy ją zniszczyć, piszą autorzy artykułu.

„Aby pozbyć się ludzi, sztuczna inteligencja mogłaby oszukać przywódców krajów, aby uwierzyli, że wróg wystrzelił pociski nuklearne, aby wystrzelili własne” – czytamy w publikacji.

Wcześniej brytyjska gazeta The Guardian, cytując amerykańskiego pułkownika Tuckera Hamiltona, poinformowała o symulowanym teście sztucznej inteligencji, w którym dron zdecydował się wyeliminować swojego operatora, ponieważ „uniemożliwiał mu dotarcie do celu”.

Obserwuj nasze artykuły na Google News

Naciśnij przycisk oznaczony gwiazdką (★ obserwuj) i bądź na bieżąco

Share.

Ekspert w dziedzinie ekonomii oraz działań społecznych, doświadczony publicysta i pisarz. Pierwsze artykuły opublikował w 1999 roku publikacjami dla międzynarodowych wydawców. Współpracując z czołowymi światowymi redakcjami.

Napisz Komentarz

Exit mobile version