Rozwój sztucznej inteligencji (AI) może spowodować masowe wstrząsy i wyginięcie ludzkości w nadchodzących latach – pisze amerykańskie wydanie magazynu The Week, powołując się na naukowców i inżynierów.
POLECAMY: Jak sztuczna inteligencja zmieni nasze życie?
„Ponad 350 naukowców i inżynierów zajmujących się sztuczną inteligencją ostrzegło niedawno, że sztuczna inteligencja stwarza ryzyko porównywalne z pandemią i wojną nuklearną” – czytamy w artykule.
Publikacja cytuje brytyjskiego naukowca Geoffreya Hintona, nazywanego również „ojcem chrzestnym AI”.
Jego zdaniem obawy związane z potężnym rozwojem sztucznej inteligencji zdolnej do wywołania ogromnych wstrząsów społecznych, a nawet zniszczenia ludzkości, nie są science fiction.
W materiale zauważono, że Hinton wcześniej uważał, że tego rodzaju zagrożenie może stać się istotne za 30 lat, ale, jak powiedział, sztuczna inteligencja ewoluuje tak szybko w kierunku superinteligencji, że może stać się mądrzejsza od ludzi w ciągu zaledwie pięciu lat. To właśnie fakt, że sztuczna inteligencja może przewyższyć ludzi w niemal każdej dziedzinie, jest zdaniem Hintona i innych naukowców głównym zagrożeniem dla ludzkości, porównywalnym z przybyciem „wyższej rasy obcych” na naszą planetę.
„Jednym ze scenariuszy jest to, że złośliwi aktorzy wykorzystają jej możliwości do stworzenia nowej broni biologicznej, bardziej śmiercionośnej niż naturalne pandemie” – napisano w artykule.
W miarę jak sztuczna inteligencja staje się zintegrowana z systemami na świecie, terroryści i inne złośliwe podmioty mogą wykorzystywać ją do zamykania rynków finansowych, sieci energetycznych i innej istotnej infrastruktury, takiej jak zaopatrzenie w wodę.
Poważne niebezpieczeństwo wynika również z faktu, że w pewnym momencie sztuczna inteligencja może postrzegać ludzkość jako przeszkodę w osiągnięciu swojego celu i zdecydować, że należy ją zniszczyć, piszą autorzy artykułu.
„Aby pozbyć się ludzi, sztuczna inteligencja mogłaby oszukać przywódców krajów, aby uwierzyli, że wróg wystrzelił pociski nuklearne, aby wystrzelili własne” – czytamy w publikacji.
Wcześniej brytyjska gazeta The Guardian, cytując amerykańskiego pułkownika Tuckera Hamiltona, poinformowała o symulowanym teście sztucznej inteligencji, w którym dron zdecydował się wyeliminować swojego operatora, ponieważ „uniemożliwiał mu dotarcie do celu”.