W przypadku odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję dużo zależy od konkretnego przypadku. W grę wchodzi odpowiedzialność kontaktowa, deliktowa oraz za produkt niebezpieczny.

Jak wynika z badania przeprowadzonego przez McKinsey, od koniec zeszłego roku 56 proc. firm korzystało ze sztucznej inteligencji (AI). Najczęściej sztuczna inteligencja angażowana jest do optymalizacji działań serwisowych, udoskonalenia produktów, automatyzacji contact center, optymalizacji produktów oraz zapobiegania awariom i ułatwiania interwencji. Zdarza się, że działanie sztucznej inteligencji doprowadza do szkód i wówczas powstaje kwestia, kto za te szkody odpowiada: producent, użytkownik, właściciel mienia, czasem haker.

Odpowiedzialność kontaktowana i deliktowa

Na gruncie cywilnoprawnym w przypadku szkody związanej z wyrządzonej przez oprogramowanie przeważnie mamy do czynienia przynajmniej z dwoma reżimami odpowiedzialności: kontraktową i deliktową, do tego dochodzi odpowiedzialność za produkt niebezpieczny.

Zwykle kluczowa jest odpowiedzialność kontraktowa, ponieważ dystrybutorzy lub producenci sprzedają urządzenia z zainstalowanym oprogramowaniem czy udostępniają samo oprogramowanie w chmurze, wykonując określone obowiązki umowne. Może to być umowa sprzedaży, licencyjna, świadczenia usług, wdrożeniowa itp.

Odpowiedzialność twórcy w ograniczonym zakresie

Odpowiedzialność twórcy będzie zazwyczaj ograniczała się jedynie do odpowiedzialności względem osoby producenta, na zlecenie którego stworzył oprogramowanie, chyba że twórca będzie jednocześnie producentem/sprzedawcą/dystrybutorem.

Zakres odpowiedzialności twórcy dodatkowo jest warunkowany tym, czy wytworzył dzieło w ramach umowy o pracę czy umowy cywilnoprawnej. Wyjątkiem jest sytuacja, w której twórca np. ukrył celowo w systemie sztucznej inteligencji jakieś dodatkowe, szkodliwe oprogramowane, które następnie uszkodziło lub zinfiltrowało zawartość dysków twardych użytkowników. Wówczas możemy mówić o jego odpowiedzialności deliktowej względem użytkowników.

Zarówno dystrybutor, jak i twórca, mogą na drodze umowy ograniczyć swoją odpowiedzialność.

Kłopoty z odpowiedzialnością za produkt

Obowiązuje też reżim odpowiedzialności producenta za produkt, ale do szkody może dojść także wtedy, gdy produkt działa poprawnie. Jednak to, ze działa poprawnie, nie oznacza jeszcze, że zapewnia bezpieczeństwo.

Przykład: Prawidłowo działający robot szachowy chwycił omyłkowo zamiast figury szachowej palec siedmioletniego gracza i mu go złamał.

Szkoda może powstać też niejako obok głównych funkcji urządzenia, przy okazji jego normalnej działalności.

Przykład: Producenci zabawek erotycznych sterowanych online za pośrednictwem smartfona czasami zbierają za ich pośrednictwem dodatkowe dane na temat osób z nich korzystających, np. nagrywając czy gromadząc dane o miejscu przebywania tych osób.

Gdy dojdzie do ataku hakerskiego

Skuteczny atak hakerski rodzi odpowiedzialność po stronie hakera, ale problem w tym, że hakera zwykle trudno jest ustalić. W niektórych przypadkach odpowiedzialność ponosi także zaatakowany podmiot. Chodzi tu o sytuacje, gdy konsekwencje ataku hakerskiego związane są z nieprawidłowościami w działaniu zaatakowanego podmiotu.

Przykład: Na skutek ataku hakerskiego wypływają dane klientów banku, który niedostatecznie zabezpieczył te dane.

UE chce uporządkować problematykę odpowiedzialności sztucznej inteligencji

Unia Europejska postanowiła skodyfikować problem za pomocą Artificial Inteligence Act, który m.in. dokonuje m.in. podziału systemów. Kryterium ma być stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze.

W 2020 r. przyjęto rezolucję Parlamentu Europejskiego dotyczącą reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów, w zakresie, w jakim odpowiedzialność nie mieściłaby się lub wykraczała, poza regulacje dotyczące odpowiedzialności za produkt.

Po koniec września 2022 r. został opublikowany wniosek do Dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję). Wniosek przewiduje wprowadzenie konstrukcji winy domniemanej pozwanego w przypadku szkód spowodowanych przez systemy sztucznej inteligencji wysokiego ryzyka. Projekt jednak nie przewiduje wprowadzenia obowiązkowego ubezpieczenia OC.

Niniejszy artykuł stanowi formę porady prawnej pro bono i ma na celu edukację prawną obywateli RP. Artykuł ten nie stanowi oferty handlowej w rozumieniu przepisów kodeksu cywilnego.

Nasza Kancelaria świadczy usługi prawne w zakresie każdej dziedziny prawnej. Jeśli poszukujecie Państwo prawnika, zapraszamy do kontaktu z naszą Kancelarią pod nr tel. 579636527, lub poprzez formularz kontaktowy, jaki znajduje się na naszej stronie głównej.

Świadczymy usługi prawne również drogą online. Informujemy, że porady prawne nie są udzielane pro bono.

Opracowano przez: Zespół LEGA ARTIS

Polecamy inne nasze publikacje w zakresie zmian prawnych. Aby wejść w zakładkę „Prawo co dnia” kliknij poniższy obrazek.

Obserwuj nasze artykuły na Google News

Naciśnij przycisk oznaczony gwiazdką (★ obserwuj) i bądź na bieżąco

Share.

Ekspert w swojej dziedzinie - Publicysta, pisarz i działacz społeczny. Pierwsze artykuły opublikował w 1999 roku dla międzynarodowych wydawców. Przez ponad 30 lat zdobywa swoje doświadczenie dzięki współpracy z największymi redakcjami. W swoich artykułach stara się podejmować kontrowersyjne tematy i prezentować oryginalne punkty widzenia, które pozwalały na głębsze zrozumienie omawianych kwestii.

Napisz Komentarz

Exit mobile version