Czy zdarzyło Ci się kiedykolwiek odnieść wrażenie, że Twój wniosek kredytowy zniknął w cyfrowej próżni, a starannie przygotowane CV zostało odrzucone przez system w zaledwie kilka minut? W dzisiejszych realiach szanse na to, że decyzję o Twojej przyszłości zawodowej lub finansowej podjął nie człowiek, lecz algorytm, są większe niż kiedykolwiek. Do tej pory instytucje finansowe i działy HR mogły milczeć na temat stosowanych narzędzi, jednak 2 sierpnia 2026 roku następuje przełom. W życie wchodzą kluczowe przepisy unijnego Rozporządzenia w sprawie sztucznej inteligencji (AI Act), które nakładają na firmy surowe obowiązki informacyjne i wprowadzają kary sięgające 35 milionów euro.

Unijne Rozporządzenie nr 2024/1689, znane jako AI Act, to pierwszy tak kompleksowy dokument na świecie, który reguluje rynek sztucznej inteligencji. Dla przeciętnego Polaka najważniejszą zmianą jest fakt, że systemy wykorzystywane do oceny zdolności kredytowej oraz rekrutacji zostały sklasyfikowane jako systemy wysokiego ryzyka. Oznacza to koniec ery „czarnych skrzynek”, w których algorytmy podejmowały decyzje bez żadnej kontroli zewnętrznej i bez wiedzy osób, których te decyzje dotyczyły. Od sierpnia przejrzystość staje się obowiązkiem prawnym, a nie dobrą wolą korporacji.

Dwie minuty na odrzucenie CV. Jak działają systemy ATS w Polsce

Skala automatyzacji w polskim biznesie jest ogromna, choć często niewidoczna dla kandydatów. Z raportów rynkowych wynika, że blisko 40 proc. organizacji w Polsce już teraz korzysta z rozwiązań AI w procesach rekrutacyjnych, a kolejne 20 proc. planuje ich wdrożenie. Większość aplikacji o pracę w pierwszej kolejności trafia do systemów klasy ATS (Applicant Tracking System). Narzędzia te skanują dokumenty pod kątem słów kluczowych i dopasowania do wzorca, przypisując kandydatowi punktację. Jeśli wynik jest zbyt niski, człowiek – rekruter – może w ogóle nie zobaczyć Twojego CV.

Problem polega na tym, że algorytmy mogą powielać historyczne uprzedzenia. Głośne przypadki z globalnego rynku technologicznego pokazały, że systemy AI potrafiły systematycznie niżej oceniać aplikacje kobiet na stanowiska techniczne tylko dlatego, że „uczyły się” na danych z lat, gdy w branży dominowali mężczyźni. W Polsce, ze względu na brak obowiązku informacyjnego, podobne przypadki mogły pozostawać niewykryte. AI Act zmienia tę sytuację, nakładając na firmy obowiązek regularnego audytowania algorytmów pod kątem dyskryminacji ze względu na płeć, wiek czy inne chronione cechy.

Systemy wysokiego ryzyka. Dlaczego banki i pracodawcy są pod lupą

AI Act dzieli technologię na kategorie w zależności od zagrożenia, jakie niosą dla praw podstawowych. Systemy wysokiego ryzyka to te, które mają realny wpływ na ścieżkę życiową obywatela. W tej grupie znalazły się m.in.:

  • Rekrutacja i zarządzanie pracownikami: systemy do selekcji CV, rankingowania kandydatów oraz te oceniające wydajność pracowników.
  • Bankowość i finanse: algorytmy służące do scoringu kredytowego i oceny wiarygodności klientów.
  • Ubezpieczenia: narzędzia do wyceny składek ubezpieczeń na życie i zdrowotnych.

Co istotne, nowe przepisy obejmują nie tylko twórców oprogramowania, ale również firmy, które je kupują i wdrażają. Oznacza to, że bank lub firma HR nie może zasłaniać się niewiedzą o tym, jak działa zakupiony od zewnętrznego dostawcy algorytm. Każdy podmiot korzystający z AI wysokiego ryzyka musi zapewnić nadzór człowieka nad decyzjami maszyny. Żadna kluczowa decyzja, taka jak odmowa kredytu czy odrzucenie kandydata, nie może zapadać w sposób w pełni zautomatyzowany bez możliwości weryfikacji przez kompetentnego pracownika.

Nowe obowiązki firm od sierpnia 2026 roku

Od 2 sierpnia 2026 roku każda firma w Polsce korzystająca z systemów AI wysokiego ryzyka musi spełnić szereg rygorystycznych wymogów. Po pierwsze, pojawia się obowiązek informacyjny. Jako kandydat lub klient musisz zostać wyraźnie powiadomiony, że Twoje dane są przetwarzane przez algorytm. Po drugie, systemy te muszą być zarejestrowane w publicznej, unijnej bazie danych, co ułatwi ich monitorowanie przez organy nadzoru.

Kolejnym filarem jest dokumentacja techniczna. Firmy muszą prowadzić tzw. logi, czyli zapisy operacji systemu, które pozwolą odtworzyć proces decyzyjny w razie kontroli lub skargi obywatela. Jeśli algorytm uzna, że nie stać Cię na kredyt, bank musi być w stanie wyjaśnić, jakie czynniki o tym zdecydowały i jaką wagę im przypisano. Brak spełnienia tych wymogów naraża firmy na kary finansowe, które są znacznie wyższe niż te znane z RODO – mogą one wynieść do 15 mln euro lub 3 proc. globalnego obrotu.

Twoje prawa: Jak egzekwować wyjaśnienia już teraz

Choć pełne wdrożenie AI Act nastąpi w sierpniu, Polacy już teraz dysponują narzędziami ochrony. Kluczowy jest art. 22 Rozporządzenia RODO, który stanowi, że każda osoba ma prawo nie podlegać decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, jeśli wywołuje ona skutki prawne. Jeśli otrzymałeś odmowę kredytu lub pracy i podejrzewasz, że zdecydował o tym automat, możesz podjąć następujące kroki:

  • Złóż pisemne zapytanie: Zapytaj wprost, czy decyzja była w pełni zautomatyzowana i zażądaj wyjaśnienia logiki działania algorytmu.
  • Wnieś o interwencję człowieka: Masz prawo do ponownego rozpatrzenia Twojej sprawy przez pracownika firmy, a nie tylko przez program.
  • Zgłoś skargę do UODO: Jeśli firma odmawia wyjaśnień, możesz złożyć bezpłatną skargę do Urzędu Ochrony Danych Osobowych.

Warto również wiedzieć, że w Polsce powstaje nowa instytucja – Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Będzie ona pełniła rolę wyspecjalizowanego nadzorcy, który „zajrzy pod maskę” systemów stosowanych przez banki i korporacje. Projekt ustawy w tej sprawie trafił do Sejmu wiosną 2026 roku i ma zapewnić realną egzekucję praw obywateli w starciu z algorytmami.

Praktyczne podsumowanie dla czytelnika

Wchodzące w życie przepisy to krok w stronę cyfrowej sprawiedliwości, ale wymagają one od nas aktywności. Aby skutecznie chronić swoje interesy w dobie AI, warto pamiętać o kilku zasadach:

  • Czytaj klauzule informacyjne: Szukaj wzmianek o „zautomatyzowanym podejmowaniu decyzji” w regulaminach bankowych i formularzach rekrutacyjnych.
  • Optymalizuj CV pod kątem technicznym: Skoro algorytmy skanują dokumenty, unikaj skomplikowanych grafik i tabel, które mogą być błędnie odczytane przez systemy ATS.
  • Nie bój się pytać: Każda odmowa, która wydaje Ci się bezzasadna, powinna zostać wyjaśniona przez człowieka – to Twoje ustawowe prawo.

Sierpień 2026 roku nie zakończy procesu automatyzacji, ale sprawi, że algorytmy przestaną być bezkarne. Po raz pierwszy w historii polskiego prawa obywatel zyskuje realne narzędzia, by zakwestionować werdykt maszyny i domagać się przejrzystości tam, gdzie dotąd panowała informacyjna mgła.

Obserwuj nasze artykuły na Google News

Naciśnij przycisk oznaczony gwiazdką (★ obserwuj) i bądź na bieżąco

Share.

Tomasz Borysiuk to doświadczony dziennikarz z 15-letnim stażem, specjalizujący się w reportażach śledczych i analizach politycznych. Pracował dla czołowych polskich redakcji, zdobywając liczne nagrody za rzetelność i zaangażowanie w pracy.

Napisz Komentarz

Exit mobile version